تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



الكشف عن Auto-GPT.. استقلال الذكاء الصناعي


القاهرة : الأمير كمال فرج.

أوتو جي بي تي Auto-GPT مشروع رائد أم مجرد تجربة ذكاء اصطناعي أخرى مبالغ فيها؟،  وAuto-GPT تطبيق تجريبي مفتوح المصدر يعرض قدرات نموذج لغة GPT-4، ويجمع أفكار LLM معًا لتحقيق أي هدف تحدده بشكل مستقل، وهو بذلك يدفع الذكاء الاصطناعي إل حدود قصوى، في هذا التقرير، نكشف الحقيقة، والقيود التي تجعل هذا المشروع غير مناسب لتطبيقات العالم الحقيقي.

ذكر هان شياو في تقرير نشره موقع Gina أن "عالم التكنولوجيا شهد مؤخرًا ضجيجًا مع الصعود المذهل لـ Auto-GPT ، وهو تطبيق تجريبي مفتوح المصدر مبني على نموذج لغة GPT-4 المتطور. في غضون سبعة أيام فقط، صعد هذا المشروع إلى الشهرة، وجذب مجتمع المصادر المفتوحة".

يتصور Auto-GPT مستقبلًا تكون فيه المهام المستقلة التي يقودها الذكاء الاصطناعي هي القاعدة، ويتم تحقيقها من خلال تجميع أفكار نموذج اللغة الكبيرة (LLM) معًا.

ومع ذلك، فإن كل نجاح بين عشية وضحاها يأتي مع نصيبه العادل من آلام النمو. بينما نحتفل بالصعود السريع لـ Auto-GPT، من الأهمية بمكان التراجع خطوة إلى الوراء والتدقيق في أوجه القصور المحتملة. في هذه المقالة، نتعمق في القيود والتحديات التي تواجهها شركة
GitHub في سعيها لتحقيق جاهزية الإنتاج. لذا، اربطوا أحزمة الأمان وانضموا إلينا في هذه الرحلة الرائعة بينما نتحرك في المنعطفات ونستكشف طريق Auto-GPT إلى النجومية.

كيف يعمل Auto-GPT؟

أحدثت تقنية Auto-GPT ضجة في عالم الذكاء الاصطناعي، لسبب وجيه. إنه يشبه إعطاء النماذج القائمة على GPT ذاكرة وجسمًا، مما يسمح لها بمعالجة المهام بشكل مستقل وحتى التعلم من تجاربها. لمساعدتك في فهم كيفية عمل Auto-GPT ، دعنا نقسمها باستخدام استعارات بسيطة.

تخيل Auto-GPT كإنسان آلي واسع الحيلة. أنت تكلفه بمهمة، ويخرج بخطة لإنجازها. إذا كانت المهمة تتطلب تصفح الإنترنت أو استخدام بيانات جديدة، فإن Auto-GPT تكيف استراتيجيتها حتى تكتمل المهمة. يشبه الأمر امتلاك مساعد شخصي يمكنه التعامل مع مهام مختلفة، مثل تحليل الأسواق وخدمة العملاء والتسويق والتمويل والمزيد.

4 مكونات رئيسية لتميز هذا التطبيق:

1ـ الهندسة المعمارية: تم تصميم Auto-GPT باستخدام نماذج لغة GPT-4 و GPT-3.5 القوية، والتي تعمل بمثابة عقل الروبوت، مما يساعده على التفكير والإدراك.

2ـ التكرارات الذاتية: هذا يشبه قدرة الروبوت على التعلم من أخطائه. يمكن لـ Auto-GPT مراجعة عمله، والبناء على جهوده السابقة، واستخدام سجله لإنتاج نتائج أكثر دقة.

3ـ إدارة الذاكرة: يتيح التكامل مع قواعد البيانات المتجهة، وهو حل لتخزين الذاكرة، لـ Auto-GPT القدرة على الحفاظ على السياق واتخاذ قرارات أفضل. هذا يشبه تجهيز الروبوت بذاكرة طويلة المدى لتذكر التجارب السابقة.

4ـ تعدد الوظائف: تجعل قدرات Auto-GPT، مثل معالجة الملفات، وتصفح الويب، واسترجاع البيانات ، منه متعدد الاستخدامات، وتميزه عن التطورات السابقة في الذكاء الاصطناعي. إنه مثل إعطاء الروبوت مهارات متعددة للتعامل مع نطاق أوسع من المهام.

لذا، فإن Auto-GPT عبارة عن روبوت يعمل بالذكاء الاصطناعي يعد بمجموعة رائعة من المهام، والتعلم من تجاربه، وتحسين أدائه باستمرار. ومع ذلك، من المهم أن ندرك أن هذه الاحتمالات الجذابة قد لا تترجم بعد إلى إمكانات حقيقية يمكن أن تقدمها Auto-GPT. بينما نستكشف حدودها، سنركز على التحديات وهي:

1ـ التكاليف العالية

في حين أن Auto-GPT تعد بقدرات رائعة، فإن إحدى العقبات الرئيسية التي تحول دون اعتمادها في بيئات الإنتاج تكلفتها الباهظة. نظرًا لإنجاز المهام من خلال سلسلة من الأفكار، تتطلب كل خطوة استدعاء نموذج GPT-4 المكلف، والذي غالبًا ما يتجاوز الرموز المميزة من أجل توفير استدلال وتحفيز أفضل.

رموز GPT-4 بعيدة كل البعد عن كونها رخيصة. وفقًا لشركة OpenAI، فإن نموذج GPT-4 مع نافذة سياق 8K يتقاضى 0.03 دولارًا لكل 1000 رمز للمطالبات، و 0.06 دولار لكل 1000 رمز للنتائج. دعنا نقسم تكلفة كل خطوة في سلسلة الأفكار، بافتراض أن كل إجراء يتجاوز نافذة السياق بحد أقصى 8000 رمز ، مع 80٪ عبارة عن مطالبات و 20٪ نتائج.

ليس من غير المألوف أن تستغرق Auto-GPT نحو 50 خطوة في المتوسط لإكمال مهمة صغيرة. لذلك، ستكون تكلفة إكمال مهمة واحدة:  تكلفة المهمة: 50 خطوة × 0.288 دولارًا أمريكيًا / الخطوة = 14.4 دولارًا أمريكيًا

تضيف تكلفة إكمال مهمة واحدة مبلغًا كبيرًا بسرعة، مما يجعل التنفيذ الحالي لـ Auto-GPT غير عملي للعديد من المستخدمين والمؤسسات.

2ـ معضلة التطوير والإنتاج

للوهلة الأولى، قد يعتبر المرء 14.4 دولارًا سعرًا معقولًا للعثور على وصفة عيد الميلاد. ومع ذلك، تظهر المشكلة الحقيقية عندما تدرك أنه يجب عليك دفع 14.4 دولارًا أخرى للعثور على وصفة لعيد الشكر باتباع نفس سلسلة الأفكار مرة أخرى. يكشف هذا عن مشكلة أساسية في Auto-GPT: فشل في الفصل بين التطوير والإنتاج.

عند استخدام Auto-GPT ، تعتبر مرحلة التطوير مكتملة بمجرد تحقيق الهدف واشتقاق سلسلة من الأفكار. ومع ذلك، لا توجد طريقة "لتسلسل" سلسلة الإجراءات إلى وظيفة قابلة لإعادة الاستخدام لاستخدامها لاحقًا، أي إدخالها في الإنتاج. وبالتالي، يجب على المستخدمين البدء من نقطة الصفر في التطوير في كل مرة يريدون حل مشكلة ما. يؤدي هذا إلى إهدار الوقت والمال، ويقدم توقعات غير واقعية مقارنة بالطريقة التي نتعامل بها مع حل المشكلات في العالم الحقيقي.

عدم الفصل بين التطوير والإنتاج يجبر المستخدمين على دفع 14.4 دولارًا بالكامل مرة أخرى مقابل تغيير بسيط على ما يبدو في المتطلبات، وهو عدم كفاءة اقتصادية.

ويثير ذلك أسئلة حول التطبيق العملي لـ Auto-GPT في بيئات الإنتاج في العالم الحقيقي. ويؤكد عجزه عن توفير حل مستدام وفعال من حيث التكلفة لحل المشاكل الكبيرة.

3ـ تكرار التعطل

 أبلغ العديد من المستخدمين أن Auto-GPT كثيرًا ما يتعطل، مما يجعله غير قادر على حل المشكلات الحقيقية. تكشف العديد من التغريدات عن حالات ظل فيها Auto-GPT عالقًا في حلقة حتى بعد ليلة كاملة من معالجة سلاسل الفكر. تسلط هذه الحالات الضوء على حقيقة أنه، في العديد من المواقف، لا يستطيع Auto-GPT توفير الحل الذي تعد به.

لفهم هذا، يمكن للمرء أن يفكر في Auto-GPT على أنه يعتمد على GPT لاستخدام لغة برمجة بسيطة جدًا لحل المهام. يعتمد نجاح حل مهمة ما على عاملين: نطاق الوظائف المتاحة في لغة البرمجة هذه، ومدى قدرة GPT على تحليل المهمة إلى لغة البرمجة المحددة مسبقًا. لسوء الحظ، كلا هذين العاملين غير كافٍ حاليًا.

يمكن ملاحظة الوظائف المحدودة التي يوفرها Auto-GPT في كود المصدر الخاص به. على سبيل المثال، يوفر وظائف للبحث في الويب وإدارة الذاكرة والتفاعل مع الملفات وتنفيذ التعليمات البرمجية وإنشاء الصور. ومع ذلك، فإن هذه المجموعة المقيدة من الوظائف تضيق نطاق المهام التي يمكن لـ GPT التلقائي أداءها بفعالية.

بالإضافة إلى ذلك، فإن قدرات التحليل والتفكير في GPT لا تزال مقيدة. على الرغم من تحسن GPT-4 بشكل ملحوظ مقارنة بـ GPT-3.5، إلا أن قدرته على التفكير بعيدة كل البعد عن الكمال، مما يحد من قدرات حل المشكلات الخاصة بـ Auto-GPT.

يشبه هذا الموقف محاولة بناء لعبة معقدة مثل StarCraft باستخدام Python. بينما تعد Python لغة قوية ، فإن تحليل StarCraft إلى وظائف Python يمثل تحديًا كبيرًا. بدلاً من ذلك، يشبه محاولة إنشاء تطبيق مراسلة فورية باستخدام BASIC، وهي لغة تفتقر إلى وظائف اتصال الشبكة الضرورية.

في الأساس، ينتج عن الجمع بين مجموعة وظائف محدودة وقدرة التفكير المقيدة لـ GPT-4 مستنقع يمنع Auto-GPT من تقديم النتائج المتوقعة في كثير من الحالات.


الإنسان مقابل GPT

في علم الحاسوب، خوارزمية "فرق تسد ‏ Divide-and-Conquer" وهو تصميم خوارزميات مهم مبني على استدعاء ذاتي متعدد الفروع. تعمل خوارزمية "فرق تسد" عن طريق تقسيم المسألة إلى مسألتين جزئيتين أو أكثر من نفس النوع، حتى تصبح المسائل الجزئية بسيطة بما فيه الكفاية لتحل بشكل مباشر.

"فرق تسد" هي مفتاح GPT التلقائي. بينما أظهر GPT-3.5 / 4 تطورات كبيرة على سابقاتها، فإنه لا يزال يفتقر إلى قدرات التفكير على المستوى البشري عند استخدام تقنيات "فرق تسد". تساهم التحديات مثل التحليل غير الكافي للمشكلات، وصعوبة تحديد الحالات الأساسية المناسبة، والافتقار إلى القدرة على التكيف والتعلم، في قيود GPT-3.5 / 4 في حل المشكلات المعقدة.

حل المشكلات غير الكافي: تعتمد فعالية نهج فرق تسد إلى حد كبير على القدرة على تقسيم المشكلات المعقدة إلى مشكلات فرعية أصغر يمكن التحكم فيها. لا يزال GPT-3.5 / 4 ، على الرغم من التحسينات التي تم إجراؤها، يكافح من أجل حل المشكلات باستمرار وفعالية بطريقة تسمح بإيجاد حلول فعالة ودقيقة.

يمكن للتفكير البشري في كثير من الأحيان تحديد طرق متعددة لتحليل مشكلة ما، بينما قد لا يتمتع GPT-3.5 / 4 بنفس المستوى من القدرة على التكيف أو الإبداع.

صعوبة تحديد الحالات الأساسية المناسبة: يمكن للبشر أن يختاروا بشكل بديهي الحالات المناسبة التي تؤدي إلى حلول فعالة. في المقابل، قد يواجه GPT-3.5 / 4 صعوبة في تحديد الحالات الأساسية الأكثر فاعلية لمشكلة معينة، والتي يمكن أن تؤثر بشكل كبير على الكفاءة العامة.

الفهم غير الكافي لسياق المشكلة: بينما يمكن للبشر الاستفادة من معرفتهم بالمجال وفهمهم السياقي لمعالجة المشكلات المعقدة بشكل أفضل، فإن GPT-3.5 / 4 مقيد بمعرفته المدربة مسبقًا، وقد يفتقر إلى السياق الضروري لحل بعض المشكلات بكفاءة .

التعامل مع المشكلات الفرعية المتداخلة: يمكن للبشر في كثير من الأحيان عند حل المشكلات الفرعية المتداخلة، إعادة استخدام الحلول المحسوبة مسبقًا بشكل استراتيجي. من ناحية أخرى، قد لا يكون لدى GPT-3.5 / 4 نفس المستوى من الوعي دائمًا، وقد ينتهي الأمر بحل المشكلات الفرعية نفسها بشكل متكرر عدة مرات، مما يؤدي إلى حلول غير فعالة.

بطء التعامل مع قاعدة البيانات

يعتمد Auto-GPT على قواعد بيانات لإجراء عمليات بحث أسرع لأقرب الجيران (kNN). تقوم قواعد البيانات هذه باسترداد سلاسل الأفكار السابقة، ودمجها في سياق الاستعلام الحالي لـ GPT لتوفير تأثير الذاكرة. ومع ذلك، نظرًا للقيود الخاصة بـ Auto-GPT ، فقد تم انتقاد هذا النهج باعتباره مفرطًا ويستهلك موارد غير ضرورية.

الحجة الرئيسية ضد استخدام قواعد بيانات المتجهات تنبع من قيود التكلفة المرتبطة بسلسلة أفكار Auto-GPT. سلسلة الأفكار المكونة من 50 خطوة ستكلف 14.4 دولارًا ، بينما تكلف سلسلة الأفكار المكونة من 1000 خطوة أكثر بكثير. نتيجة لذلك، نادرًا ما يتجاوز حجم الذاكرة أو طول سلسلة الأفكار أربعة أرقام.

في مثل هذه الحالات، يثبت البحث الشامل (أي المنتج النقطي بين متجه 256 خافت ومصفوفة 10000 × 256) لأقرب جار أنه فعال بدرجة كافية، ويستغرق أقل من ثانية واحدة لإكماله. في المقابل، تستغرق كل مكالمة GPT-4 حوالي 10 ثوانٍ للمعالجة، مما يجعل النظام مرتبطًا بـ GPT بدلاً من قاعدة البيانات.

على الرغم من أن قواعد بيانات المتجهات قد تقدم بعض المزايا في سيناريوهات محددة، إلا أن تنفيذها داخل نظام Auto-GPT لتسريع عمليات البحث في "الذاكرة الطويلة" kNN يبدو أنه إسراف غير ضروري.

ولادة آليات الوكيل: عمل مستمر

يقدم Auto-GPT مفهومًا مثيرًا للاهتمام للغاية من خلال السماح بتكاثر الوكلاء لتفويض المهام. ومع ذلك، لا تزال هذه الآلية في مراحلها الأولى، ولا تزال إمكاناتها غير مستغلة إلى حد كبير. هناك عدة طرق لتحسين نظام الوكيل الحالي والتوسع فيه، مما يفتح إمكانيات جديدة لتفاعلات أكثر كفاءة وديناميكية.

أحد التحسينات المحتملة هو إدخال العوامل غير المتزامنة. من خلال دمج أنماط الانتظار غير المتزامن، يمكن للوكلاء العمل بشكل متزامن دون حجب بعضهم البعض، مما يحسن بشكل كبير الكفاءة الكلية واستجابة النظام. يستلهم هذا المفهوم من نماذج البرمجة الحديثة التي اعتمدت أساليب غير متزامنة لإدارة مهام متعددة في وقت واحد.

اتجاه واعد آخر هو تمكين التواصل بين الوكلاء. من خلال السماح للوكلاء بالتواصل والتعاون ، يمكنهم العمل معًا لحل المشكلات المعقدة بشكل أكثر فعالية. يشبه هذا النهج مفهوم IPC في البرمجة، حيث يمكن لخيوط / عمليات متعددة مشاركة المعلومات والموارد لتحقيق هدف مشترك.

عوامل التوليد هي المستقبل

مع استمرار تطور الوكيل المدعوم من GPT، يبدو المستقبل مشرقًا لهذا النهج المبتكر. بحث جديد بعنوان "وكلاء التوليد: محاكاة تفاعلية للسلوك البشري" أعده بارك وآخرون، يسلط الضوء على إمكانات الأنظمة القائمة على الوكيل في محاكاة السلوك البشري القابل للتصديق.

يمكن للوكلاء التوليديين، كما هو مقترح في الورقة، التفاعل بطرق معقدة وجذابة، وتشكيل الآراء، وبدء المحادثات، وحتى التخطيط وحضور الأحداث بشكل مستقل. يدعم هذا العمل كذلك الحجة القائلة بأن آليات الوكيل لها مستقبل واعد في تطوير الذكاء الاصطناعي.

يمكن لـ Auto-GPT أن يطلق العنان لإمكانيات جديدة أكثر فاعلية وديناميكية لحل المشكلات من خلال تبني التحول النموذجي نحو البرمجة غير المتزامنة، وتعزيز التواصل بين الوكلاء. يمكن أن يؤدي دمج الأنماط المعمارية وأنماط التفاعل المقدمة في ورقة "وكلاء التوليد" إلى اندماج نماذج اللغة الكبيرة مع عوامل حسابية وتفاعلية.

هذا المزيج لديه القدرة على إحداث ثورة في كيفية تفويض المهام وتنفيذها ضمن أطر الذكاء الاصطناعي، وتمكين عمليات محاكاة أكثر تصديقًا للسلوك البشري. يمكن أن يساهم تطوير أنظمة الوكيل واستكشافها بشكل كبير في تطوير تطبيقات الذكاء الاصطناعي، وتوفير حلول أكثر قوة وديناميكية للمشكلات المعقدة.

خاتمة

في الختام، تثير الضجة المحيطة بـ Auto-GPT أسئلة مهمة حول حالة أبحاث الذكاء الاصطناعي ودور الفهم العام في دفع الضجة حول التقنيات الناشئة. كما أوضحنا، فإن قيود Auto-GPT في قدرات الاستدلال، والاستخدام المفرط لقواعد البيانات، والتطور المبكر لآليات الوكيل تكشف أنها بعيدة كل البعد عن كونها حلاً عمليًا. ومع ذلك، فقد تمكنت من جذب خيال عامة الناس، الذين قد يفتقرون إلى فهم عميق لعملها الداخلي.

يعمل الضجيج حول Auto-GPT بمثابة تذكير واقعي بالكيفية التي يمكن أن يؤدي بها الفهم الضحل إلى تضخم التوقعات، والتي تتوج في النهاية بإدراك مشوه لقدرات الذكاء الاصطناعي الحقيقية. كمجتمع، يجب نقد الروايات التي تحيط بالتكنولوجيات الناشئة، والسعي لتعزيز التفكير النقدي والمناقشات المستنيرة.

ومع ذلك، يشير Auto-GPT إلى اتجاه واعد لمستقبل الذكاء الاصطناعي: أنظمة الوكيل التوليدي. بينما نمضي قدمًا، دعونا نتعلم من دروس الضجيج التلقائي لـ GPT ونركز على رعاية حوار أكثر دقة واستنارة حول أبحاث الذكاء الاصطناعي. من خلال القيام بذلك، يمكننا تسخير القوة التحويلية لأنظمة الوكيل التوليدي، ومواصلة دفع حدود قدرات الذكاء الاصطناعي، وتشكيل مستقبل حيث تفيد التكنولوجيا البشرية حقًا.

تاريخ الإضافة: 2023-04-14 تعليق: 0 عدد المشاهدات :389
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
68%
 لا
21%
 لا أعرف
12%
      المزيد
خدمات