القاهرة: الأمير كمال فرج.
حاول منشئو ChatGPT جعل النظام يشرح نفسه، ووجدوا أنه على الرغم من نجاحهم، إلا أنهم واجهوا بعض المشكلات - بما في ذلك حقيقة أن الذكاء الاصطناعي قد يستخدم مفاهيم ليس لدى البشر أسماء لها أو يفهمونها.
ذكر أندرو جريفين في تقرير تشرته صحيفة The Independent أن "الباحثون في شركة OpenAI ، التي طورت ChatGPT، استخدموا أحدث إصدار من نموذجها، المعروف باسم GPT-4، لمحاولة شرح سلوك GPT-2، وهو إصدار سابق".
إنها محاولة للتغلب على ما يسمى بمشكلة الصندوق الأسود باستخدام نماذج اللغات الكبيرة مثل GPT. بينما لدينا فهم جيد نسبيًا لما يدخل ويخرج من مثل هذه الأنظمة، فإن العمل الفعلي الذي يجري في الداخل يظل غامضًا إلى حد كبير.
هذه ليست مشكلة فقط لأنها تجعل الأمور صعبة على الباحثين. tهذا يعني أيضًا أنه لا توجد طريقة تذكر لمعرفة التحيزات التي قد تكون متضمنة في النظام، أو ما إذا كان يقدم معلومات خاطئة للأشخاص الذين يستخدمونه، حيث لا توجد طريقة لمعرفة كيفية توصله إلى الاستنتاجات التي توصل إليها.
يهدف المهندسون والعلماء إلى حل هذه المشكلة من خلال "أبحاث القابلية للتفسير" ، والتي تسعى إلى إيجاد طرق للنظر داخل النموذج نفسه وفهم ما يجري بشكل أفضل. في كثير من الأحيان، يتطلب هذا النظر إلى "الخلايا العصبية" التي تشكل مثل هذا النموذج: تمامًا كما هو الحال في الدماغ البشري، يتكون نظام الذكاء الاصطناعي من مجموعة من الخلايا العصبية المزعومة التي تشكل معًا الكل.
ومع ذلك، فإن العثور على تلك الخلايا العصبية الفردية والغرض منها أمر صعب، حيث كان على البشر أن يختاروا الخلايا العصبية ويفحصونها يدويًا لمعرفة ما تمثله. لكن بعض الأنظمة لديها مئات المليارات من المعلمات وبالتالي فإن الوصول إليها جميعًا مع الأشخاص أمر مستحيل.
الآن ، نظر الباحثون في شركة OpenAI إلى استخدام GPT-4 لأتمتة هذه العملية، في محاولة لانتقاء السلوك بشكل أسرع. لقد فعلوا ذلك من خلال محاولة إنشاء عملية آلية من شأنها أن تسمح للنظام بتقديم تفسيرات لغة طبيعية لسلوك العصبون - وتطبيق ذلك على نموذج لغة آخر سابق.
نجح ذلك في ثلاث خطوات: النظر إلى الخلايا العصبية في GPT-2 ومحاولة GPT-4 شرحها ، ثم محاكاة ما ستفعله تلك الخلايا العصبية، وأخيراً تسجيل هذا التفسير من خلال مقارنة كيفية عمل التنشيط المحاكي مع التنشيط الحقيقي.
سارت معظم هذه التفسيرات بشكل سيئ، وسجل GPT-4 نفسه بشكل سيئ. لكن الباحثين قالوا إنهم يأملون في أن أظهرت التجربة أنه سيكون من الممكن استخدام تقنية الذكاء الاصطناعي لشرح نفسها، بمزيد من العمل.
واجه الباحثون مجموعة من "القيود" ، ومع ذلك، فإن هذا يعني أن النظام كما هو موجود الآن ليس جيدًا مثل البشر في تفسير السلوك. قد يكون جزء من المشكلة هو أن شرح كيفية عمل النظام بلغة عادية أمر مستحيل - لأن النظام ربما يستخدم مفاهيم فردية لا يستطيع البشر تسميتها.
كتب المؤلفون: "لقد ركزنا على تفسيرات اللغة الطبيعية القصيرة، لكن الخلايا العصبية قد يكون لها سلوك معقد للغاية يستحيل وصفه بإيجاز". "على سبيل المثال، يمكن أن تكون الخلايا العصبية متعددة المعاني (تمثل العديد من المفاهيم المتميزة) أو يمكن أن تمثل مفاهيم فردية لا يفهمها البشر أو لا يمتلكون كلمات لها."
كما أن النظام يواجه مشاكل لأنه يركز على وجه التحديد على ما تفعله كل خلية عصبية بشكل فردي، وليس كيف يمكن أن يؤثر ذلك على الأشياء لاحقًا في النص. وبالمثل، يمكن أن يفسر سلوكًا معينًا ولكن ليس الآلية التي تنتج هذا السلوك ، وبالتالي قد يكتشف الأنماط التي ليست في الواقع سببًا لسلوك معين.