القاهرة : الأمير كمال فرج.
حقق الذكاء الاصطناعي (AI) تقدمًا كبيرًا على مدار السنوات القليلة الماضية ، حيث أصبح أكثر كفاءة في الأنشطة التي كان يؤديها البشر في السابق فقط. ومع ذلك، فإن الهلوسة مشكلة أصبحت عقبة كبيرة أمام الذكاء الاصطناعي.
ذكر دانشيري شيرباد شينواي في تقرير نشره موقع Marktechpost أن "المطورون حذروا من إنتاج نماذج الذكاء الاصطناعي حقائق خاطئة تمامًا، والرد على الأسئلة بردود مختلقة كما لو كانت صحيحة".
نظرًا لأنها يمكن أن تعرض دقة التطبيقات والاعتمادية والجدارة بالثقة للخطر، فإن الهلوسة تمثل عائقًا خطيرًا أمام تطوير ونشر أنظمة الذكاء الاصطناعي.
نتيجة لذلك، يبحث العاملون في الذكاء الاصطناعي بنشاط عن حلول لهذه المشكلة. يستكشف هذا التقرير تداعيات وتأثيرات هلوسة الذكاء الاصطناعي والتدابير المحتملة التي قد يتخذها المستخدمون لتقليل مخاطر قبول أو نشر معلومات غير صحيحة.
ما هو هلوسة الذكاء الاصطناعي؟
تحدث الظاهرة المعروفة باسم هلوسة الذكاء الاصطناعي عندما ينتج نموذج الذكاء الاصطناعي نتائج غير ما كان متوقعًا. كن على علم بأن بعض نماذج الذكاء الاصطناعي قد تم تدريسها لعمل مخرجات بشكل هادف دون إدخال (بيانات) في العالم الحقيقي.
الهلوسة هي الكلمة المستخدمة لوصف الموقف عندما تخلق خوارزميات الذكاء الاصطناعي والشبكات العصبية للتعلم العميق نتائج غير حقيقية، أو لا تتطابق مع أي بيانات تم تدريب الخوارزمية عليها، أو لا تتبع أي نمط آخر يمكن تمييزه.
يمكن أن تتخذ هلوسات الذكاء الاصطناعي العديد من الأشكال المختلفة، من إنشاء تقارير إخبارية كاذبة إلى تأكيدات أو وثائق كاذبة عن أشخاص أو أحداث تاريخية أو حقائق علمية. على سبيل المثال، يمكن لبرنامج ذكاء اصطناعي AI مثل ChatGPT اختلاق شخصية تاريخية بسيرة ذاتية كاملة وإنجازات لم تكن حقيقية أبدًا.
في العصر الحالي لوسائل التواصل الاجتماعي والتواصل الفوري، حيث يمكن أن تصل تغريدة واحدة أو منشور على فيسبوك إلى ملايين الأشخاص في ثوانٍ، فإن احتمال انتشار مثل هذه المعلومات غير الصحيحة بسرعة وعلى نطاق واسع يمثل مشكلة بشكل خاص.
لماذا تحدث هلوسة الذكاء الاصطناعي؟
إدخال البيانات التي تخدع برنامج الذكاء الاصطناعي في تصنيفها بشكل خاطئ - يمكن أن يسبب هلوسة للذكاء الاصطناعي. على سبيل المثال، يستخدم المطورون البيانات (مثل الصور أو النصوص أو أنواع أخرى) لتدريب أنظمة الذكاء الاصطناعي؛ إذا تم تغيير البيانات أو تشويهها، فإن التطبيق يفسر الإدخال بشكل مختلف وينتج نتيجة غير صحيحة.
قد تحدث الهلوسة في النماذج الكبيرة القائمة على اللغة مثل ChatGPT وما يماثلها بسبب فك برمجة المحولات غير الصحيحة (نموذج التعلم الآلي). باستخدام تسلسل التشفير-فك التشفير (المدخلات والمخرجات)، فإن المحول في الذكاء الاصطناعي هو نموذج التعلم العميق الذي يستخدم الانتباه الذاتي (الروابط الدلالية بين الكلمات في الجملة) لإنشاء نص يشبه ما يكتبه الإنسان.
من حيث الهلوسة، من المتوقع أن يكون الناتج مختلقًا وخاطئًا إذا لم يتم تدريب نموذج لغوي على بيانات وموارد كافية ودقيقة. قد ينتج نموذج اللغة قصة أو سرد بدون فجوات غير منطقية أو روابط غامضة.
طرق اكتشاف هلوسة الذكاء الاصطناعي
يهدف حقل فرعي من الذكاء الاصطناعي، رؤية الكمبيوتر ، إلى تعليم أجهزة الكمبيوتر كيفية استخراج البيانات المفيدة من المدخلات المرئية، مثل الصور والرسومات والأفلام والحياة الفعلية. إنه تدريب أجهزة الكمبيوتر على إدراك العالم كما يفعل المرء.
ومع ذلك، نظرًا لأن أجهزة الكمبيوتر ليست بشرًا، فيجب أن تعتمد على الخوارزميات والأنماط "لفهم" الصور بدلاً من الوصول المباشر إلى الإدراك البشري. نتيجة لذلك، قد لا يتمكن الذكاء الاصطناعي من التمييز بين رقائق البطاطس وتغيير الأوراق. يمر هذا الموقف أيضًا باختبار الفطرة السليمة: مقارنة بما يحتمل أن يراه الإنسان ، صورة تم إنشاؤها بواسطة الذكاء الاصطناعي. بالطبع، تزداد صعوبة الأمر مع تقدم الذكاء الاصطناعي.
إذا لم يتم دمج الذكاء الاصطناعي بسرعة في الحياة اليومية، فسيكون كل هذا سخيفًا ومضحكًا. تستخدم السيارات ذاتية القيادة الذكاء الاصطناعي بالفعل، حيث قد تؤدي الهلوسة إلى وفيات. على الرغم من أن ذلك لم يحدث، فإن التعرف على العناصر بشكل خاطئ أثناء القيادة في العالم الحقيقي هو كارثة من المنتظر حدوثها.
فيما يلي بعض الأساليب لتحديد هلوسة الذكاء الاصطناعي عند استخدام تطبيقات الذكاء الاصطناعي الشائعة:
1. نماذج معالجة اللغة الكبيرة
الأخطاء النحوية في المعلومات الناتجة عن نموذج معالجة كبير، مثل ChatGPT ، غير شائعة، ولكن عند حدوثها، يجب أن تشك في الهلوسة. وبالمثل، ينبغي على المرء أن يشك في الهلوسة عندما لا يكون المحتوى الناتج عن النص منطقيًا، أو يتناسب مع السياق المقدم، أو يطابق بيانات الإدخال.
2. رؤية الحاسوب
يحتوي الذكاء الاصطناعي على حقل فرعي يسمى رؤية الكمبيوتر والتعلم الآلي وعلوم الكمبيوتر التي تمكن الآلات من اكتشاف وتفسير الصور بشكل مشابه للعين البشرية. يعتمدون في ذلك على بيانات تدريب بصرية ضخمة في الشبكات العصبية التلافيفية.
تؤثر الهلوسة على الأشخاص بشكل مختلف عن تأثير نماذج الذكاء الاصطناعي. هلوسات الذكاء الاصطناعي هي نتائج غير صحيحة لا تتماشى إلى حد كبير مع الواقع أو لا معنى لها في سياق الموجه المقدم. على سبيل المثال، يمكن أن يستجيب روبوت الدردشة بالذكاء الاصطناعي بشكل نحوي أو منطقي بشكل غير صحيح أو يحدد عن طريق الخطأ كائنًا بسبب ضوضاء أو مشاكل هيكلية أخرى.
مثل الهلوسة البشرية، فإن هلوسة الذكاء الاصطناعي ليست نتاج عقل واعٍ أو لاوعي. بدلاً من ذلك، ينتج عن استخدام بيانات غير كافية أو غير كافية لتدريب وتصميم نظام الذكاء الاصطناعي.
يجب مراعاة مخاطر هلوسة الذكاء الاصطناعي، لا سيما عند استخدام مخرجات الذكاء الاصطناعي التوليدية لاتخاذ القرارات المهمة. على الرغم من أن الذكاء الاصطناعي يمكن أن يكون أداة مفيدة، إلا أنه ينبغي النظر إليه على أنه مسودة أولى يجب على البشر مراجعتها والتحقق من صحتها بعناية.
مع تطور تقنية الذكاء الاصطناعي، من الضروري استخدامها بشكل نقدي ومسؤول مع إدراك عيوبها وقدرتها على التسبب في الهلوسة. من خلال اتخاذ الاحتياطات اللازمة، يمكن للمرء استخدام قدراته مع الحفاظ على دقة وسلامة البيانات.