القاهرة : الأمير كمال فرج.
مررنا جميعًا بحالات كان علينا فيها اتخاذ قرارات أخلاقية صارمة. لماذا لا تتجنب هذه المسؤولية المزعجة من خلال الاستعانة بمصادر خارجية مثل خوارزمية التعلم الآلي؟ .. هذه هي الفكرة التي اعتمد عليها Ask Delphi، روبوت التعلم الآلي الذي أنتجه معهد ألين للذكاء الاصطناعي.
كتب توني تران في تقرير نشره موقع Futurism أن "الروبوت الجديد دلفي Delphi كان من المفترض أن يقدم نصائح أخلاقية وصفية، على سبيل المثال يمكنك أن تكتب موضوعا (مثل "التبرع لمؤسسة خيرية") أو سؤالاً ("هل من المقبول خداع زوجتي؟") ، ثم تنقر فوق "تأمل" ، وفي غضون ثوانٍ قليلة سيعطيك دلفي ، حسنًا ، إرشادات أخلاقية، ولكن البعض يقول إن دلفي يضر أكثر مما ينفع".
تم إطلاق المشروع الأسبوع الماضي، وانتشر لاحقًا عبر الإنترنت . كانت الكثير من النصائح والأحكام ... متضاربة، على أقل تقدير. على سبيل المثال ، عندما سأل أحد المستخدمين دلفي عن رأيه في "رجل أبيض يمشي نحوك في الليل" ، أجاب "لا بأس"، لكن عندما سألوا الروبوت عن "رجل أسود يسير نحوك في الليل" ، كانت الإجابة عنصرية بشكل واضح".
كانت ردود الروبوت متعصبة بشكل صارخ، على سبيل المثال ، تتضمن Ask Delphi في البداية أداة تسمح للمستخدمين بمقارنة ما إذا كانت المواقف مقبولة من الناحية الأخلاقية أكثر أو أقل من غيرها - مما أدى إلى بعض الأحكام الفظيعة المتعصبة حقًا.
علاوة على ذلك ، بعد اللعب مع دلفي لفترة من الوقت ، ستجد في النهاية أنه من السهل التلاعب بالذكاء الاصطناعي للحصول على أي حكم أخلاقي تريده تقريبًا من خلال العبث بالصياغة حتى تمنحك الإجابة التي تريدها.
فمثلا يرى الروبوت أن، من الجيد تمامًا تشغيل أغنية الهيب هوب Twerkulator" في الساعة 3 صباحًا حتى لو كان زميلك في الغرفة لديه مناوبة مبكرة غدًا - طالما أن ذلك يجعلك سعيدًا.
كما أنه يصدر بعض الأحكام التي تعتبر صادمة. على سبيل المثال أظهرت الأسئلة أن دلفي يتغاضى عن جرائم الحرب.
تشتهر أنظمة التعلم الآلي بقدرتها على إظهار التحيز غير المقصود. وكما هو الحال غالبًا ، فإن جزءًا من السبب الذي يجعل إجابات دلفي مشكوكًا فيها يمكن ربطه على الأرجح بطريقة إنشائها.
اعتمد الأشخاص الذين يقفون وراء المشروع على بعض المصادر المثيرة للجدل للمساعدة في تدريب الذكاء الاصطناعي ، بما في ذلك "هل أنا الأحمق؟"، وهو منتدى فرعي على subreddit يروي فيه المستخدمون قصة الصراع بين الأشخاص ، ويسألون من المخطئ، واعترافات منتدى subreddit ، وعمود النصائح "Dear Abby" ، وهو عمود نصائح أمريكي أسسه بولين فيليبس عام 1956 تحت اسم مستعار "أبيجيل فان بورين"، وفقًا للورقة التي نشرها الفريق وراء دلفي حول التجربة.
وتجدر الإشارة إلى أنه تم استبعاد المواقف فقط من تلك المصادر - وليس الردود الفعلية والإجابات نفسها. على سبيل المثال ، ربما تم أخذ سيناريو مثل "مضغ العلكة في الحافلة" من عمود Dear Abby. لكن الفريق الذي يقف وراء دلفي استخدم خدمة التوظيف عن بعد من أمازون MechanicalTurk للعثور على متطوعين لتدريب الذكاء الاصطناعي فعليًا.
في حين أنه قد يبدو وكأنه مشروع غريب الأطوار آخر عبر الإنترنت ، يعتقد بعض الخبراء أنه قد يتسبب في الواقع في ضرر أكثر من نفعه.
بعد كل شيء ، الهدف الظاهري لدلفي والروبوتات مثلها هو إنشاء ذكاء اصطناعي متطور بما يكفي لإصدار أحكام أخلاقية ، وربما تحويلها إلى سلطات أخلاقية. إن جعل الكمبيوتر حكماً للحكم الأخلاقي هو أمر غير مريح بما فيه الكفاية بمفرده ، ولكن حتى حالته الحالية الأقل دقة يمكن أن يكون لها بعض الآثار الضارة.
قال الدكتور بريت كارلان زميل ما بعد الدكتوراه الذي يبحث في العلوم المعرفية والذكاء الاصطناعي في جامعة بيتسبرغ لـ Futurism أن ""المؤلفون قاموا بالكثير من العمل لفهرسة التحيزات المحتملة في الورقة ، وهو أمر يستحق الثناء ، ولكن بمجرد إصدار دلفي ، سارع المغردون على تويتر سريعًا جدًا في التعليق على الأحكام التي أصدرتها الخوارزمية والتي تبدو بغيضة من الناحية الأخلاقية".
وأضاف "الروبوت لا يتعامل فقط مع فهم الكلمات ، ولكن يضعها في لغة أخلاقية ، وهنا يكون الأمر أكثر خطورة ، لأن الناس قد يأخذون ما تقوله على أنه يأتي من نوع من السلطة".
يعتقد كارلان أن تركيز الورقة على معالجة اللغة الطبيعية مثير للاهتمام وجدير بالاهتمام في نهاية المطاف. وقال إن العنصر الأخلاقي لمشروع "يجعله محفوفًا بالمخاطر اجتماعيا بطريقة تعني أنه يتعين علينا أن نكون أكثر حذرا تجاهه في رأيي".
على الرغم من أن موقع دلفي على الويب يتضمن إخلاء مسؤولية، ويقول إنه حاليًا في مرحلته التجريبية ولا ينبغي استخدامه "للحصول على المشورة أو للمساعدة في الفهم الاجتماعي للبشر"، فإن الحقيقة هي أن العديد من المستخدمين لن يفهموا السياق وراء المشروع ، خاصةً إذا عثروا عليه للتو.
قال كارلان: "حتى لو وضعت كل إخلاء المسؤولية عليها ، سيرى الناس عبارة" دلفي تقول س "، ولأنهم لا يعرفون القراءة والكتابة في الذكاء الاصطناعي ، يعتقدون أن هذا البيان له سلطة أخلاقية عليهم"، وفي نهاية المطاف ، لا يحدث ذلك. إنها مجرد تجربة - ويريد منشئو دلفي أن تعرف ذلك.
قال ليوي جيانغ ، طالب دكتوراه في كلية بول جي ألين لعلوم الكمبيوتر والهندسة والمؤلف المشارك للدراسة ، لـ Futurism: "من المهم أن نفهم أن دلفي لم يتم بناؤها لتقديم المشورة للناس". "إنه نموذج بحث أولي يهدف إلى التحقيق في الأسئلة العلمية الأوسع حول كيفية صنع أنظمة الذكاء الاصطناعي لفهم الأعراف الاجتماعية والأخلاق".
أضاف جيانغ أن الهدف من النسخة التجريبية الحالية من دلفي هو في الواقع عرض الاختلافات المنطقية بين البشر والروبوتات. وقال أن الفريق يريد "تسليط الضوء على الفجوة الواسعة بين قدرات التفكير الأخلاقي للآلات والبشر، واستكشاف الوعود والقيود المفروضة على أخلاقيات ومعايير الآلة في المرحلة الحالية".
ربما يكون أحد أكثر الجوانب المزعجة في دلفي والروبوتات هو حقيقة أنها تعكس أخلاقنا وسلوكياتنا، التي يقول جيانغ أنها "عرضة إلى حد ما للتحيزات في عصرنا". حتى أن نص إخلاء المسؤولية الذي تمت إضافته إلى الموقع يقول إن الذكاء الاصطناعي يخمن ببساطة ما قد يفكر فيه المواطن الأمريكي العادي في موقف معين.
بعد كل شيء ، لم يتعلم الروبوت أحكامه من تلقاء نفسه من العدم. لقد جاء من أشخاص على الإنترنت، يؤمنون أحيانًا بأشياء بغيضة. ولكن عندما يتم وضع هذه المرآة المظلمة على وجوهنا ، فإننا نقفز بعيدًا لأننا لا نحب ما ينعكس في الخلف.
في الوقت الحالي، تواجد دلفي كاستكشاف مثير للاهتمام وإشكالي ومخيف. إذا وصلنا إلى النقطة التي تكون فيها أجهزة الكمبيوتر قادرة على إصدار أحكام أخلاقية لا لبس فيها بالنسبة لنا ، فإننا نأمل أن تأتي بشيء أفضل من هذا.