القاهرة: الأمير كمال فرج.
رغم الأخطاء التي ارتكبها الذكاء الاصطناعي التوليدي، أجمع المستخدمون على أنه أذكى متدرب في العالم؛ يتعلم دائما، ويعزز قدراته بمرور الوقت، كالطالب النجيب الذي يصر على التفوق. لذلك فإن معالجة الأخطاء التي يرتكبها يكمن في التدريب المستمر.
ذكرت ديانا سبيهار في تقرير نشرته مجلة Forbes أن "أحدث منتج مفضل في صناعة التكنولوجيا رغم قدراته الهائلة، تسبب في العديد من المشاكل للمستخدمين، على سبيل المثال المحامي الذي أغواه بلاغة الذكاء الاصطناعي المزعومة، ليواجه غرامات لتقديمه مستندات ملفقة تم إنشاؤها بواسطة الأداة، وشركة الخطوط الجوية الكندية التي تعرضت لتداعيات بعد أن انحرف روبوت خدمة العملاء الذي يعمل بالذكاء الاصطناعي عن النص وقال زوراً إن العميل يمكن تعويضه عن أجرة الحزن بأثر رجعي".
ودافع البعض عن الذكاء الاصطناعي معللين ذلك بأن هذه الأدوات تعتمد على التعليم العميق، وأن مزيد من التدريب يمنع الأخطاء التي يرتكبها .
وبالتالي، ينشأ السؤال: إذا كان بوسعنا توجيه المتدربين لدينا ليصبحوا محترفين مسؤولين، فما الذي يمنعنا من القيام بنفس الشيء مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي؟
إليك خمسة مباديء يجب تعليمها لروبوت الدردشة، لضمان الحصول على خدمة بحد أدنى من الأخطاء:
1. غرس الأخلاق الحميدة في الروبوت الخاص بك: الاحترام أمر غير قابل للتفاوض
يدرك معظم المستخدمين الرقميين غريزيًا متى تم احترام حقوقهم عبر الإنترنت - أو انتهاكها. أظهر الباحثون أن شفافية العلامة التجارية في كيفية جمعها واستخدامها للبيانات يمكن أن تؤثر على تفضيلات المستهلك، حيث يميل أكثر من ثلث الأشخاص نحو العلامات التجارية التي تلتزم بالأخلاق.
عند تصميم روبوتات الدردشة المسؤولة، من المستحسن اتباع "قاعدة الثلاثة": شفافية النية والقيود وممارسات الخصوصية.
القاعدة الأولى لآداب التعامل مع روبوتات الدردشة هي تزويد المستخدمين بمعلومات كافية حول من أو ماذا يتحدثون إليه. صرح بوضوح أن النظام عبارة عن خدمة ذكاء اصطناعي أو آلية، واشرح حدود كيفية مساعدتهم.
تركز القاعدة الثانية على موثوقية الروبوت. بافتراض أن 3٪ على الأقل من ناتج كل روبوت دردشة هو مادة خيالية، يجب أن يكون المستخدمون على دراية بالنسب المئوية التي يعملون بها. توصي Microsoft بمشاركة ملخصات إحصائيات الأداء العام، جنبًا إلى جنب مع إخلاء المسؤولية عن الأداء لسياقات أو حالات محددة.
القاعدة الثالثة تتعلق بالشفافية في جمع البيانات واستخدامها. في علاقة عملاء جديرة بالثقة، يجب تمكين المستخدمين من إعطاء موافقة ذات مغزى على الشروط والأحكام بدلاً من قبولها بشكل أعمى.
ماذا يعني هذا في الممارسة العملية؟ في حين أن سياسة خصوصية ChatGPT لا تحدد المدة التي يتم تخزين مدخلات المستخدم فيها، فإن سياسة Cloud تنص بوضوح على حذف البيانات تلقائيًا بعد 30 يومًا. ببساطة، هذا هو الأمر.
2. اخضع روبوتك لمراجعات الأداء المبكرة مع مقاييس النجاح الواضحة
المشكلة الشائكة في الاستخدام الواسع النطاق للذكاء الاصطناعي هي أنه يبدو أنه يوفر كل شيء للجميع، مما يجعل تحديد المعايير أكثر صعوبة.
تقول الدكتورة كاثرين بريسلين، مستشارة الذكاء الاصطناعي ومطورة أليكسا السابقة إن "الاختبار المستمر والقوي، سواء قبل أو بعد نشر روبوت المحادثة، أمر ضروري، نظرًا لأن البيانات تمثل شريان الحياة لأي تطبيق ذكاء اصطناعي، فيجب تدريب الروبوتات على التمييز بين البيانات الضارة والصحية. علاوة على ذلك، يتطلب معالجة التحيز مجموعات بيانات متنوعة مع معايير عدالة واضحة".
ينصح بيدرو هنريكس، مؤسس الذكاء الاصطناعي لشركة The Newsroom الناشئة في مجال الوسائط الإعلامية ورئيس فريق علوم البيانات السابق في LinkedIn ويقول أن "الضبط الدقيق، وهو أداة رئيسية من مجموعة أدوات إدارة مخاطر الذكاء الاصطناعي، يمنح الذكاء الاصطناعي دورة تدريبية مكثفة حول موضوع معين يحتاج إلى إتقانه. لضمان اتخاذ إجراءات مسؤولة، يجب ضبط نماذج الذكاء الاصطناعي وفقًا لحالات الاستخدام المحددة والأنماط اللغوية ومتطلبات روبوت المحادثة".
يجب أيضًا ضبط روبوت المحادثة المسؤول من خلال الهندسة السريعة - ممارسة صياغة وصقل المطالبات لاستنباط استجابات مستهدفة من نموذج الذكاء الاصطناعي. على سبيل المثال، يجب أن يكون روبوت مساعد الموارد البشرية قادرًا على شرح سبب اختياره لمرشح على آخر، بالإشارة إلى سياسات عدم التمييز في الشركة. يجب أيضًا تصميم روبوتات المحادثة مع وضع إمكانية التفسير في الاعتبار لتعزيز الشفافية وثقة المستخدم.
من المحتمل أن يستغرق الأمر جهدًا جماعيًا لاختبار الروبوت ومراقبته بسلاسة. يضمن إشراك فرق تكنولوجيا المعلومات المتعددة في وقت مبكر اختبارًا أكثر سلاسة وتكاملًا أكثر سلاسة وقابلية للتطوير لقواعد مستخدمين أكبر.
3. تأكد من اجتياز الروبوت الخاص بك لتدريب السلامة
مثلما يُتوقع من المتدربين الجدد إكمال تدريب الصحة والسلامة في اليوم الأول، يجب أن تلبي روبوتات الدردشة معايير السلامة الأساسية. يحذر جوني بيلتر، كبير مسؤولي أمن المعلومات السابق في شركة Thames Water والشريك المؤسس لشركة CyPro، من أن المخاطر عالية فيما يتعلق بتأمين البنية الأساسية لروبوتات الدردشة.
إلى جانب تدابير الأمان القياسية مثل الاستجابة للحوادث واختبار الاختراق، تحتاج برامج المحادثة الآلية إلى دورة برمجيات آمنة كاملة طوال فترة تطويرها.
مع تزايد التهديدات التي يقودها الذكاء الاصطناعي، أصبحت الضوابط الاختيارية مثل الاختبار التنافسي، ودفاعات تسميم البيانات، والشفافية الوظيفية، ومراقبة أمان الذكاء الاصطناعي، ومنع هجوم عكس النموذج، أمرًا بالغ الأهمية الآن، كما يحذر بيلتر.
يقول كارلوس فيرانديس، المؤسس المشارك لشركة Alinia AI، وهي منصة أمان ومراقبة للذكاء الاصطناعي "بفضل اللوائح مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي والأمر التنفيذي للرئيس الأمريكي جو بايدن، تكتسب بعض هذه الممارسات أرضية الآن".
4. حافظ على وضع روبوتك داخل الأطر القانونية
المشكلة الملحة في الذكاء الاصطناعي المسؤول هي تحديد المسؤولية. مع أكثر من 40 إطارًا لحوكمة الذكاء الاصطناعي مصممة لجمهور مختلف، يمكن أن تكون بمثابة شريان حياة لأصحاب المخاطر في الإدارات القانونية أو الخصوصية أو الأمن.
تفرض الأطر الأكثر صرامة، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي واللائحة العامة لحماية البيانات، التزامات قانونية على أنظمة الذكاء الاصطناعي العاملة في أوروبا. في الوقت نفسه، تعمل الأطر العالمية غير الملزمة مثل المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة والمنظمة الدولية للمعايير ISO/IEC 23894 على تعزيز الشفافية والمساءلة والإنصاف.
تحتاج بعض القطاعات إلى حواجز إضافية. على سبيل المثال، لا تترك معايير معهد مهندسي الكهرباء والإلكترونيات للروبوتات الدردشة في مجال التمويل مجالًا كبيرًا للخطأ عند التعامل مع الروبوتات المؤذية.
5. غرس القيم الصحيحة في الروبوت الخاص بك والتأكد من أنه يرى الصورة الأكبر
أكثر بكثير من مجرد الخبرة الفنية والمعرفة الأمنية، نتوقع من زملائنا - سواء المتدربين أو القادة - الالتزام بالمعايير الأخلاقية مثل احترام العملاء والعناية بالبيئة والنزاهة.
قالت الدكتورة بريسلين "عندما يتعلق الأمر بروبوتات الدردشة، لا يمكننا المطالبة بالنزاهة أو أخذ الروبوت الكاذب إلى المحكمة الأخلاقية، لذلك نسند المسؤولية عن أفعالهم إلى "إنسان" ونوفر قنوات إبلاغ واضحة".
في غضون ذلك، يشكل التأثير البيئي لروبوتات الدردشة الذكية واسعة النطاق مصدر قلق متزايد، دون حلول فورية.
تؤكد الدكتورة ناتاليا تكاتشينكو، زميلة الأبحاث في كلية كامبريدج جادج للأعمال، أن كل تفاعل مع روبوتات الدردشة يستهلك موارد حاسوبية، وخاصة في التطبيقات في الوقت الفعلي مثل خدمة العملاء، مما يزيد من تفاقم المشكلة.
في نهاية المطاف، تراهن المنظمات على المهنيين الشباب لتعزيز بيئة عمل أكثر مسؤولية بمرور الوقت. ويمكن تطبيق نفس التوقعات بشكل معقول على روبوتات الذكاء الاصطناعي والمساعدين. ومع ذلك، إذا كان هناك شيء واحد علمنا إياه العام الماضي، فهو أن التأثير السريع والواسع النطاق للذكاء الاصطناعي يعني أن روبوتات الدردشة المارقة يمكن أن تزيد من المخاطر إلى ما هو أبعد من نطاق الإجراءات التأديبية القياسية.