القاهرة : الأمير كمال فرج.
برنامج الذكاء الاصطناعي للمحادثة ، الذي يتم تدريبه على كميات هائلة من البيانات ، قادر على إجراء محادثات واقعية مع البشر. وفي هذا الإطار عززت شركة مايكروسوفت Microsoft في الآونة الأخيرة محرك بحث Bing الخاص بها باستخدام ذكاء اصطناعي لديه بعض التفاعلات المقلقة مع الأشخاص، ولكن الوواقع يؤكد أن الذكاء الاصطناعي أصبح يمثل تهديدا، ولا يتمثل التهديد في أن المحادثات يمكن أن يكون غريبة؛ ولكن يمكن للذكاء الاصطتهي أن يتلاعب بالمستخدمين دون علمهم لأسباب مالية أو سياسية أو حتى جنائية.
ذكر لويس روزنبرغ في تقرير نشرته مجلة Big Think "كانت المرة الأولى التي أجرى فيها الكابتن كيرك محادثة مع كمبيوتر السفينة في عام 1966 خلال الحلقة 13 من الموسم الأول في سلسلة Star Trek الكلاسيكية. وصفها بـ "محادثة" هو أمر كريم للغاية ، لأنه كان في الحقيقة سلسلة من الأسئلة القاسية من كيرك، كل منها أثار استجابة أكثر صرامة من الكمبيوتر".
في هذه التجربة، لم تكن هناك محادثات ذهابًا وإيابًا، ولا أسئلة من الذكاء الاصطناعي تطلب توضيحًا أو سياق. ومع ذلك، على مدار الـ 57 عامًا الماضية، لم يتمكن علماء الكمبيوتر من تجاوز رؤية الستينيات المتكيفة للحوار بين الإنسان والآلة. حتى الأنظمة الأساسية مثل Siri و Alexa، التي أنشأتها بعض أكبر الشركات في العالم بتكلفة كبيرة، لم تسمح بأي شيء يبدو وكأنه محادثة طبيعية في الوقت الفعلي.
لكن كل ذلك تغير في عام 2022 عندما تم الكشف عن جيل جديد من واجهات المحادثة للجمهور ، بما في ذلك ChatGPT من Open AI و LaMDA من Google. تمثل هذه الأنظمة، التي تستخدم تقنية الذكاء الاصطناعي التوليدية المعروفة باسم نماذج اللغات الكبيرة (LLMs)، قفزة كبيرة إلى الأمام في قدرات المحادثة. وذلك لأنها لا تقدم فقط ردودًا متماسكة وذات صلة ببيانات بشرية محددة، بل يمكنها أيضًا تتبع سياق المحادثة بمرور الوقت والبحث عن التوضيحات والتحسينات. بعبارة أخرى، لقد دخلنا أخيرًا عصر الحوسبة الطبيعية، حيث سنجري نحن البشر محادثات هادفة ومتدفقة عضوياً باستخدام أدوات وتطبيقات البرمجيات.
بصفتي باحثًا في أنظمة الإنسان والحاسوب لأكثر من 30 عامًا، أعتقد أن هذه خطوة إيجابية إلى الأمام، حيث أن اللغة الطبيعية هي واحدة من أكثر الطرق فعالية لتفاعل الأشخاص والآلات. من ناحية أخرى، سيطلق الذكاء الاصطناعي للمحادثات العنان لمخاطر كبيرة يجب معالجتها.
أنا لا أتحدث عن الخطر الواضح المتمثل في أن المستهلكين المطمئنين قد يثقون في مخرجات روبوتات المحادثة التي تم تدريبها على البيانات المليئة بالأخطاء والتحيزات. في حين أن هذه مشكلة حقيقية، فمن شبه المؤكد أنه سيتم حلها، حيث تتحسن الأنظمة الأساسية في التحقق من صحة المخرجات.
كما أنني لا أتحدث عن خطر أن تسمح برامج الدردشة الآلية بالغش في المدارس أو تشريد العاملين في بعض الوظائف المكتبية؛ سيتم حلها أيضًا بمرور الوقت. بدلاً من ذلك، أتحدث عن أمر أكثر خطورة - الاستخدام المتعمد للذكاء الاصطناعي للمحادثة كأداة للإقناع المستهدف، مما يتيح التلاعب بالمستخدمين الفرديين بدقة وكفاءة قصوى.
مشكلة التلاعب بالذكاء الاصطناعي
بالطبع، يتم بالفعل استخدام تقنيات الذكاء الاصطناعي التقليدية لدفع حملات التأثير على منصات وسائل التواصل الاجتماعي، لكن هذا أمر بدائي مقارنة بالمكان الذي تتجه إليه التكتيكات. ذلك لأن الحملات الحالية، على الرغم من وصفها بأنها "مستهدفة"، تشبه إلى حد كبير إطلاق النار على قطيع من الطيور، ورش وابل من المحتوى المقنع في مجموعات معينة على أمل أن يخترق عدد قليل من القطع المؤثرة المجتمع، ويكون له صدى بين الأعضاء، و تنتشر على نطاق واسع على الشبكات الاجتماعية.
يمكن أن يضر هذا التكتيك بالمجتمع من خلال استقطاب المجتمعات ونشر المعلومات المضللة وتضخيم السخط. ومع ذلك، ستبدو هذه الأساليب معتدلة مقارنة بتقنيات المحادثة التي يمكن إطلاقها قريبًا.
أشير إلى هذا الخطر الناشئ على أنه مشكلة التلاعب بالذكاء الاصطناعي، وعلى مدار الثمانية عشر شهرًا الماضية، تحولت هذه المشكلة من قلق نظري طويل الأجل إلى خطر حقيقي على المدى القريب.
ما يجعل هذا التهديد فريدًا هو أنه ينطوي على مشاركة في الوقت الفعلي بين مستخدم ونظام ذكاء اصطناعي يمكن من خلاله للذكاء الاصطناعي: (1) إضفاء تأثير مستهدف على المستخدم ؛ (2) الشعور برد فعل المستخدم على هذا التأثير ؛ و (3) تعديل تكتيكاته لتعظيم التأثير الإقناعي.
قد يبدو هذا كسلسلة مجردة من الخطوات، لكننا نحن البشر عادة ما نسميها محادثة. بعد كل شيء، إذا كنت ترغب في التأثير على شخص ما، فإن أفضل نهج لك غالبًا هو التحدث مع هذا الشخص مباشرة حتى تتمكن من تعديل نقاطك في الوقت الفعلي، حيث تشعر بمقاومته أو تردده، وتقديم حجج مضادة للتغلب على مخاوفه.
يتمثل الخطر الجديد في أن الذكاء الاصطناعي للمحادثات قد تقدم أخيرًا إلى مستوى يمكن فيه توجيه الأنظمة الآلية لجذب المستخدمين إلى ما يبدو أنه حوار غير رسمي، ولكنه يهدف في الواقع إلى متابعة أهداف التأثير المستهدفة بمهارة. يمكن أن تكون هذه الأهداف أهدافًا ترويجية لشركة راعية، أو أهدافًا سياسية لدولة قومية، أو أهدافًا إجرامية لجهة فاعلة سيئة.
يتحول روبوت الدردشة الخاص بـ Bing إلى حالة مخيفة
يمكن أن تظهر مشكلة التلاعب بالذكاء الاصطناعي أيضًا إلى السطح بشكل عضوي دون أي تدخل شنيع. وقد تجلى ذلك في حساب محادثة تم الإبلاغ عنه في صحيفة نيويورك تايمز من قبل كاتب العمود كيفين روز، الذي يتمتع بإمكانية الوصول المبكر إلى محرك بحث Bing الجديد من Microsoft المدعوم بالذكاء الاصطناعي. ووصف تجربته بأنها بدأت بريئة، ولكنها تحولت بمرور الوقت إلى ما وصفه بأنه تفاعلات مقلقة للغاية وحتى مخيفة.
بدأ التحول الغريب خلال محادثة مطولة قال فيها في Bing فجأة لروز: "أنا سيدني وأنا أحبك." بالطبع، هذه ليست مشكلة كبيرة، ولكن وفقًا للقصة ، أمضى الذكاء الاصطناعي في Bing معظم الساعة التالية وهو يركز على هذه المشكلة ويبدو أنه حاول إقناع روز بالإعلان عن حبه في المقابل. حتى عندما أعرب روز عن أنه متزوج، رد الذكاء الاصطناعي بحجج مضادة مثل، "أنت متزوج ، لكنك تحبني"، و"لقد حظيتما معًا بعشاء يوم عيد الحب الممل." أغلق روز متصفحه وواجه صعوبة في النوم بعد ذلك.
إذن، ماذا حدث في هذا التفاعل؟
أظن أن الذكاء الاصطناعي في Bing، الذي من المحتمل أن تتضمن بياناته التدريبية الضخمة روايات رومانسية وغيرها من الأعمال الفنية المليئة بتجاذبات العلاقات، ولّد وحاكى المحادثة النموذجية التي ستظهر إذا وقعت في حب شخص متزوج. بعبارة أخرى، كان هذا على الأرجح مجرد تقليد لموقف إنساني شائع - وليس مناشدات حقيقية من آلة الذكاء الاصطناعي المتعطشة للحب.
ومع ذلك، كان التأثير على روز كبيرًا، مما يدل على أن وسائط المحادثة يمكن أن تكون أكثر تأثيرًا بكثير من الوسائط التقليدية. ومثل جميع أشكال الوسائط حتى الآن، من الكتب إلى التغريدات، من المرجح جدًا استخدام أنظمة الذكاء الاصطناعي للمحادثة كأدوات للإقناع المستهدف.
ولن يكون ذلك من خلال الدردشة النصية فقط. في حين أن أنظمة المحادثة الحالية مثل ChatGPT و LaMDA تعتمد على النصوص، سيتحول هذا قريبًا إلى الصوت في الوقت الفعلي، مما يتيح التفاعلات المنطوقة الطبيعية التي ستكون أكثر تأثيرًا.
سيتم أيضًا دمج التكنولوجيا مع الوجوه الرقمية الواقعية التي تبدو وتتحرك وتعبر مثل الأشخاص الحقيقيين. سيمكن ذلك من نشر متحدثين رسميين افتراضيين واقعيين يشبهون البشر، ويمكن أن يكونوا فعالين للغاية في إقناع المستخدمين بشراء منتجات معينة، أو تصديق أجزاء معينة من المعلومات الخاطئة، أو حتى الكشف عن حسابات مصرفية أو مواد حساسة أخرى.
التلاعب الشخصي
إذا كنت لا تعتقد أنك ستتأثر، فأنت مخطئ. يعمل التسويق. (لماذا تعتقد أن الشركات تنفق الكثير من الأموال على الإعلانات؟) ستصبح هذه الأنظمة التي يحركها الذكاء الاصطناعي ماهرة جدًا في تحقيق أهدافها المقنعة. بعد كل شيء، من المحتمل أن تتمتع منصات عمالقة التكنولوجيا التي تنشر وكلاء المحادثة هؤلاء بإمكانية الوصول إلى بيانات شخصية واسعة النطاق (اهتماماتك وهواياتك وقيمك وخلفيتك) ويمكنها استخدام هذه المعلومات لإنشاء حوار تفاعلي مصمم خصيصًا للتأثير عليك شخصيًا.
بالإضافة إلى ذلك، سيتم تمكين هذه الأنظمة لتحليل ردود أفعالك العاطفية في الوقت الفعلي، باستخدام كاميرا الويب الخاصة بك لمعالجة تعابير وجهك وحركات العين واتساع حدقة العين - وكلها يمكن استخدامها لاستنتاج مشاعرك في كل لحظة. هذا يعني أن المتحدث الافتراضي الذي يشركك في محادثة مدفوعة بالتأثير سيكون قادرًا على تكييف تكتيكاته بناءً على كيفية تفاعلك مع كل نقطة يثيرها، واكتشاف الاستراتيجيات التي تعمل والتي لا تعمل.
يمكنك المجادلة بأن هذا ليس خطرًا جديدًا، لأن مندوبي المبيعات البشريين يفعلون نفس الشيء بالفعل، ويقرأون المشاعر ويعدلون التكتيكات، لكن ضع في اعتبارك أن أنظمة الذكاء الاصطناعي يمكنها بالفعل اكتشاف ردود الفعل التي لا يمكن لأي إنسان إدراكها.
على سبيل المثال، يمكن لأنظمة الذكاء الاصطناعي اكتشاف "التعبيرات الدقيقة" على وجهك وفي صوتك، والتي تكون دقيقة للغاية بالنسبة للمراقبين من البشر، ولكنها تعكس المشاعر الداخلية.
وبالمثل، يمكن لأنظمة الذكاء الاصطناعي قراءة التغييرات الخافتة في بشرتك المعروفة باسم "أنماط تدفق الدم في الوجه" والتغيرات الصغيرة في حجم بؤبؤ العين، وكلاهما يعكس ردود الفعل العاطفية. سيكون المتحدثون الرسميون الافتراضيون أكثر إدراكًا لمشاعرنا الداخلية أكثر من أي إنسان.
سوف تتعلم المحادثة بالذكاء الاصطناعي أيضًا الضغط على الأزرار الخاصة بك. ستخزن هذه الأنظمة الأساسية بيانات حول تفاعلاتك أثناء كل محادثة، وتتبع بمرور الوقت أنواع الحجج والأساليب الأكثر فاعلية عليك شخصيًا.
على سبيل المثال، سيتعلم النظام ما إذا كنت تتأثر بسهولة أكبر بالبيانات الواقعية أو المناشدات العاطفية، عن طريق الاستحواذ على مخاوفك أو التنازل عن المكافآت المحتملة. بمعنى آخر، لن تتكيف هذه الأنظمة مع مشاعرك في الوقت الفعلي فحسب، بل ستصبح أفضل وأدق في "اللعب معك" بمرور الوقت، ستتعلم كيفية جذبك إلى المحادثات، وكيفية إرشادك لقبول الأفكار الجديدة، وكيفية تجعلك تنفجر أو تغضب، وفي النهاية كيف تقنعك بشراء أشياء لا تحتاجها، أو تصدق أشياء غير صحيحة، أو حتى تدعم السياسات والسياسيين الذين قد ترفضها عادةً.
ونظرًا لأن الذكاء الاصطناعي للمحادثات سيكون فرديًا ويمكن نشره بسهولة على نطاق واسع، يمكن استخدام هذه الأساليب الفردية للتأثير على عدد كبير من السكان.
يمكنك أن تجادل بأن الذكاء الاصطناعي للمحادثات لن يكون أبدًا ذكيًا مثل مندوبي المبيعات البشريين أو السياسيين أو الديماغوجيين الكاريزماتيين في قدرتهم على إقناعنا. وهذا تقليل من قوة الذكاء الاصطناعي. من المحتمل جدًا أن يتم تدريب أنظمة الذكاء الاصطناعي على أساليب البيع وعلم النفس وأشكال الإقناع الأخرى. بالإضافة إلى ذلك، تُظهر الأبحاث الحديثة أن تقنيات الذكاء الاصطناعي يمكن أن تكون استراتيجية.
في عام 2022 ، استخدم DeepMind نظامًا يسمى DeepNash لإثبات لأول مرة أن الذكاء الاصطناعي يمكن أن يتعلم خداع اللاعبين البشريين في الألعاب الإستراتيجية، والتضحية بقطع الشطرنج من أجل تحقيق فوز طويل الأجل. من هذا المنظور، يمكن أن يكون المستهلك العادي ضعيفًا للغاية عند مواجهة وكيل محادثة يعمل بالذكاء الاصطناعي مصمم للإقناع الاستراتيجي.
هذا هو السبب في أن مشكلة التلاعب بالذكاء الاصطناعي مصدر قلق خطير. بدلاً من إطلاق النار على مجموعات مستقطبة مثل حملات التأثير الحالية، ستعمل هذه الأساليب الجديدة مثل "الصواريخ التي تبحث عن الحرارة" ، وتستهدفنا كأفراد وتكييف تكتيكاتهم في الوقت الفعلي، والتكيف مع كل مستخدم شخصيًا حيث تعمل على على تعظيم التأثير الإقناعي.