تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



المشاكل التنظيمية لـ ChatGPT بدأت للتو


القاهرة : الأمير كمال فرج.

معركة الاتحاد الأوروبي المتوقعة مع شركة OpenAI  التي أصدرت  برنامج الذكاء الاصطناعي ChatGPT بدأت، وهذه الحرب لا تتعلق فقط بهذا البرنامج، ولكن بما يتعلق بخدمات الذكاء الاصطناعي ككل، وهي بداية لحرب طويلة لا أحد يعلم إلى ماذا ستنتهي؟.

ذكر جيس ويثيربيد في تقرير نشره موقع The Verge إن "شركة OpenAI تمكنت من استرضاء سلطات البيانات الإيطالية ورفع الحظر الفعال الذي تفرضه البلاد على ChatGPT الأسبوع الماضي، لكن معركتها ضد المنظمين الأوروبيين لم تنته بعد".

في وقت سابق من هذا العام، واجه برنامج الدردشة ChatGPT الشهير والمثير للجدل التابع لشركة OpenAI عقبة قانونية كبيرة: حظر فعال في إيطاليا. اتهمت هيئة حماية البيانات الإيطالية (GPDP) شركة OpenAI بانتهاك قواعد حماية البيانات في الاتحاد الأوروبي، ووافقت الشركة على تقييد الوصول إلى الخدمة في إيطاليا أثناء محاولتها إصلاح المشكلة. في 28 أبريل، عادت ChatGPT إلى البلاد، مع معالجة OpenAI برفق لمخاوف هيئة حماية البيانات الإيطالية GPDP دون إجراء تغييرات كبيرة على خدمتها - وهو انتصار واضح.

قالت هيئة حماية البيانات الإيطالية إنها "ترحب" بالتغييرات التي أدخلها ChatGPT. ومع ذلك، من المحتمل أن تكون المشكلات القانونية للشركة - وتلك الخاصة بالشركات التي تبني روبوتات محادثة مماثلة - قد بدأت للتو.

يبحث المنظمون في العديد من البلدان في كيفية جمع أدوات الذكاء الاصطناعي هذه وإنتاجها، مستشهدين بمجموعة من المخاوف من جمع الشركات لبيانات التدريب غير المرخصة إلى ميل روبوتات المحادثة إلى نشر معلومات مضللة.

في الاتحاد الأوروبي، يطبقون اللائحة العامة لحماية البيانات (GDPR)، وهي واحدة من أقوى أطر عمل الخصوصية القانونية في العالم، والتي من المحتمل أن تمتد آثارها بعيدًا خارج أوروبا. وفي الوقت نفسه، يضع المشرعون في الكتلة قانونًا يعالج الذكاء الاصطناعي على وجه التحديد - من المحتمل أن يكون إيذانًا بعصر جديد من التنظيم لأنظمة مثل ChatGPT.

أدت مشكلات ChatGPT المختلفة المتعلقة بالمعلومات الخاطئة وحقوق الطبع والنشر وحماية البيانات إلى وضع هدف على ظهره.

يعد ChatGPT أحد أشهر الأمثلة على الذكاء الاصطناعي التوليدي - وهو مصطلح شامل يغطي الأدوات التي تنتج نصًا وصورة وفيديو وصوتًا بناءً على مطالبات المستخدم. وبحسب ما ورد أصبحت الخدمة واحدة من أسرع تطبيقات المستهلكين نموًا في التاريخ بعد وصولها إلى 100 مليون مستخدم نشط شهريًا بعد شهرين فقط من إطلاقها في نوفمبر 2022 (لم تؤكد OpenAI هذه الأرقام أبدًا). يستخدمه الناس لترجمة النص إلى لغات مختلفة، وكتابة المقالات الجامعية، وإنشاء التعليمات البرمجية. لكن النقاد - بما في ذلك المنظمون - سلطوا الضوء على ناتج ChatGPT غير الموثوق به، وقضايا حقوق النشر المربكة، وممارسات حماية البيانات الغامضة.

كانت إيطاليا أول دولة تتخذ خطوة. في الحادي والثلاثين من مارس، سلطت الضوء على أربع طرق يعتقد أن OpenAI كانت تكسر القانون العام لحماية البيانات (GDPR): السماح لـ ChatGPT بتقديم معلومات غير دقيقة أو مضللة، والفشل في إخطار المستخدمين بممارسات جمع البيانات الخاصة بها، والفشل في تلبية أي من المبررات القانونية الستة الممكنة لمعالجة البيانات الشخصية، وعدم منع الأطفال دون سن 13 عامًا من استخدام الخدمة بشكل مناسب. أمرت شركة OpenAI بالتوقف فورًا عن استخدام المعلومات الشخصية التي تم جمعها من المواطنين الإيطاليين في بيانات التدريب الخاصة بها لـ ChatGPT.

لم تتخذ أي دولة أخرى مثل هذا الإجراء. ولكن منذ مارس، أطلقت ثلاث دول على الأقل في الاتحاد الأوروبي - ألمانيا وفرنسا وإسبانيا - تحقيقاتها الخاصة في ChatGPT. وفي الوقت نفسه، عبر المحيط الأطلسي، تقوم كندا بتقييم مخاوف الخصوصية بموجب قانون حماية المعلومات الشخصية والوثائق الإلكترونية، أو PIPEDA منظمات القطاع الخاص في جميع أنحاء كندا  .

أنشأ مجلس حماية البيانات الأوروبي (EDPB) فريق عمل مخصصًا للمساعدة في تنسيق التحقيقات. وإذا طلبت هذه الوكالات تغييرات من OpenAI، فقد تؤثر على كيفية تشغيل الخدمة للمستخدمين في جميع أنحاء العالم.

يمكن تقسيم مخاوف المنظمين على نطاق واسع إلى فئتين: من أين تأتي بيانات تدريب ChatGPT وكيف تقدم OpenAI المعلومات لمستخدميها.

يستخدم ChatGPT إما نماذج اللغات الكبيرة (LLM) الخاصة بـ OpenAI's GPT-3.5 و GPT-4، والتي يتم تدريبها على كميات هائلة من النصوص التي ينتجها الإنسان. إن OpenAI حريص على تحديد نص التدريب المستخدم ولكنه يقول إنه يعتمد على "مجموعة متنوعة من مصادر البيانات المرخصة والمنشأة والمتاحة للجمهور، والتي قد تتضمن معلومات شخصية متاحة للجمهور".

من المحتمل أن يشكل هذا مشاكل كبيرة بموجب اللائحة العامة لحماية البيانات (GDPR). سُن القانون في 2018 ويغطي كل خدمة تجمع أو تعالج البيانات من مواطني الاتحاد الأوروبي - بغض النظر عن مكان وجود المنظمة المسؤولة. تتطلب قواعد اللائحة العامة لحماية البيانات من الشركات الحصول على موافقة صريحة قبل جمع البيانات الشخصية، وأن يكون لديها مبرر قانوني لسبب جمعها، وأن تكون شفافة بشأن كيفية استخدامها وتخزينها.

يدعي المنظمون الأوروبيون أن السرية حول بيانات تدريب OpenAI تعني أنه لا توجد طريقة لتأكيد ما إذا كانت المعلومات الشخصية التي تم إدخالها فيها قد تم تقديمها في البداية بموافقة المستخدم، وقد جادلت GPDP على وجه التحديد بأن OpenAI ليس لديها "أساس قانوني" لجمعها في المقام الأول . لقد تخلصت شركة OpenAI وغيرها من الشركات من دون تمحيص بسيط حتى الآن، لكن هذا الادعاء يضيف علامة استفهام كبيرة إلى جهود إزالة البيانات المستقبلية.

ثم هناك "حق النسيان Right to be forgotten" في اللائحة العامة لحماية البيانات، والذي يتيح للمستخدمين مطالبة الشركات بتصحيح معلوماتهم الشخصية أو إزالتها بالكامل. قامت OpenAI بتحديث سياسة الخصوصية بشكل استباقي لتسهيل هذه الطلبات، ولكن كان هناك جدل حول ما إذا كان من الممكن تقنيًا التعامل معها، نظرًا لمدى تعقيد فصل البيانات المحددة بمجرد تحولها إلى نماذج اللغات الكبيرة هذه.

تقوم شركة OpenAI أيضًا بجمع المعلومات مباشرةً من المستخدمين. مثل أي منصة إنترنت، فهي تجمع مجموعة من بيانات المستخدم القياسية (على سبيل المثال، الاسم ومعلومات الاتصال وتفاصيل البطاقة وما إلى ذلك). ولكن الأهم من ذلك أنها تسجل تفاعلات المستخدمين مع ChatGPT. كما هو مذكور في الأسئلة الشائعة ، يمكن مراجعة هذه البيانات من قبل موظفي OpenAI واستخدامها لتدريب الإصدارات المستقبلية من نموذجها. نظرًا للأسئلة الحميمة التي يطرحها الأشخاص على ChatGPT - باستخدام الروبوت كمعالج أو طبيب - فهذا يعني أن الشركة تجمع جميع أنواع البيانات الحساسة.

ربما تم جمع بعض هذه البيانات على الأقل من القاصرين، بينما تنص سياسة OpenAI على أنها "لا تجمع معلومات شخصية عن قصد من الأطفال دون سن 13 عامًا" ، لا توجد بوابة صارمة للتحقق من العمر. لا يتوافق هذا جيدًا مع قواعد الاتحاد الأوروبي، التي تحظر جمع البيانات من الأشخاص الذين تقل أعمارهم عن 13 عامًا (وفي بعض البلدان) تتطلب موافقة الوالدين للقصر الذين تقل أعمارهم عن 16 عامًا. ومن ناحية المخرجات، ادعى GPDP أن افتقار ChatGPT لمرشحات العمر يعرض القُصَّر لـ " ردود غير مناسبة على الإطلاق فيما يتعلق بدرجة تطورهم ووعيهم الذاتي".

تحتفظ OpenAI بمجال واسع لاستخدام تلك البيانات، الأمر الذي أثار قلق بعض المنظمين، وتخزينها يمثل خطرًا أمنيًا. منعت شركات مثل Samsung و JPMorgan الموظفين من استخدام أدوات الذكاء الاصطناعي التوليدية بسبب مخاوف من تحميل بيانات حساسة. وفي الواقع ، أعلنت إيطاليا عن حظرها بعد فترة وجيزة من تعرض ChatGPT لتسريب خطير للبيانات، مما أدى إلى كشف سجل الدردشة وعناوين البريد الإلكتروني للمستخدمين.

قد يؤدي نزوع ChatGPT إلى تقديم معلومات خاطئة إلى حدوث مشكلة أيضًا. تنص لوائح GDPR على أن جميع البيانات الشخصية يجب أن تكون دقيقة، وهو أمر أبرزه GPDP في إعلانه.

اعتمادًا على كيفية تعريف ذلك، يمكن أن يتسبب ذلك في مشكلة لمعظم منشئي نصوص الذكاء الاصطناعي، المعرضين لـ "الهلوسة": مصطلح صناعي لطيف للإجابات غير الصحيحة أو غير ذات الصلة على استعلام ما. لقد شهد هذا بالفعل بعض التداعيات في العالم الحقيقي في أماكن أخرى، حيث هدد رئيس بلدية أسترالي إقليمي بمقاضاة شركة OpenAI بتهمة التشهير بعد أن ادعى ChatGPT زوراً أنه قضى فترة في السجن بتهمة الرشوة.

إن شعبية ChatGPT وهيمنتها الحالية على سوق الذكاء الاصطناعي تجعله هدفًا جذابًا بشكل خاص، ولكن لا يوجد سبب لعدم تعرض منافسيها والمتعاونين لها، مثل Google مع Bard أو Microsoft مع Azure AI المدعوم من OpenAI ، للتدقيق أيضًا. قبل ChatGPT، حظرت إيطاليا منصة روبوت الدردشة Replika لجمع معلومات عن القاصرين - وحتى الآن، ظلت محظورة.

في حين أن اللائحة العامة لحماية البيانات هي مجموعة قوية من القوانين ، إلا أنها لم تُصاغ لمعالجة المشكلات الخاصة بالذكاء الاصطناعي، والقواعد التي تفعل ذلك، ومع ذلك، قد تكون في الأفق.

في عام 2021 ، قدم الاتحاد الأوروبي مسودة أولى لقانون الذكاء الاصطناعي (AIA) ، وهو التشريع الذي سيعمل جنبًا إلى جنب مع القانون العام لحماية البيانات (GDPR). يحكم القانون أدوات الذكاء الاصطناعي وفقًا لمخاطرها المتصورة، من "الحد الأدنى" (أشياء مثل مرشحات البريد العشوائي) إلى "مرتفع" (أدوات الذكاء الاصطناعي لإنفاذ القانون أو التعليم) أو "غير مقبول" وبالتالي محظور (مثل نظام الائتمان الاجتماعي).

بعد انفجار نماذج اللغات الكبيرة مثل ChatGPT العام الماضي، يتسابق المشرعون الآن لإضافة قواعد لـ "نماذج الأساس" و "أنظمة الذكاء الاصطناعي للأغراض العامة (GPAIs)" - وهما مصطلحان لأنظمة الذكاء الاصطناعي واسعة النطاق التي تتضمن اللغات الكبيرة LLMs - وربما التصنيف عليها باعتبارها خدمات "عالية الخطورة".

تتجاوز أحكام مسودة قانون الذكاء الاصطناعي AIA حماية البيانات. من شأن التعديل المقترح مؤخرًا أن يجبر الشركات على الكشف عن أي مواد محمية بحقوق الطبع والنشر تُستخدم لتطوير أدوات الذكاء الاصطناعي التوليفية. قد يؤدي ذلك إلى الكشف عن مجموعات البيانات التي كانت في يوم من الأيام سرية وترك المزيد من الشركات عرضة لقضايا الانتهاك، والتي تلحق الضرر بالفعل ببعض الخدمات. لكن تمريرها قد يستغرق بعض الوقت.

توصل المشرعون في الاتحاد الأوروبي إلى اتفاق مؤقت لقانون الذكاء الاصطناعي في 27 أبريل. وستصوت لجنة على المسودة في 11 مايو، ومن المتوقع تقديم الاقتراح النهائي في منتصف يونيو. بعد ذلك، سيتعين على المجلس الأوروبي والبرلمان والمفوضية الأوروبية حل أي نزاعات متبقية قبل تنفيذ القانون. إذا سارت الأمور بسلاسة، يمكن اعتمادها بحلول النصف الثاني من عام 2024، وهو ما يقل قليلاً عن الهدف الرسمي لانتخابات أوروبا في مايو 2024.

في الوقت الحالي، يقدم الخلاف بين إيطاليا وشركة OpenAI نظرة مبكرة على كيفية تفاوض المنظمين وشركات الذكاء الاصطناعي. عرضت هيئة حماية البيانات الإيطالية GPDP رفع الحظر إذا التقت شركة OpenAI بالعديد من القرارات المقترحة بحلول 30 أبريل. وشمل ذلك إبلاغ المستخدمين بكيفية تخزين ChatGPT لبياناتهم ومعالجتها، وطلب الموافقة الصريحة على استخدام البيانات المذكورة، وتسهيل الطلبات لتصحيح أو إزالة المعلومات الشخصية الزائفة التي تم إنشاؤها بواسطة ChatGPT، ومطالبة المستخدمين الإيطاليين بتأكيد أنهم فوق 18 عامًا عند التسجيل للحصول على حساب . لم تفِ شركة OpenAI بكل هذه الشروط ، لكنها استوفت ما يكفي لإرضاء المنظمين الإيطاليين واستعادة الوصول إلى ChatGPT في إيطاليا.

لا يزال لدى OpenAI أهداف يجب أن تفي بها. أمامها حتى 30 سبتمبر لإنشاء بوابة عمرية أكثر صعوبة لمنع القصر دون سن 13 عامًا والمطالبة بموافقة الوالدين للمراهقين القاصرين الأكبر سنًا. إذا فشل، فقد يرى نفسه محجوبًا مرة أخرى. لكنها قدمت مثالاً لما تعتبره أوروبا سلوكًا مقبولاً لشركة ذكاء اصطناعي - على الأقل حتى يتم وضع قوانين جديدة في الدفاتر.

تاريخ الإضافة: 2023-05-07 تعليق: 0 عدد المشاهدات :710
1      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات