تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



طرد باحثة من جوجل كشفت عنصرية الآلة


القاهرة : الأمير كمال فرج.

أثار رحيل باحثة ذكاء اصطناعي محترمة في جوجل مؤخرًا أسئلة حول ما إذا كانت الشركة تحاول إخفاء المخاوف الأخلاقية بشأن جزء رئيسي من تقنية الذكاء الاصطناعي. .

ذكر تقرير نشرته مجلة Fortune أن "رحيل الباحثة تيمنيت جبرو Timnit Gebru ، جاء بعد أن طلبت جوجل منها سحب ورقة بحثية شاركت في تأليفها حول أخلاقيات نماذج اللغة الكبيرة. تساعد هذه النماذج ، التي تم إنشاؤها من خلال غربلة مكتبات نصية ضخمة ، في إنشاء محركات بحث ومساعدين رقميين يمكنهم فهم المستخدمين والاستجابة لهم بشكل أفضل".

رفضت جوجل التعليق على رحيل جيبرو ، لكنها أحالت المراسلين إلى رسالة بريد إلكتروني إلى الموظفين كتبها جيف دين ، نائب الرئيس الأول المسؤول عن الذكاء الاصطناعي في جوجل . قسم الأبحاث ، الذي تم تسريبه إلى النشرة الإخبارية التقنية Platformer. في البريد الإلكتروني ، قال دين إن الدراسة المعنية ، التي شاركت جيبرو في تأليفها مع أربعة علماء آخرين في جوجل وباحث من جامعة واشنطن ، لم تستوف معايير الشركة.

 أخلاقيات الذكاء الاصطناعي


ومع ذلك ، فإن هذا الموقف قد تنازع عليه كل من جيبرو وأعضاء فريق أخلاقيات الذكاء الاصطناعي التي شاركت في قيادته سابقًا.

وقع الآن أكثر من 5300 شخص ، بما في ذلك أكثر من 2200 موظف في جوجل ، على خطاب مفتوح للاحتجاج على معاملة جوجل لجبرو ويطالبون الشركة بشرح موقفها.

يوم الأربعاء، أخبر سوندار بيتشاي ، الرئيس التنفيذي لشركة جوجل ، الموظفين أنه سيحقق في الظروف التي تركت فيها جيبرو الشركة وسيعمل على استعادة الثقة ، وفقًا لتقرير من خدمة الأخبار أكسيوس ، التي حصلت على مذكرة بيتشاي لموظفي جوجل.

ولكن لماذا كانت جوجل منزعجة بشكل خاص من شكوك جيبرو وزملاؤها في أخلاقيات نماذج اللغة الكبيرة؟ حسنًا، كما اتضح ، استثمرت جوجل كثيرًا في نجاح هذه التقنية المعينة.

نماذج اللغة الكبيرة

تحت غطاء جميع نماذج اللغة الكبيرة يوجد نوع خاص من الشبكات العصبية ، برنامج الذكاء الاصطناعي  ، والذي ابتكره باحثو جوجل في عام 2017. يعتمد بشكل فضفاض على الدماغ البشري، وأطلق عليه اسم محول Transformer ، ومنذ ذلك الحين تم اعتماده على مستوى الصناعة لمجموعة متنوعة من الاستخدامات المختلفة في كل من مهام اللغة والرؤية.

النماذج الإحصائية التي تبنيها هذه الخوارزميات اللغوية الضخمة هائلة، حيث تستوعب مئات الملايين أو حتى مئات المليارات من المتغيرات. بهذه الطريقة، يمكن للآلة بقدرة جيدًا جدًا التنبؤ بدقة بالكلمة المفقودة في الجملة.

اكتساب المهارات

لكن اتضح أنها على طول الطريق ، تكسب مهارات أخرى أيضًا ، مثل القدرة على الإجابة على أسئلة حول نص ما، أو تلخيص الحقائق الأساسية حول مستند ، أو اكتشاف أي ضمير يشير إلى أي شخص في المقطع. تبدو هذه الأشياء بسيطة ، ولكن كان لابد من تدريب برامج اللغة السابقة على وجه التحديد لكل واحدة من هذه المهارات ، وحتى في ذلك الوقت لم يكن ذلك جيدًا في كثير من الأحيان.

يمكن لأكبر هذه النماذج اللغوية الكبيرة القيام ببعض الأشياء الرائعة الأخرى أيضًا: GPT-3 ، نموذج لغة كبير تم إنشاؤه بواسطة سان فرانسيسكو للذكاء الاصطناعي San Francisco A.I. وشركة أوبن أيه آي OpenAI وهي منظمة غير ربحية لأبحاث الذكاء الاصطناعي تهدف إلى تعزيز وتطوير أنظمة آمنة للذكاء الاصطناعي.

175 مليار متغير

يشمل النموذج حوالي 175 مليار متغير ويمكنه كتابة مقاطع طويلة من نص متماسك من موجه بشري بسيط. لذا تخيل كتابة عنوان رئيسي وجملة أولى فقط لمنشور مدونة باستخدام GPT-3 ثم كتابة الباقي. قامت أوبن أيه آي بترخيص GPT-3 لعدد من الشركات الناشئة في مجال التكنولوجيا ، بالإضافة إلى Microsoft ، لتشغيل خدماتها الخاصة، والتي تشمل شركة واحدة تستخدم البرنامج لتمكين المستخدمين من إنشاء رسائل بريد إلكتروني كاملة من بضع نقاط فقط.

تمتلك جوجل نموذجها اللغوي الكبير ، المسمى BERT ، والذي استخدمته للمساعدة في تعزيز نتائج البحث بعدة لغات بما في ذلك الإنجليزية. تستخدم شركات أخرى أيضًا BERT لبناء برامج معالجة اللغة الخاصة بها.

حافز تجاري

تم تحسين BERT للعمل على معالجات الكمبيوتر بالذكاء الاصطناعي المتخصص بجوجل، المتاحة حصريًا لعملاء خدمة الحوسبة السحابية. لذلك لدى جوجل حافز تجاري واضح لتشجيع الشركات على استخدام BERT. وبشكل عام ، فإن جميع موفري الحوسبة السحابية سعداء بالاتجاه الحالي نحو نماذج اللغات الكبيرة ، لأنه إذا أرادت شركة ما تدريب وتشغيل واحد خاص بها ، فيجب أن تستأجر الكثير من وقت الحوسبة السحابية.

على سبيل المثال ، قدرت إحدى الدراسات العام الماضي أن تدريب BERT على سحابة جوجل يكلف حوالي 7000 دولار. في غضون ذلك ، أشار سام التمان ، الرئيس التنفيذي لشركة OpenAI ، إلى أن تدريب GPT-3 يكلف عدة ملايين.

وعلى الرغم من أن سوق ما يسمى بنماذج لغة Transformer الكبيرة هذه صغير نسبيًا في الوقت الحالي، إلا أنها مهيأة للانتشار، وفقًا لكجيل كارلسون ، المحلل في شركة أبحاث التكنولوجيا Forrester. "من بين تطوير جميع أجهزة الذكاء الاصطناعي، فإن شبكات المحولات الكبيرة هذه هي الأكثر أهمية لمستقبل الذكاء الاصطناعي في الوقت الحالي".

 

معالجة اللغة الطبيعية

أحد الأسباب هو أن النماذج اللغوية الكبيرة تجعل من السهل جدًا بناء أدوات معالجة اللغة، تقريبًا خارج الصندوق.  يقول كارلسون: "مع القليل من الضبط الدقيق ، يمكنك تخصيص روبوتات محادثة مخصصة لكل شيء وأي شيء". علاوة على ذلك، يمكن لنماذج اللغات الكبيرة المدربة مسبقًا أن تساعد في كتابة البرامج، أو تلخيص النص، أو إنشاء أسئلة متكررة بإجاباتها ".

توقع تقرير عام 2017 الذي تم الاستشهاد به على نطاق واسع من شركة أبحاث السوق Tractica أن برامج NLP (معالجة اللغة الطبيعية) بجميع أنواعها ستكون سوقًا سنويًا بقيمة 22.3 مليار دولار بحلول عام 2025. وقد تم إجراء هذا التحليل قبل وصول نماذج اللغات الكبيرة مثل BERT و GPT-3 المشهد. إذن هذه هي فرصة السوق التي انتقدها بحث جيبرو.

تحيز الآلة

ما الخطأ الذي قالته جيبرو وزملاؤها بالضبط في النماذج اللغوية الكبيرة؟ أن بالتدريب على مجموعة ضخمة من النصوص الموجودة، تميل الأنظمة إلى التحيز للكثير من التحيز البشري الحالي، لا سيما حول الجنس والعرق. علاوة على ذلك ، قال المؤلفون المشاركون في الورقة إن النماذج كبيرة جدًا وتستوعب الكثير من البيانات ، ومن الصعب للغاية تدقيقها واختبارها ، لذا قد لا يتم اكتشاف بعض هذا التحيز.

أشارت الورقة أيضًا إلى التأثير البيئي الضار، من حيث البصمة الكربونية، الذي يمكن أن يحدثه تدريب وتشغيل مثل هذه النماذج اللغوية الكبيرة على الخوادم المتعطشة للكهرباء. وأشارت إلى أن نموذج BERT ، لغة جوجل الخاصة ، أنتج ، وفقًا لأحد التقديرات ، حوالي 1438 رطلاً من ثاني أكسيد الكربون، أو ما يقرب من كمية رحلة الذهاب والإياب من نيويورك إلى سان فرانسيسكو.

انتقادات كثيرة

نظر البحث أيضًا في حقيقة أن الأموال والجهد المبذول في بناء نماذج لغوية أكبر من أي وقت مضى، يسلب جهود بناء أنظمة قد "تفهم" اللغة فعليًا وتتعلم بشكل أكثر كفاءة ، بالطريقة التي يتعامل بها البشر.

تم تقديم العديد من الانتقادات للنماذج اللغوية الكبيرة في الورقة مسبقًا. نشر معهد ألين للذكاء الاصطناعي ورقة تبحث في اللغة العنصرية والمتحيزة التي أنتجها GPT-2 ، النظام السابق لـ GPT-3.

في الواقع ، فإن الورقة البحثية من OpenAI نفسها عن GPT-3 ، والتي فازت بجائزة "أفضل ورقة" في مؤتمر أنظمة معالجة المعلومات العصبية (NeurIPS) لهذا العام ، وهو واحد من مؤتمرات الذكاء الاصطناعي المرموقة في مجال الأبحاث ، احتوت على قسم خاص باللحوم يوجز بعض المشاكل المحتملة مع التحيز والضرر البيئي التي أبرزتها جيبرو وزملاؤها.

تلطيف الأخطاء

يمكن القول إن شركة OpenAI لديها نفس القدر - إن لم يكن أكثر - من الحوافز المالية لتلطيف أي أخطاء في GPT-3. بعد كل شيء ، GPT-3 هو حرفيًا المنتج التجاري الوحيد لشركة OpenAI في الوقت الحالي. كانت جوجل تجني مئات المليارات من الدولارات بشكل جيد قبل ظهور BERT.

ولكن مرة أخرى ، لا تزال OpenAI تعمل مثل شركة تقنية ناشئة أكثر من كونها شركة عملاقة اعتمدت عليها جوجل . قد يكون الأمر ببساطة أن الشركات الكبيرة ، بحكم طبيعتها ، لديها حساسية تجاه دفع رواتب كبيرة للناس لانتقاد التكنولوجيا الخاصة بهم علنًا، وربما تعرض فرص السوق التي تقدر بمليارات الدولارات للخطر.

تاريخ الإضافة: 2020-12-10 تعليق: 0 عدد المشاهدات :848
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات