تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



مكافآت خاصة للهاكرز


القاهرة : الأمير كمال فرج.

لسنوات ، استضافت الشركات برامج مكافآت الأخطاء لإغراء المتسللين ذوي النوايا الحسنة لاكتشاف العيوب في البرامج حتى يتمكنوا من تصحيحها. البرامج - عادة ما يحصل المشاركون على المال من أجل الإبلاغ عن ثغرات الأوراق المالية - هي اعتراف من الشركات بأنهم لا يستطيعون العثور على كل ثغرة أمنية بمفردهم.

كتب جوناثان فانيان في تقرير نشرته مجلة Fortune أن "شركات التكنولوجيا مثل Microsoft و Nvidia و Twitter تنظم الآن برامج مكافأة الأخطاء خصيصًا للذكاء الاصطناعي. الهدف هو أن يكتشف الغرباء العيوب في الذكاء الاصطناعي، حتى تتمكن الشركات من تحسين التكنولوجيا وتقليل مخاطر تمييز التعلم الآلي ضد مجموعات معينة من الأشخاص".

مكافأة المتسللين

على سبيل المثال ، في الأسبوع الماضي ، قامت Microsoft و Nvidia بالإعلان عن برنامج مكافأة الأخطاء الجديد خلال مؤتمر Defcon السنوي للقراصنة. تخطط الشركات لمكافأة المتسللين الذين ينجحون في تعديل فيروسات الكمبيوتر بحيث لا يتم اكتشافهم من قبل بعض خدمات Microsoft للكشف عن البرامج الضارة التي تعمل بالذكاء الاصطناعي.

سيكسب أيضًا المتسللون الذين يمكنهم إنشاء رسائل بريد إلكتروني مخادعة تتهرب من برنامج اكتشاف التصيد عبر البريد الإلكتروني الذي يعتمد على التعلم الآلي من Microsoft بعض الأموال على شكل بطاقات هدايا Microsoft وجوائز أخرى.

وفي الوقت نفسه، عرض موقع Twitter مكافأة خطأ تهدف إلى اكتشاف التحيز في الذكاء الاصطناعي الخاص به. يأتي البرنامج بعد أن اكتشف المستخدمون أن أداة قص الصور في تويتر تزيل النساء والأشخاص الملونين بشكل غير متناسب من الصور بحيث تظهر الصور الرجال البيض في الوسط.

تمت دعوة الهاكرز للتفتيش واكتشاف العيوب في خوارزمية التعلم الآلي التي تم تعطيلها حاليًا والتي تعمل على تشغيل أداة اقتصاص الصور على تويتر.

مشاكل التحيز

اكتشف الباحثون مشاكل تحيز أخرى باستخدام نفس الخوارزمية المستخدمة في أداة اقتصاص الصور. اكتشف أحدهم أنه يميل إلى اقتصاص كبار السن من الصور. ووجدت دراسة أخرى أن الخوارزمية تزيل الأشخاص الذين يرتدون أغطية الرأس ، مما يظهر تحيزًا ضد أولئك الذين يرتدون العمائم ، والياماكا ، والحجاب.

استخدم الفائز بالمركز الأول في Twitter bug bounty الذكاء الاصطناعي. لتعديل صور وجوه الأشخاص لتكون أكثر جاذبية للخوارزمية. من خلال هذه العملية ، اكتشف الباحث أن الخوارزمية تفضل الوجوه الرفيعة والشابة والبيضاء - وكلها مؤشرات على أن التكنولوجيا تم تدريبها على مجموعات البيانات في الغالب لأشخاص يتوافقون مع أعراف الجمال الحالية.

ليس من الواضح ما الذي سيفعله تويتر بالنتائج ، لكن المديرين التنفيذيين أشاروا إلى أنه سيتم استخدامها لتحسين تكنولوجيا الشركة.

أكد عالم البيانات باتريك هول الحاجة إلى مزيد من التدقيق في الذكاء الاصطناعي للشركات. وأعرب عن دهشته من عدم اعتماد برامج مكافآت الأخطاء المصممة بواسطة الذكاء الاصطناعي على نطاق واسع نظرًا للعيوب العديدة في التكنولوجيا.

يقول باتريك "فقط لأنك لم تجد أخطاء في الذكاء الاصطناعي في مؤسستك وعروض التعلم الآلي ، بالتأكيد لا يعني أنه ليس لديهك أخطاء ، هذا يعني فقط أن شخصًا لا تعرفه قد يستغل الأنظمة، وأعتقد أننا جميعا مسؤولون عن ذلك، يجرب أن تظل برامج مكافآت الأخطاء لفترة طويلة ".


معضلة تعلم الآلة في Apple

قالت شركة آبل إنها ستستخدم تقنية التعلم الآلي على أجهزة iPhone الخاصة بالأشخاص "لاكتشاف الصور المعروفة للاعتداء الجنسي على الأطفال دون فك تشفير رسائل الأشخاص" ، حسبما ذكرت وكالة أسوشيتد برس.

أعرب المدافعون عن الخصوصية عن قلقهم من أن هذه الخطوة قد تفتح الباب أمام الحكومات الاستبدادية لمراقبة المواطنين ، وهي فكرة تعارضها شركة Apple. من المقال: كانت شركة Apple واحدة من أولى الشركات الكبرى التي تبنت التشفير "من طرف إلى طرف" ، حيث يتم خلط الرسائل بحيث لا يتمكن سوى المرسلين والمستلمين من قراءتها. ومع ذلك ، فقد ضغط تطبيق القانون منذ فترة طويلة للوصول إلى تلك المعلومات من أجل التحقيق في جرائم مثل الإرهاب أو الاستغلال الجنسي للأطفال

فشل في الجائحة

الذكاء الاصطناعي كان عديم الفائدة نسبيًا خلال جائحة COVID-19. على الرغم من الآمال الكبيرة في أنه كان من الممكن أن يكون مفيدًا لمهنيي الرعاية الصحية المرهقين على الخطوط الأمامية لوباء COVID-19.

تظهر العديد من الدراسات الحديثة أن الأدوات التي تعتمد على الذكاء الاصطناعي المطوّر حديثًا لم تحدث "فرقًا حقيقيًا، وبعضها قد يكون ضارًا" ، وفقًا لتقرير صادر عن MIT Technology Review. قام فريق من الباحثين ، على سبيل المثال ، بفحص "415 أداة منشورة" واكتشف "أن أيا منها لا يصلح للاستخدام السريري".

أحد المذنبين الرئيسيين في فشل الذكاء الاصطناعي في الرعاية الصحية هو أن التقنيين الذين قاموا بإنشاء الأدوات لديهم "افتراضات غير صحيحة" حول البيانات المستخدمة لتدريب أنظمة التعلم الآلي.

في واحدة من أفظع حالات الفشل ، اكتشف الباحثون أن بعض أنظمة التعلم الآلي كانت "تلتقط خط النص الذي استخدمته بعض المستشفيات لتسمية عمليات الفحص، ونتيجة لذلك ، أصبحت خطوط المستشفيات ذات الأعباء الأكثر خطورة تنبئ بمخاطر COVID ".

تحليل الطقس

 أفادت صحيفة وول ستريت جورنال أن العديد من الشركات الناشئة تحاول استخدام التعلم الآلي لتحليل بيانات الطقس حتى تتمكن الشركات من فهم المخاطر المحتملة على أعمالها. تستخدم بعض هذه الشركات الناشئة شبكات عصبية ، وهي برامج مصممة لتقليد طريقة تعلم الدماغ البشري بشكل غير محكم ، لكن المقالة أشارت إلى وجود بعض العيوب في الذكاء الاصطناعي المتعطش للبيانات التقنية.

من المقال: تحتاج الشركات إلى بيانات كافية لتدريب نماذجها ولا توجد دائمًا هذه البيانات . أحد الأمثلة على ذلك هو البرد ، حيث تجعل الملاحظات المحدودة من الصعب تدريب نماذج الذكاء الاصطناعي ، كما قال السيد جوبتا من ClimateAi.

تكاليف عالية

 من المتوقع أن ينمو الإنفاق العالمي على تقنيات الذكاء الاصطناعي بنسبة 15.2٪ على أساس سنوي ليصل إلى 341.8 مليار دولار لعام 2021 ، وفقًا لتقرير جديد صادر عن شركة أبحاث السوق International Data Corporation.

يلقي التقرير نظرة واسعة على سوق الذكاء الاصطناعي ، حيث يجمع كل شيء من خوادم معينة تبيعها شركات مثل Dell و Hewlett Packard Enterprise إلى الإنفاق على برامج المؤسسات مثل Slack و McAfee كمدخلات تُعلم الذكاء الاصطناعي العام.

من التقرير: أجهزة الذكاء الاصطناعي هي أصغر فئة بحصة 5 ٪ من سوق الذكاء الاصطناعي الكلي. ومع ذلك ، فمن المتوقع أن ينمو بأسرع ما يمكن في عام 2021 بنسبة 29.6٪ على أساس سنوي.


المعضلات الأخلاقية

 نشر باحثون من جامعة برينستون ورقة بحثية غير خاضعة لمراجعة الأقران تبحث في بعض المعضلات الأخلاقية المرتبطة بتطوير الذكاء الاصطناعي. الأنظمة التي تم إنشاؤها باستخدام مجموعات بيانات بها مشكلات ، مثل تلك التي تحتوي على صور لأشخاص لم يوافقوا مطلقًا على أن يكونوا جزءًا من مجموعة البيانات.

قام الباحثون بتحليل 1000 ورقة أكاديمية، ووجدوا أنه على الرغم من سحب بعض مجموعات البيانات الإشكالية ، استمر العديد من الباحثين في تطوير أنظمة الذكاء الاصطناعي مع مجموعات البيانات أو مشتقاتها.

يعتقد الباحثون أن مبتكري مجموعات البيانات الضخمة استخدموا الأنظمة لتدريب الذكاء الاصطناعي. يجب أن تشرف الأنظمة باستمرار على مجموعة بيانات ، وأن تدرس بنشاط كيفية إساءة استخدامها ، وتقوم بإجراء تحديثات للترخيص أو التوثيق أو قيود الوصول حسب الضرورة.

معلومة مثيرة للاهتمام من الورقة البحثية: اكتشف باحثو جامعة برينستون أن الباحثين الآخرين مرتبكون بشأن التداعيات القانونية المحتملة لتطوير أنظمة الذكاء الاصطناعي التي تعتمد على مجموعات البيانات غير التجارية.

من الورقة البحثية: من هذه المنشورات ، وجدنا أدلة غير مؤكدة على تجاهل تراخيص مجموعة البيانات غير التجارية في بعض الأحيان في الممارسة العملية.

تقول إحدى الردود: "يعمل كل شخص أكثر أو أقل (أفراد ، شركات ، إلخ) على افتراض أن التراخيص الخاصة باستخدام البيانات لا تنطبق على النماذج المدربة على تلك البيانات ، لأنه سيكون غير مريح للغاية إذا فعلوا ذلك."

ورد في رد آخر ما يلي: "لا أعرف مدى قانونية ذلك حقًا، لكنني متأكد تمامًا من أن الكثير من الأشخاص يطورون خوارزميات تستند إلى تدريب مسبق على ImageNet ويطلقون / يبيعون النماذج دون الاهتمام بالمسائل القانونية. ليس من السهل إثبات أن نموذج الإنتاج قد تم اختباره مسبقًا على ImageNet ... "

 

التحدى الاقتصادي

ما نجح مع Google و Facebook لن يعمل لصالح شركتك. كتب أندرو نج ، رائد التعلم العميق ، مقال رأي لمجلة هارفارد بيزنس ريفيو يناقش فيه بعض الأسباب التي تجعل الشركات غير التكنولوجية تعاني مع الذكاء الاصطناعي. مقارنة بشركات الإنترنت الاستهلاكية مثل Google (عمل نج من قبل في شركة البحث العملاقة جوجل وفيسبوك).

كتب نج "لن تعمل "قواعد لعبة" الذكاء الاصطناعي المستخدمة لعمالقة الإنترنت في الصناعات الأخرى لأسباب متعددة. أولاً ، يفتقر العمالقة غير التقنيين إلى وفرة من البيانات الجيدة التي يمكن استخدامها لتدريب أنظمة الذكاء الاصطناعي.

بالإضافة إلى ذلك ، يمكن لعمالقة التكنولوجيا توظيف ذكاء اصطناعي ضخم. فرقًا للمساعدة في إدارة أعمالهم الإعلانية المربحة ماليًا عبر الإنترنت. ولكن لن تكون كل الأعمال التجارية المدعومة بالذكاء الاصطناعي مربحة مثل الأعمال الإعلانية عبر الإنترنت.

بدلاً من ذلك، تمتلك العديد من الشركات شركات فردية يمكنها الاستفادة من الذكاء الاصطناعي ، ولكن من غير المرجح أن تؤدي إلى أرباح هائلة، مما يشكل تحديًا للشركات التي تسعى إلى تحقيق عائد هائل على الاستثمار.

وكتب نج، "القيمة الإجمالية لمئات الآلاف من هذه المشاريع ضخمة ؛ لكن اقتصاديات المشروع الفردي قد لا تدعم تعيين فريق ذكاء اصطناعي كبير ومخصص لبنائه وصيانته ".

واحد من نصائح نج للشركات حول الذكاء الاصطناعي: "بدلاً من مجرد التركيز على كمية البيانات التي تجمعها، ضع في اعتبارك أيضًا الجودة ، وتأكد من أنها توضح المفاهيم التي نحتاج إلى الذكاء الاصطناعي لتعلمها".

تاريخ الإضافة: 2021-08-11 تعليق: 0 عدد المشاهدات :1339
1      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات