تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



مخاطر بقاء ChatGPT في العمل السري


القاهرة: الأمير كمال فرج.

جعل الاستثمار المتزايد من شركات التكنولوجيا الكبرى في الذكاء الاصطناعي والروبوتات الدردشة - وسط عمليات تسريح جماعية وانحدار النمو - العديد من مسؤولي أمن المعلومات الرئيسيين في دوامة.

ذكرت ميكايلا كوهين في تقرير نشرته شبكة CNBC "مع ChatGPT من OpenAI، وBing AI من Microsoft، وBard من Google وخطة إيلون ماسك لإطلاق روبوت الدردشة الخاص به والتي تصدرت عناوين الأخبار، يتسرب الذكاء الاصطناعي التوليدي إلى مكان العمل، ويحتاج كبار مسؤولي أمن المعلومات إلى التعامل مع هذه التكنولوجيا بحذر والاستعداد بتدابير الأمان اللازمة".

تعمل التكنولوجيا وراء GPT، أو المحولات التوليدية المدربة مسبقًا ، بنماذج لغوية كبيرة (LLMs)، أو خوارزميات تنتج محادثات تشبه محادثات الإنسان في روبوت الدردشة. ولكن ليس كل شركة لديها GPT خاص بها، لذلك تحتاج الشركات إلى مراقبة كيفية استخدام العمال لهذه التكنولوجيا.

يقول مايكل تشوي، الشريك في معهد McKinsey العالمي، إن الناس سوف يستخدمون الذكاء الاصطناعي التوليدي إذا وجدوا أنه مفيد للقيام بعملهم، مقارنًا إياه بالطريقة التي يستخدم بها العمال أجهزة الكمبيوتر الشخصية أو الهواتف.

وقال تشوي: "حتى عندما لا يتم اعتماده أو مباركته من قبل تكنولوجيا المعلومات، يجد الناس روبوتات الدردشة مفيدة"، وأضاف "على مر التاريخ، وجدنا تقنيات مقنعة للغاية لدرجة أن الأفراد على استعداد لدفع ثمنها". "كان الناس يشترون الهواتف المحمولة قبل فترة طويلة من قول الشركات،" سأزودك بهذا ". نفس الأمر بالنسبة لأجهزة الكمبيوتر الشخصية، لذلك نرى ما يعادلها الآن مع الذكاء الاصطناعي التوليدي، ونتيجة لذلك، برزت هواجس شركات من حيث كيفية تعاملها مع تدابير الأمن".

سواء كانت ممارسة تجارية قياسية مثل مراقبة المعلومات التي تتم مشاركتها على منصة الذكاء الاصطناعي أو دمج GPT المعتمدة من الشركة في مكان العمل، يعتقد الخبراء أن هناك مجالات معينة حيث يجب على مسؤولي أمن المعلومات والشركات البدء.

أساسيات أمن المعلومات

يتعامل رؤساء أمن المعلومات - الذين يكافحون بالفعل الإرهاق والتوتر - مع مشاكل كافية، مثل هجمات الأمن السيبراني المحتملة واحتياجات الأتمتة المتزايدة. مع انتقال الذكاء الاصطناعي وGPT إلى مكان العمل، يمكن لرؤساء أمن المعلومات البدء بأساسيات الأمن.

قال تشوي إن الشركات يمكنها اعتماد استخدام منصة الذكاء الاصطناعي الحالية، حتى تتمكن من مراقبة ما يقوله الموظفون لبرنامج الدردشة الآلي، والتأكد من حماية المعلومات المشتركة.

وأضاف "إذا كنت شركة، فأنت لا تريد أن يقوم موظفوك بإمداد برنامج دردشة آلي متاح للجمهور بمعلومات سرية". "لذا، يمكنك وضع الوسائل التقنية في مكانها، حيث يمكنك ترخيص البرنامج والحصول على اتفاقية قانونية قابلة للتنفيذ حول مكان أو عدم ذهاب بياناتك".

أوضح تشوي إن "ترخيص استخدام البرنامج يأتي مع ضوابط وتوازنات إضافية منها حماية المعلومات السرية، وتنظيم مكان تخزين المعلومات، والمبادئ التوجيهية لكيفية استخدام الموظفين للبرنامج - كلها إجراءات قياسية عندما تقوم الشركات بترخيص البرنامج، سواء كان ذكاء اصطناعيًا أم لا؟، فإذا كان لديك اتفاق، يمكنك تدقيق البرنامج، حتى تتمكن من معرفة ما إذا كانوا يحمون البيانات بالطرق التي تريد حمايتها بها".

أبان إن معظم الشركات التي تخزن المعلومات باستخدام برامج قائمة على السحابة تفعل ذلك بالفعل، لذا فإن المضي قدمًا وتقديم منصة ذكاء اصطناعي معتمدة من الشركة للموظفين يعني أن الشركة تتوافق بالفعل مع ممارسات الصناعة الحالية.

كيفية إنشاء أو دمج GPT مخصص؟

يقول سامير بيناكالاباتي، الرئيس التنفيذي لشركة Ceipal، وهي منصة اكتساب المواهب التي تعمل بالذكاء الاصطناعي، إن أحد خيارات الأمان للشركات هو تطوير GPT الخاص بها، أو توظيف الشركات التي تنشئ هذه التكنولوجيا لإنشاء نسخة مخصصة.

في وظائف محددة مثل الموارد البشرية، توجد منصات متعددة من Ceipal إلى TalentGPT من Beamery، وقد تفكر الشركات في خطة Microsoft لتقديم GPT قابل للتخصيص. ولكن على الرغم من التكاليف المرتفعة بشكل متزايد، فقد ترغب الشركات أيضًا في إنشاء تقنيتها الخاصة.

وقال بيناكالاباتي "إذا أنشأت شركة GPT الخاصة بها، فسيكون لدى البرنامج المعلومات الدقيقة التي تريد أن يتمكن الموظفون من الوصول إليها، والشركة في هذه الحالة يمكنها أيضًا حماية المعلومات التي يغذيها الموظفون بها، ولكن حتى توظيف شركة ذكاء اصطناعي لتوليد هذه المنصة سيمكن الشركات من تغذية المعلومات وتخزينها بأمان"

قال بيناكالاباتي "وأيًا كان المسار الذي تختاره الشركة، فإن مسؤولي أمن المعلومات يجب أن يتذكروا أن هذه الآلات تعمل بناءً على كيفية تعليمها، لذلك من المهم أن تكون حريصين بشأن البيانات التي تقدمها الشركات للتكنولوجيا".

وأضاف "أقول دائمًا للناس أن يتأكدوا من أن لديكم تكنولوجيا توفر معلومات بناءً على بيانات غير متحيزة ودقيقة، لأن هذه التكنولوجيا لم يتم إنشاؤها بالصدفة".

تاريخ الإضافة: 2024-09-14 تعليق: 0 عدد المشاهدات :221
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات