تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



تطبيق ChatGPT لا يفقه أي شيء ولكنه بارع التوقع


القاهرة : الأمير كمال فرج.

يبدو أن نماذج اللغات الكبيرة مثل روبوتات الدردشة المدعومة بالذكاء الاصطناعي موجودة في كل مكان. إذا كنت تفهمها بشكل أفضل ، يمكنك استخدامها بشكل أفضل. تعمل اللغات الكبيرة  LLMs الأخرى - وأين يمكن أن تذهب بعد ذلك؟.

ذكر ديفيد نيلد في تقرير نشرته مجلة WIRED أن "من المؤكد أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT و Google Bard تمر بلحظة فارقة، حيث يعد الجيل التالي من أدوات برامج المحادثة بفعل كل شيء بدءًا من تولي عمليات البحث على الويب الخاصة بنا إلى إنتاج إمدادات لا حصر لها من المؤلفات الإبداعية وحتى تذكر كل معارف العالم".

تعد ChatGPT و Google Bard والروبوتات الأخرى مثلهم أمثلة لنماذج اللغات الكبيرة أو LLMs ، ومن المفيد البحث في كيفية عملها. هذا يعني أنك ستكون قادرًا على الاستفادة منها بشكل أفضل ، ولديك تقدير أفضل لما يجيدونه (ومتى لا ينبغي الوثوق بهم حقًا).

مثل الكثير من أنظمة الذكاء الاصطناعي - مثل تلك المصممة للتعرف على صوتك أو إنشاء صور قطط - يتم تدريب اللغات الكبيرة LLM على كميات هائلة من البيانات. كانت الشركات التي تقف وراء اللغات الكبيرة حذرة إلى حد ما عندما يتعلق الأمر بالكشف عن مصدر تلك البيانات بالضبط، ولكن هناك أدلة معينة يمكننا النظر إليها.

على سبيل المثال، تشير الورقة البحثية التي تقدم نموذج LaMDA (نموذج اللغة لتطبيقات الحوار) ، الذي بني عليه تطبيق Bard ، إلى Wikipedia و "المنتديات العامة" و "مستندات الشفرة من المواقع ذات الصلة بالبرمجة مثل مواقع الأسئلة والأجوبة والبرامج التعليمية وما إلى ذلك".

وفي الوقت نفسه، يريد Reddit المجتمع الإخباري على الإنترنت البدء في فرض رسوم للوصول إلى 18 عامًا من المحادثات النصية، وأعلن موقع StackOverflow للتو عن خطط لبدء الشحن أيضًا. المعنى الضمني هنا هو أن اللغات الكبيرة LLM كانت تستخدم على نطاق واسع كلا الموقعين حتى هذه النقطة كمصادر ، بحرية تمامًا ودون معرفة الأشخاص الذين قاموا ببناء واستخدام هذه المصادر. من الواضح أن الكثير مما هو متاح للجمهور على الويب قد تم فحصه وتحليله بواسطة اللغات الكبيرة LLM.

تتم معالجة كل هذه البيانات النصية، أينما جاءت، من خلال شبكة عصبية، وهي نوع شائع الاستخدام من محركات الذكاء الاصطناعي المكونة من عدة طبقات ومراحل. تعمل هذه الشبكات باستمرار على تعديل الطريقة التي تفسر بها البيانات وتقيمها بناءً على مجموعة من العوامل، بما في ذلك نتائج التجربة والخطأ السابقين.

تستخدم معظم اللغات الكبيرة LLM بنية شبكة عصبية محددة تسمى "المحول"، والتي تحتوي على بعض الحيل المناسبة بشكل خاص لمعالجة اللغة. (يشير مصطلح GPT بعد Chat إلى المحولات التوليدية المحددة مسبقًا.)

على وجه التحديد، يمكن للمحول قراءة كميات هائلة من النص، وتحديد الأنماط في كيفية ارتباط الكلمات والعبارات ببعضها البعض، ثم إجراء تنبؤات حول الكلمات التي يجب أن تأتي بعد ذلك. ربما سمعت أن اللغات الكبيرة LLMs تمت مقارنتها بمحركات التصحيح التلقائي المتقدمة، وهذا في الواقع ليس بعيدًا عن الواقع: لا يعرف ChatGPT و Bard أي شيء حقًا، لكنهما جيدان جدًا في معرفة الكلمة التي تلي أخرى، والتي تبدو وكأنها فكر وإبداع حقيقي عندما تصل إلى مرحلة متقدمة بما فيه الكفاية.

إحدى الابتكارات الرئيسية لهذه المحولات هي آلية الانتباه الذاتي. من الصعب شرح ذلك في فقرة، ولكنه يعني في جوهره أن الكلمات في الجملة لا يتم اعتبارها منعزلة، ولكن أيضًا فيما يتعلق ببعضها البعض بطرق متنوعة ومتطورة. إنه يسمح بمستوى أكبر من التوقع مما يمكن أن يكون ممكنًا.

هناك بعض العشوائية والاختلافات المضمنة في الكود ، وهذا هو السبب في أنك لن تحصل على نفس الاستجابة من روبوت محوّل في كل مرة. تشرح فكرة التصحيح التلقائي هذه أيضًا كيف يمكن أن تتسلل الأخطاء. على المستوى الأساسي، لا يعرف كل من ChatGPT و Google Bard ما هو دقيق وما هو غير دقيق. إنهم يبحثون عن ردود تبدو معقولة وطبيعية، وتتوافق مع البيانات التي تم تدريبهم عليها.

لذلك، على سبيل المثال، قد لا يختار الروبوت دائمًا الكلمة الأكثر احتمالًا التي تأتي بعد ذلك، ولكن الكلمة الثانية أو الثالثة على الأرجح. ليدفع الإجابة بعيدًا جدًا، ومع ذلك، ستتوقف الجمل عن المعنى، وهذا هو السبب في أن اللغات الكبيرة LLM في حالة ثابتة من التحليل الذاتي والتصحيح الذاتي. يعود جزء من الرد بالطبع إلى المدخلات، ولهذا السبب يمكنك أن تطلب من روبوتات المحادثة هذه تبسيط ردودهم أو جعلها أكثر تعقيدًا.

قد تلاحظ أيضًا أن النص الذي تم إنشاؤه يكون عامًا أو مبتذلاً - ربما يكون متوقعًا من روبوت محادثة يحاول تجميع استجابات من مستودعات ضخمة للنص الموجود. في بعض النواحي، تقوم هذه الروبوتات بإخراج الجمل بنفس الطريقة التي يحاول بها جدول البيانات العثور على متوسط مجموعة من الأرقام، مما يترك لك مخرجات غير ملحوظة تمامًا وفي منتصف الطريق. أطلب على ChatGPT التحدث مثل رعاة البقر، على سبيل المثال، سيقدم لك معلومات مجازية وغير دقيقة عن رعاة البقر.

يشارك البشر في كل هذا أيضًا (لذا فنحن لسنا زائدين عن الحاجة تمامًا، حتى الآن): يساعد المشرفون المدربون والمستخدمون النهائيون على حد سواء في تدريب اللغات الكبيرة LLM من خلال الإشارة إلى الأخطاء وترتيب الإجابات بناءً على مدى جودتها وإعطاء الذكاء الاصطناعي الجودة العالية التي تهدف إليها.

من الناحية الفنية، يُعرف ذلك باسم "التعلم المعزز من ردود الفعل البشرية" (RLHF). ثم تقوم اللغات الكبيرة LLMs بتحسين شبكاتها العصبية الداخلية بشكل أكبر للحصول على نتائج أفضل في المرة القادمة. (لا تزال هذه المرحلة مبكرة نسبيًا لتكنولوجيا في هذا المستوى، لكننا رأينا بالفعل العديد من الدلالات على الترقيات والتحسينات من المطورين.)

مع زيادة حجم اللغات الكبيرة LLMs وزيادة تعقيدها، ستتحسن قدراتها. نحن نعلم أن ChatGPT-4 يحتوي في المنطقة على 100 تريليون معلمة، ارتفاعًا من 175 مليونًا في ChatGPT 3.5 - و"المعلمة" هي علاقة رياضية تربط الكلمات من خلال الأرقام والخوارزميات. وهذه قفزة كبيرة من حيث فهم العلاقات بين الكلمات، ومعرفة كيفية تجميعها معًا لإنشاء إجابة.

من طريقة عمل اللغات الكبيرة LLM، من الواضح أنهم ممتازة في محاكاة النص الذي تم تدريبها عليه، وإنتاج نص يبدو طبيعيًا ومستنيرًا، وإن كان لطيفًا بعض الشيء. من خلال طريقة "التصحيح التلقائي المتقدمة، ستحصل على الحقائق بشكل صحيح في معظم الأوقات.

تاريخ الإضافة: 2023-05-01 تعليق: 0 عدد المشاهدات :1514
1      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات