OpenAI تجد حلًّا جديدًا لمحاربة «هلوسة» الذكاء الاصطناعى

الخميس، 01 يونيو 2023 09:00 م
OpenAI تجد حلًّا جديدًا لمحاربة «هلوسة» الذكاء الاصطناعى الذكاء الاصطناعى- أرشيفية
وكالات

مشاركة

اضف تعليقاً واقرأ تعليقات القراء
أعلنت شركة (أوبن أي آي) OpenAI يوم الأربعاء أنها ستتصدى «لهلوسة» الذكاء الاصطناعي وذلك باتباع أسلوب أحدث في تدريب نماذج اللغة الكبيرة، وفقاً لموقع aitnews.
 
وتأتي هذه الخطوة من الشركة الأمريكية الناشئة في وقت أصبحت فيه المعلومات المضللة النابعة من أنظمة الذكاء الاصطناعي محل نقاش على المستوى العالمي، وتزايدت فيه المخاوف من تأثيرها في الانتخابات الرئاسية الأمريكية المقررة عام 2024.
 
وأسهمت (أوبن أي آي) OpenAI في تسريع طفرة الذكاء الاصطناعي التوليدي العام الماضي عندما أطلقت روبوت الدردشة (شات جي بي تي) ChatGPT، ثم سرعان ما جذب الروبوت 100 مليون مستخدم شهريًا في شهرين ليصبح بذلك أسرع تطبيقات الويب نموًا على الإطلاق.
 
وتحدث هلوسة الذكاء الاصطناعي عندما تختلق روبوتات الدردشة، مثل: (شات جي بي تي) من (أوبن أي آي)، أو (بارد) من جوجل المعلومات بالكامل، وتتصرف كما لو كانت تنشر حقائق لا شك فيها.
 
وكتب باحثو (أوبن أي آي) OpenAI في تقرير لهم: «حتى النماذج الحديثة تميل إلى اختلاق الأكاذيب، فهي تُظهر ميلًا إلى اختراع الحقائق في لحظات عدم اليقين». وأضافوا: «تُعدّ هذه الهلوسات معضلةً بصورةٍ خاصةٍ في المجالات التي تتطلب تفكيرًا متعدد الخطوات، لأن خطأً منطقيًا واحدًا يكفي لعرقلة الوصول إلى الحل النهائي».
 
وتتمثل إستراتيجية (أوبن أي آي) OpenAI الجديدة المحتملة لمحاربة اختلاق الأكاذيب في تدريب نماذج الذكاء الاصطناعي على مكافأة نفسها على كل خطوة فردية صحيحة من التفكير المنطقي عندما تصل إلى الإجابة، وذلك بدلًا من مجرد مكافأتها على النتيجة النهائية الصحيحة.
 
ويُطلق على هذا النهج اسم «مراقبة العملية»، بدلًا من «مراقبة النتائج»، ويرى الباحثون أنه يمكن لهذا النهج أن يؤدي إلى ذكاء اصطناعي قابل للتفسير على نحو أفضل، ذلك أن الإستراتيجية تُشجِّع النماذج على اتباع نهج تكون فيه الأفكار متسلسلة على غرار أفكار البشر.
 
وقال (كارل كوبي)، باحث الرياضيات في (أوبن أي آي)، لشبكة (سي إن بي سي) CNBC الإخبارية الأمريكية: «إن اكتشاف الأخطاء المنطقية أو الهلوسة في النموذج والتخفيف من حدتها، هو خطوة حاسمة نحو بناء الذكاء الاصطناعي العام المتوافق».
 
ومع أن (أوبن أي آي) OpenAI لم تخترع عملية المراقبة هذه، أشار (كوبي) إلى أنها تساعد في دفعها إلى الأمام. وأضاف: «إن الدافع وراء هذا البحث هو معالجة الهلوسة من أجل جعل النماذج أقدر على حل مشكلات التفكير المنطقية».
 
يُشار إلى أن هذه الخطوة تأتي أيضًا بعد يوم واحد من انضمام كبار المسؤولين التنفيذيين في مجال الذكاء الاصطناعي، ومنهم: المدير التنفيذي لشركة (أوبن أي آي)، (سام ألتمان)، إلى الخبراء والأساتذة في إثارة «خطر الانقراض بسبب الذكاء الاصطناعي»، وحثّوا صانعي السياسة على مساواة مخاطر التقنية بالمخاطر التي تشكلها الأوبئة والحرب النووية. 
 






مشاركة






الرجوع الى أعلى الصفحة