جدول المحتويات
النقاط الرئيسية
- المشكلة: الذكاء الاصطناعي يعاني من "هلوسات" حيث يقدم معلومات خاطئة بشكل مقنع.
- البحث: OpenAI نشرت ورقة بحثية تتناول أسباب هذه الظاهرة.
- الحل المقترح: تعديل نظام تقييم نماذج الذكاء الاصطناعي ليعاقب على الإجابات الخاطئة ويكافئ على الاعتراف بعدم اليقين.
- التأثير المتوقع: تحسين موثوقية أدوات الذكاء الاصطناعي في الاستخدام اليومي.
التفاصيل
OpenAI، بالتعاون مع جامعة جورجيا التقنية، نشرت ورقة بحثية تتكون من 36 صفحة تناقش مشكلة "هلوسات" الذكاء الاصطناعي. تشير الدراسة إلى أن هذه الظاهرة لا تنجم عن تصميم النموذج نفسه، بل عن كيفية اختبار وتصنيف أنظمة الذكاء الاصطناعي. النماذج الحالية غالبًا ما تُكافأ على تقديم إجابات حتى لو كانت خاطئة، مما يشجعها على التخمين بدلاً من الاعتراف بعدم المعرفة.
تقترح الورقة البحثية تعديل نظام التقييم بحيث تُحتسب الإجابات الخاطئة بشكل كبير ضد النموذج، بينما يُكافأ على إظهار الحذر أو الاعتراف بعدم اليقين. في تجارب أولية، أظهر نموذج حذر دقة بنسبة 74% رغم أنه أجاب على نصف الأسئلة فقط، بينما نموذج آخر أجاب على معظم الأسئلة ولكنه كان خاطئًا في 75% من الحالات.
لماذا هذا الخبر مهم؟
إذا تم اعتماد هذا النهج، فقد يتغير سلوك المساعدين الذكيين بشكل كبير. بدلاً من تقديم معلومات خاطئة بثقة، سيكون من المرجح أن تقول الأنظمة "لا أعلم". هذا قد يبدو أقل إثارة للإعجاب، لكنه سيوفر على المستخدمين عناء التحقق المستمر من الإجابات. بالنسبة لـ OpenAI، يمثل هذا البحث خطوة نحو تطوير ذكاء اصطناعي يفضل الدقة والموثوقية على الثقة الزائفة.
خلفية سريعة
تاريخ الذكاء الاصطناعي مليء بالتحديات، حيث واجهت الأنظمة العديد من المشكلات المتعلقة بالدقة والموثوقية. تعتبر "هلوسات" الذكاء الاصطناعي واحدة من أبرز هذه المشكلات، مما دفع الشركات مثل OpenAI إلى البحث عن حلول مبتكرة لتحسين أداء نماذجها.
المصدر: الرابط الأصلي