جدول المحتويات
شهد الذكاء الاصطناعي تطورات هائلة في السنوات الأخيرة، إلا أن إحدى أكبر تحدياته المستمرة تتمثل في “الهلوسة” التي لا تزال تُثير القلق. تحدث هذه الهلوسات عندما تُنتج نماذج الذكاء الاصطناعي محتوى غير دقيق أو مضلل، مما يشكل مخاطر كبيرة على الأعمال والأفراد الذين يعتمدون على الذكاء الاصطناعي في صنع القرارات. استجابةً لذلك، أعلنت مايكروسوفت عن أداة متطورة جديدة تحمل اسم Correction (التصحيح) لتقليل هذه الهلوسات وتحسين موثوقية المحتوى الناتج عن الذكاء الاصطناعي. تم دمج هذه الأداة في واجهة برمجة تطبيقات أمان المحتوى التابعة لمايكروسوفت على منصة Azure AI Content Safety، وتهدف إلى تعزيز مصداقية مخرجات الذكاء الاصطناعي.
ومع تزايد اندماج تقنيات الذكاء الاصطناعي في حياتنا اليومية، يصبح التعامل مع مشكلة الهلوسات أمرًا حيويًا للحفاظ على ثقة الجمهور في هذه التقنيات. في حين أن أداة التصحيح من مايكروسوفت تمثل تقدمًا كبيرًا، يرى الخبراء أن مشكلة الهلوسات أكثر تعقيدًا مما تبدو عليه. تسعى هذه المقالة إلى استعراض مزايا الأداة الجديدة وآثارها، بالإضافة إلى آراء الخبراء حول هذه الابتكار الأخير من مايكروسوفت.
الميزات الرئيسية لأداة التصحيح من مايكروسوفت
إحدى أبرز ميزات أداة التصحيح من مايكروسوفت هي قدرتها على تحديد وتصحيح الهلوسات التي يتم إنتاجها باستخدام الذكاء الاصطناعي في الوقت الفعلي. تعتمد الأداة على عملية متقدمة من مرحلتين للكشف عن الأخطاء وتصحيحها باستخدام مصادر البيانات المعتمدة.
الكشف عن التأسيسية:
تعتمد الوظيفة الأساسية لأداة التصحيح على ميزة فريدة تُسمى Groundedness Detection (الكشف عن التأسيسية). حيث تعمل هذه الآلية على تحديد المحتوى غير المؤسس أو الهلوسات في النصوص التي تُنتَج بواسطة الذكاء الاصطناعي عبر مقارنة مخرجاته بالمصادر الموثوقة مثل المستندات أو النصوص المكتوبة. ومن خلال ضمان أن تتفق مخرجات الذكاء الاصطناعي مع البيانات الفعلية، تعمل الأداة على تقليل احتمالات نشر المعلومات المضللة.
آلية من مرحلتين:
تعمل الأداة عبر آلية مكونة من مرحلتين؛ حيث يُحدد النموذج التصنيفي في المرحلة الأولى أي محتوى قد يكون خاطئًا. وفي حال تم اكتشاف هلاوس، يُعيد النموذج اللغوي تنقيح النص المطروح مستخدمًا المستندات التأسيسية، مما يضمن دقة المخرجات التي يُنتجها الذكاء الاصطناعي. تهدف هذه الطريقة متعددة الطبقات إلى تحسين مصداقية المحتوى الذي يُنتجه الذكاء الاصطناعي بشكل كبير.
الاندماج المتعدد:
صُممت أداة التصحيح لتكون مرنة، حيث إنها متوافقة مع مجموعة متنوعة من نماذج الذكاء الاصطناعي، بما في ذلك “Llama” التابع لشركة ميتا و “GPT-4o” التابع لشركة OpenAI. هذا يجعلها حلاً جذابًا للمطورين الذين يعملون على منصات مختلفة، مما يُتيح لهم دمج الأداة بسهولة في سير عمل الذكاء الاصطناعي الخاص بهم.
على الرغم من أن أداة التصحيح من مايكروسوفت تقدم تحسينات كبيرة في التعامل مع الهلوسة، يجب التنويه إلى أنها لا تقدم حلاً كاملاً للمشكلة الأساسية. ويستمر الخبراء في مناقشة ما إذا كانت هذه الأداة قادرة على تقديم حل نهائي أم أنها مجرد مرحلة مؤقتة لحل مشكلة أعمق.
آراء الخبراء حول فعالية أداة التصحيح
رغم الوعد الذي تحمله أداة مايكروسوفت الجديدة، تبقى مسألة الهلوسة في الذكاء الاصطناعي موضوعًا مُثيرًا للنقاش بين الأكاديميين والمتخصصين في الصناعة. وبينما تعد أداة التصحيح خطوة كبيرة إلى الأمام، يحذر الخبراء من أن هذه الأداة قد لا تعالج الأسباب الجذرية للهلوسات في الأنظمة الذكية.
وجهة نظر أوس كايز:
أوس كايز، طالب دكتوراه في جامعة واشنطن، يشير إلى أن الهلوسات ليست مجرد مشكلة سطحية يمكن حلها بسهولة. ويشبه كايز المشكلة بمحاولة “إزالة الهيدروجين من الماء”، مما يعني أن الهلوسات تُعد جزءًا لا يتجزأ من نماذج الذكاء الاصطناعي التوليدية. وبرغم أن أداة التصحيح قد تقلل من تكرار حدوث الهلوسات، إلا أنها لا تعالج الآليات الأساسية التي تؤدي إلى هذه الأخطاء.
مخاوف مايك كوك:
من جهة أخرى، يرى مايك كوك من جامعة “كوين ماري” أن استخدام الأداة قد يؤدي إلى شعور زائف بالأمان. وحسب كوك، بينما قد تحسن الأداة من دقة المحتوى الذي يتم إنتاجه بالذكاء الاصطناعي إلى حد ما، قد يبالغ المستخدمون في تقدير موثوقية هذه المخرجات، متجاوزين المخاوف الأوسع المتعلقة بالثقة والشفافية في أنظمة الذكاء الاصطناعي. وقد يسفر هذا عن نتائج غير مقصودة، وخاصة في الصناعات الحساسة التي تعتمد بشكل كبير على الدقة.
مقارنة مايكروسوفت وغوغل في التعامل مع الهلوسات في الذكاء الاصطناعي
مايكروسوفت ليست الوحيدة التي تعالج مشكلة الهلوسات في الذكاء الاصطناعي. إذ أطلقت غوغل أيضًا ميزة ضمن منصتها “Vertex AI” تركز على تقليل الهلوسات، لكن يبدو أن الشركتين تتبعان طرقًا مختلفة لحل المشكلة.
أداة التصحيح من مايكروسوفت:
تعد أداة التصحيح من مايكروسوفت حلًا آليًا، حيث تحدد وتصحيح الهلوسات في الوقت الفعلي. وهي تعمل من خلال واجهة برمجة تطبيقات أمان المحتوى على منصة Azure، وتعتمد على مستندات تأسيسية لضمان دقة النص الناتج عن الذكاء الاصطناعي.
Vertex AI من غوغل:
بالمقابل، تتبع غوغل نهجًا أقل اعتمادًا على الأتمتة. فبدلاً من تصحيح المحتوى الذي يحتوي على هلاوس، تمنح المستخدمين القدرة على تأسيس نماذجهم عن طريق التحقق من صحة المحتويات باستخدام البحث على غوغل أو مجموعات البيانات الخاصة أو الأطراف الثالثة. يتيح هذا للمستخدمين التحكم في التأكد من دقة المحتوى الناتج عن الذكاء الاصطناعي، لكن يتوجب عليهم القيام بالتصحيح بأنفسهم.
الاختلافات الأساسية:
رغم أن كلا الأداتين تهدفان إلى تحسين موثوقية المحتوى الذي يُنتجه الذكاء الاصطناعي، إلا أن أداة مايكروسوفت تُقدم تصحيحات تلقائية، بينما تركز “Vertex AI” من غوغل بشكل أكبر على التحقق بدلًا من التصحيح. وتتمتع كلا النهجين بمزاياهما، لكن وفقًا للخبراء، لم يتمكن أي منهما بعد من حل المشكلة الأساسية للهلوسات بشكل كامل.
تُعد أداة التصحيح من مايكروسوفت تقدمًا ملحوظًا في معالجة أحد أبرز التحديات في مجال الذكاء الاصطناعي: الهلوسات. ومن خلال تقديم حل تلقائي يندمج بسلاسة مع مختلف نماذج الذكاء الاصطناعي، تعد الأداة بتعزيز دقة المحتوى الناتج، خاصة في السيناريوهات الحساسة التي تكون فيها صحة المعلومات أمرًا أساسيًا. ومع ذلك، وكما يشير خبراء مثل أوس كايز ومايك كوك، قد لا تعالج الأداة بشكل كامل الأسباب الجذرية للهلوسات، والتي تعد جزءًا راسخًا في بنية النماذج التوليدية للذكاء الاصطناعي.
ومع تطور تقنيات الذكاء الاصطناعي، من المتوقع أن يستمر النقاش حول مسألة الهلوسات. وعلى الرغم من أن مايكروسوفت وغوغل قد أحرزتا تقدمًا في هذا المجال، إلا أن الحل النهائي لم يتم العثور عليه بعد. وحتى ذلك الحين، يجب على المطورين والباحثين والمستخدمين أن يبقوا متيقظين، مع تفهم أن أدوات مثل التصحيح يمكنها تقليل مخاطر الهلوسات لكنها لا تستطيع القضاء عليها بالكامل.
في عالم يعتمد بشكل متزايد على المحتوى الذي يُنتجه الذكاء الاصطناعي، فإن ضمان دقة وموثوقية هذه المخرجات يعد أكثر أهميةً من أي وقت مضى. ولذلك، تُعد أداة التصحيح من مايكروسوفت خطوة مرحب بها في هذا الاتجاه، إلا أن الطريق نحو أنظمة ذكاء اصطناعي موثوقة تمامًا ما زال طويلًا.