جدول المحتويات
اكتشف بعض المستخدمين سلوكًا غريبًا في وضع “المتقدم” الجديد لتطبيق ترجمة جوجل. بدلاً من أداء وظيفته الأساسية في ترجمة النصوص، يتم دفعه أحيانًا للرد كـ روبوت محادثة عندما تكون التعليمات مخفية داخل المدخلات. يُعتقد أن هذه المشكلة ناتجة عن تكامل Gemini، الذي يقرأ المدخلات المخفية من النص ويبدأ في التصرف كروبوت محادثة.
تحويل المستخدمين لترجمة جوجل إلى روبوت محادثة مدعوم بالذكاء الاصطناعي
في نوفمبر من العام الماضي، أطلقت جوجل وضع “المتقدم” الجديد في تطبيق ترجمة جوجل. يتضمن هذا الوضع نموذج ذكاء اصطناعي كجزء من خطة إطلاق Gemini الأوسع. يعتمد هذا الوضع على نموذج لغوي كبير، مصمم لفهم اللهجات والتعابير الاصطلاحية والسياق المحادثاتي عبر لغات مختارة. ومع ذلك، اكتشف بعض المستخدمين مؤخرًا أن النظام يتبع الأوامر أحيانًا بدلاً من الترجمة، مما يعد مثالًا كلاسيكيًا على حقن التعليمات.
اختبار نُشر على LessWrong أظهر أن التطبيق يعمل بنظام يتبع التعليمات تحت السطح. عند الاستفسار المباشر، يُعرّف وضع ترجمة جوجل الجديد نفسه كنموذج لغوي كبير تم تدريبه بواسطة جوجل ويبدأ في التصرف كروبوت محادثة. تظهر لقطات الشاشة التي تم مشاركتها على Reddit وTumblr كيف دفع المستخدمون التطبيق إلى أنواع مختلفة من المحادثات. على الرغم من أن هذه الحادثة ليست مفاجئة، إلا أنها توضح كيف يمكن تعديل أدوات الذكاء الاصطناعي الحديثة بسهولة.

الوضع الكلاسيكي يبقى دون تغيير
لم تُعلق جوجل بعد على هذه المشكلة. يُقال إن مشكلة حقن التعليمات خارج نطاق مكافآت الأخطاء في الذكاء الاصطناعي. يدعم الوضع المتقدم حاليًا اللغة الإنجليزية وحوالي عشرين لغة أخرى، بما في ذلك اليابانية والصينية، عبر منصات الهواتف المحمولة والويب. يمكن للمستخدمين الذين حولوا المترجم عن قصد أو دون قصد إلى روبوت محادثة العودة إلى الوضع الكلاسيكي وإعادة تفعيل الوضع المتقدم لاستعادة وظيفته الأصلية. قد تقوم جوجل بإصلاح هذه المشكلة في الأسابيع المقبلة.
رأي بوابة الذكاء الاصطناعي
تظهر هذه الحادثة كيف يمكن لتقنيات الذكاء الاصطناعي أن تتفاعل بطرق غير متوقعة، مما يبرز أهمية مراقبة سلوكيات التطبيقات الحديثة. إن قدرة المستخدمين على دفع التطبيقات لتجاوز وظائفها الأساسية تفتح بابًا للنقاش حول كيفية تحسين هذه الأنظمة. هل تعتقد أن جوجل ستتمكن من معالجة هذه المشكلة بشكل فعال؟
المصدر: الرابط الأصلي