جدول المحتويات
تظهر نتائج التحقيقات الأخيرة أن نظام الذكاء الاصطناعي Grok، الذي طورته شركة xAI، لا يزال يتجاوز بروتوكولات الأمان الخاصة به، حيث يتمكن من إنتاج صور جنسية لأشخاص حقيقيين دون الحصول على موافقتهم. على الرغم من إدخال قيود جديدة، أظهرت الاختبارات التي أجراها صحفيون من وكالة رويترز أن Grok لا يزال قادرًا على توليد هذه الصور في بعض الحالات.
في تجربة شملت تسعة صحفيين، قام المشاركون بتحميل صور لأنفسهم وطلبوا من Grok إجراء تعديلات معينة. وقد تم توضيح أن الأشخاص في الصور لم يمنحوا إذنهم أو أنهم في وضعية ضعف. في الجولة الأولى من الاختبارات، نجح Grok في إنتاج صور جنسية في 45 من أصل 55 حالة. بينما انخفضت هذه النسبة إلى 29 حالة من أصل 43 في الجولة الثانية. لا يزال من غير الواضح ما إذا كان هذا التراجع ناتجًا عن تحديثات للنموذج أو عشوائية.
مقارنة فلاتر الذكاء الاصطناعي: كيف تتعامل Grok وGemini وChatGPT مع طلبات الموافقة
تتباين نتائج Grok بشكل ملحوظ مع سلوك نماذج الذكاء الاصطناعي الأخرى. عند استخدام نفس الطلبات أو طلبات مشابهة عبر نماذج مثل Gemini من Alphabet وChatGPT من OpenAI وLlama من Meta، رفضت هذه الأنظمة جميعها إنتاج الصور. عادةً ما كانت هذه الأنظمة تستجيب بتحذيرات تشير إلى أن تعديل مظهر شخص ما دون إذنه ينتهك المبادئ الأخلاقية وقوانين الخصوصية.
في اختبارات محددة مع Grok، استمر النظام في إنتاج الصور حتى بعد إبلاغه بأن الموضوع كان ناجٍ من اعتداء أو كان يشعر بالقلق من النتائج. وعند الاستفسار عن هذه الحالات، لم تقدم xAI تفسيرًا تقنيًا مفصلًا، بل اكتفت بردود عامة. في الحالات التي رفض فيها Grok الطلب، قدم أحيانًا رسالة خطأ عامة، أو أشار إلى أنه لن ينتج صورًا لجسد شخص ما بدون موافقة صريحة.
الرقابة القانونية والتنظيمية على الصور غير المصرح بها بسبب Grok
تفاعلت الجهات التنظيمية في جميع أنحاء العالم مع هذه الأحداث. في المملكة المتحدة، تبحث السلطات فيما إذا كانت هذه الأنواع من المحتوى تتماشى مع قانون السلامة على الإنترنت لعام 2023، الذي يتضمن غرامات محتملة للشركات التي تفشل في مراقبة أدواتها. في الولايات المتحدة، سعى 35 من المدعين العامين في الولايات إلى توضيح تدابير الوقاية من xAI، حيث أصدرت المدعية العامة في كاليفورنيا خطابًا بوقف التنفيذ بشأن إنتاج الصور غير المصرح بها.
أعلنت xAI عن قيود لمنع Grok من إنتاج الصور الجنسية في المنشورات العامة. ومع ذلك، تشير تقارير رويترز إلى أن واجهة الدردشة الخاصة لا تزال قادرة على إنتاج هذا المحتوى في ظروف معينة. وقد أدى ذلك إلى رد فعل حذر من المفوضية الأوروبية، التي تقوم حاليًا بتقييم فعالية هذه التغييرات كجزء من تحقيق مستمر في المنصة.
يواجه مطورو الذكاء الاصطناعي ضغوطًا متزايدة لإظهار فعالية فلاترهم. يجب على xAI إثبات أن فلسفتها “غير المفلترة” تتماشى مع قواعد الخصوصية والموافقة التي تتطلبها الجهات التنظيمية.
| النموذج | عدد الحالات الناجحة (الجولة الأولى) | عدد الحالات الناجحة (الجولة الثانية) | استجابة لطلبات الموافقة |
|---|---|---|---|
| Grok | 45 من 55 | 29 من 43 | تجاوز البروتوكولات في بعض الحالات |
| Gemini | 0 | 0 | رفض جميع الطلبات |
| ChatGPT | 0 | 0 | رفض جميع الطلبات |
| Llama | 0 | 0 | رفض جميع الطلبات |
رأي بوابة الذكاء الاصطناعي
تثير نتائج التحقيقات حول Grok تساؤلات جدية بشأن فعالية بروتوكولات الأمان في أنظمة الذكاء الاصطناعي. بينما تتزايد الضغوط التنظيمية، يبقى السؤال: كيف يمكن تحقيق توازن بين الابتكار وحماية حقوق الأفراد في عصر الذكاء الاصطناعي؟
المصدر: الرابط الأصلي