تنضم شركة OpenAI إلى لجنة توجيه الائتلاف من أجل البرهان والصدق في المحتوى (C2PA) وستقوم بتكامل معايير البيانات الوصفية المفتوحة في نماذج الذكاء الاصطناعي التوليدية الخاصة بها بهدف زيادة الشفافية حول المحتوى الذي يتم توليده.
يسمح معيار C2PA بتصديق المحتوى الرقمي مع بيانات توضيحية تثبت مصدره، سواء أكان مُنشأ كلياً بواسطة الذكاء الاصطناعي، أو تم تعديله باستخدام أدوات الذكاء الاصطناعي، أو تم تسجيله بالطرق التقليدية. بدأت OpenAI بالفعل بإضافة بيانات توضيحية وفق معيار C2PA إلى الصور التي ينتجها أحدث نموذج DALL-E 3 في ChatGPT وواجهة برمجة تطبيقات OpenAI. سيتم تكامل هذه البيانات مع نموذج توليد الفيديو القادم من OpenAI والذي يُدعى Sora عند إطلاقه بشكل أوسع.
يمكن للناس إنشاء محتوى مضلل حتى بدون هذه المعلومات (أو يمكنهم إزالتها)، ولكن لا يمكنهم بسهولة تزييف أو تغيير هذه المعلومات، وهذا يجعلها مصدراً هاماً لبناء الثقة، كما أوضحت شركة OpenAI.
تأتي هذه الخطوة في ظل تزايد القلق بشأن إمكانية استخدام المحتوى المُنتَج بواسطة الذكاء الاصطناعي في تضليل الناخبين قبل الانتخابات الكبرى في الولايات المتحدة والمملكة المتحدة ودول أخرى هذا العام. قد يساعد التحقق من صحة الوسائط المُنشَأة بالذكاء الاصطناعي في مكافحة التزييف العميق وغيره من المحتويات المُعدّلة التي تهدف إلى حملات التضليل.
رغم أن الإجراءات التقنية مفيدة، تعترف OpenAI بأن تمكين صحة المحتوى عمليًا يتطلب تحركًا جماعيًا من المنصات والمبدعين ومعالجي المحتوى للحفاظ على بيانات التعريف للمستهلكين النهائيين.
بالإضافة إلى دمج منصة C2PA، تعمل OpenAI على تطوير طرق جديدة لإثبات الأصالة مثل استخدام علامات مائية مقاومة للتزوير في تصنيف الصوتيات والصور لتحديد الرسومات والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
أعلنت شركة OpenAI عن فتح باب التقديم للحصول على الوصول إلى مصنّف الكشف عن الصور التابع لها، DALL-E 3، من خلال برنامج الوصول للباحثين. يتوقع الأداة احتمالية أن تكون الصورة قد تم إنشاؤها باستخدام أحد نماذج OpenAI.
تهدف الشركة إلى تمكين البحث المستقل الذي يقيّم فعالية نظام التصنيف، ويحلل تطبيقه في العالم الواقعي، ويبرز الاعتبارات ذات الصلة لهذه الاستخدامات، ويستكشف خصائص المحتوى المُنتج بواسطة الذكاء الصناعي.
أظهرت الاختبارات الداخلية دقة عالية في التمييز بين الصور الغير مولدة بالذكاء الاصطناعي وصور دال-إي 3، حيث تم التعرف بشكل صحيح على حوالي 98% من صور دال-إي، مع وجود أقل من 0.5% من الصور الغير مولدة بالذكاء الاصطناعي تم تصنيفها بطريقة خاطئة. بينما عانى المُصنف من صعوبات أكبر في التفرقة بين الصور التي أنتجها دال-إي وتلك التي أنتجتها نماذج الذكاء الاصطناعي التوليدية الأخرى.
قامت OpenAI أيضًا بتضمين نظام التمييز المائي (الووترمارك) ضمن نموذج الصوت المخصص الخاص بمحرك الصوت الخاص بها، والذي لا يزال متاحًا حاليًا في نسخة معاينة محدودة.
تعتقد الشركة أن اعتماد معايير المنشأ بشكل متزايد سوف يؤدي إلى مرافقة البيانات الوصفية للمحتوى خلال دورة حياته الكاملة لملء “فجوة حاسمة في ممارسات أصالة المحتوى الرقمي”.
ستنضم شركة OpenAI إلى مايكروسوفت لإطلاق صندوق قيمته مليوني دولار لدعم التعليم والفهم في مجال الذكاء الاصطناعي، بما في ذلك من خلال AARP والمنظمة الدولية للديمقراطية والشراكة في مجال الذكاء الاصطناعي.
تعتبر شركة OpenAI أن الحلول التقنية مثل تلك التي سبق ذكرها توفر لنا أدوات نشطة للدفاع عن أنفسنا، ولكن تحقيق صحة المحتوى عملياً سيتطلب عمل جماعي.
جهودنا المتعلقة بأصل البيانات هي مجرد جزء واحد من مبادرة أوسع تجريها الصناعة – العديد من مختبرات البحث المتماثلة لنا وشركات الذكاء الصناعي التوليدي تعمل أيضاً على تقدم البحث في هذا المجال. نحن نثمن هذه المساعي – يجب على الصناعة التعاون ومشاركة الرؤى من أجل تعزيز فهمنا والاستمرار في تعزيز الشفافية على الإنترنت.