تعمل شركة ميتا على منع الحملات السياسية والإعلانات في الصناعات المنظمة الأخرى من استخدام منتجات إعلانية جديدة تعتمد على الذكاء الاصطناعي، وهذا يعرقل الوصول إلى الأدوات التي حذر المشرعون من استخدامها بشكل مفرط والتي قد تؤدي إلى انتشار المعلومات الخاطئة حول الانتخابات.
وأعلنت ميتا علنًا عن القرار في التحديثات التي نشرتها عبر مركز المساعدة الخاص بها. وتمحظر معايير ميتا الإعلانية الإعلانات التي تحتوي على محتوى تم تحديده من قبل شركاء التحقق من الحقائق.
وجاء في مذكرة الشركة التي تشرح عمل الأدوات: “نستمر في اختبار الأدوات الجديدة لإنشاء إعلانات ذكاء اصطناعي توليدي في مدير الإعلانات. حاليًا ، لا يُسمح للمعلنين الذين يقومون بإدارة حملات مؤهلة مثل إعلانات الإسكان أو التوظيف أو الائتمان أو القضايا الاجتماعية أو الانتخابات أو السياسة أو المرتبطة بالصحة أو الأدوية أو الخدمات المالية باستخدام مزايا الذكاء الاصطناعي التوليدي”.
وقد أشارت إلى أنه في رأينا ، نعتقد أن هذا النهج يمكّننا من فهم المخاطر المحتملة بشكل أفضل وبناء الضمانات المناسبة لاستخدام التكنولوجيا التوليدية الذكاء الاصطناعي في عروض الإعلانات المتعلقة بمواضيع يُفترض أن تكون حساسة في الصناعات المشمولة بالتنظيم.
تأتي تحديث السياسة بعد شهر من إعلان ميتا بدء توسيع وصول المعلنين إلى أدوات الذكاء الاصطناعي للإعلانات، حيث يتمكنون من إنشاء خلفيات وتعديلات للصور وأشكال مختلفة من الإعلان بشكل فوري استجابةً لمطالبات نصية بسيطة.
في البداية، قدمت الشركة الأدوات لعدد قليل من المعلنين وأعلنت في ذلك الوقت نيتها لتوفيرها لجميع المعلنين في جميع أنحاء العالم بحلول العام المقبل.
في الأشهر الأخيرة، تنافست شركة ميتا مع شركات التكنولوجيا الأخرى في إطلاق مبتكرات إعلانية باستخدام الذكاء الاصطناعي والمساعدين الافتراضيين، وذلك للرد على الاهتمام الكبير بعد ظهور روبوت الدردشة ChatGPT الذي يمكنه أن يقدم ردود مكتوبة تشبه ردود الإنسان على الأسئلة والمطالبات الأخرى.
قبل قمة سلامة الذكاء الاصطناعي في المملكة المتحدة، حذر نيك كليج، كبير المسؤولين التنفيذيين للسياسة في ميتا، من ضرورة أن تكون الحكومات وشركات التكنولوجيا مستعدة للتعامل مع استخدام التكنولوجيا للتلاعب في الانتخابات المقبلة، ودعا إلى التركيز بشكل خاص على المحتوى المتعلق بالانتخابات الذي ينتقل من منصة إلى أخرى.