يعاني مولد الصور بالذكاء الاصطناعي من صعوبات في تقديم فكرة الأعراق المختلطة، وتظهر التحديات عند محاولة إنشاء صور واقعية لأزواج متنوعين في العرق.
صعب على مولد الصور بالذكاء الاصطناعي دائمًا إنتاج صور دقيقة لمطالبات بسيطة، ويبدو أن النظام متحيزًا نحو تصميم صور لأشخاص من نفس العرق، حتى عندما يُطلب خلاف ذلك بوضوح.
فشلت تقنية توليد الصور بالذكاء الاصطناعي في إنتاج صور دقيقة للمطالبات البسيطة بشكل كبير، حيث أنها أنتجت صورًا غير دقيقة لرجل آسيوي مع امرأة بيضاء، حتى بعد تعديل المطالبات عدة مرات.
وكانت آلة توليد الصور بالذكاء الاصطناعي غير قادرة على إنتاج صور دقيقة تظهر التحيز تجاه الأفراد من بعض العراقيل.
هذه المشكلة تختلف عن المشكلة المحرجة التي واجهتها مولد الصور بالذكاء الاصطناعي من جوجل سابقًا.
بعد شهرين فقط من إطلاقه، تبين أن مولد الصور بالذكاء الاصطناعي من جوجل ينتج صورًا غير دقيقة تاريخيًا، مما اضطر جوجل إلى إيقافه وأصدرت اعتذارًا علنيًا.
يبدو أن استخدام الذكاء الاصطناعي في إنشاء الصور من ميتا يزيد من التحيزات بشأن لون البشرة، ويعكس الصور النمطية حتى عندما لا يكون ذلك مطلوبًا.
باستخدام الذكاء الاصطناعي، يمكن لمولد الصور من ميتا دمج مناطق مختلفة ثقافيًا في آسيا معًا وزيادة التحيز حول العمر.
يُعتبر الذكاء الاصطناعي تجليًا للمعلومات التي يتم تدريبه عليها، كما يعكس أيضًا انحيازات الأشخاص الذين قاموا بإنشائه وتدريبه، وقد أشار مستخدمو إكس بسرعة إلى هذه الحقيقة.
لم تقدم ميتا أي تفسير بخصوص الصور غير الدقيقة للذكاء الاصطناعي التي تم إنشاؤها حتى الآن، على الرغم من أنها كانت تصر في السابق على أن أدوات الذكاء الاصطناعي في مرحلة التجربة قد ترتكب أخطاء.
يُستخدم مصطلح “الأسيوي” في وسائل الإعلام الغربية لوصف شامل لشرق آسيا، على الرغم من أن القارة كبيرة ومتنوعة من الناحية الثقافية، حيث يبلغ عدد سكانها حوالي 5 مليار نسمة، ويمثلون حوالي 60 في المئة من سكان العالم.
بناءً على ذلك، قد يكون من المفهوم أن يفترض مولد الصور بالذكاء الاصطناعي من ميتا أن جميع الأشخاص الآسيويين يبدون متشابهين، على الرغم من أن الآسيويين في الحقيقة يمثلون مجموعة متنوعة من الأشخاص الذين لا يشتركون في كثير من الأحيان إلا قليلًا من السمات المشتركة.