جدول المحتويات
كان يُنظر إلى الذكاء الاصطناعي فيما مضى باعتباره المنقذ المحايد الذي سيحدث ثورة في عالمنا، خالياً من التحيزات والأخطاء البشرية. ومع ذلك، كانت الحقيقة بعيدة كل البعد عن هذه الرؤية المثالية. بل على العكس، أظهر الذكاء الاصطناعي مراراً ميلاً مقلقاً للحفاظ على التحيزات العرقية وتفاقمها و انه عنصري!
في هذا المقال، نستكشف الجانب المظلم للذكاء الاصطناعي، من خلال تسليط الضوء على أخطائه العنصرية واهتمامه المفرط بالألوان والتحيزات المتأصلة في خوارزمياته وبياناته.
الذكاء الاصطناعي: المخلص العادل الذي كنا نأمل فيه… ليس بهذه السهولة!
عندما ظهرت الذكاء الاصطناعي لأول مرة، كان يُعتبر الحل الأمثل لأخطاء البشر وتحيزاتهم. كانت الوعود بسيطة: الآلات، على عكس البشر، ستتخذ قرارات تعتمد فقط على البيانات، بعيداً عن الانحيازات التي تشوب الحكم البشري. لكن، كما اتضح، كان هذا الوعد جميلاً لدرجة لا تصدق.
على الرغم من أنظمة الذكاء الاصطناعي المتقدمة والخوارزميات المعقدة، فإن جودتها تعتمد بشكل كبير على البيانات التي تمت تغذيتها بها. والمفاجأة هي أن هذه البيانات غالباً ما تعكس التحيزات الموجودة في المجتمع الذي جاءت منه. على سبيل المثال، وجدت دراسة أجرتها مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا أن أنظمة التعرف على الوجوه لديها معدل خطأ بنسبة 34.7% للنساء ذوات البشرة الداكنة، مقارنة بنسبة 0.8% فقط للرجال ذوي البشرة الفاتحة. إذاً، أين هو الحياد؟
علاوة على ذلك، تعتبر عمليات اتخاذ القرار في الذكاء الاصطناعي في كثير من الأحيان غير واضحة، مما يجعل من الصعب تحديد وتصحيح هذه التحيزات. وقد أدى هذا النقص في الشفافية إلى العديد من الحالات التي اتخذت فيها أنظمة الذكاء الاصطناعي قرارات عنصرية بشكل فاضح، دون وجود أي نوع من المساءلة تقريباً. على سبيل المثال، في عام 2016، أبلغت ProPublica أن نظام الذكاء الاصطناعي المستخدم في النظام الجنائي الأمريكي كانت لديه احتمالية مضاعفة للإبلاغ الكاذب عن المتهمين السود كمجرمين مستقبليين مقارنة بالمتهمين البيض.
المفارقة واضحة للغاية. الذكاء الاصطناعي، الذي كان من المفترض أن يقضي على التحيز البشري، أصبح بدلاً من ذلك مرآة تعكس أسوأ تحيزاتنا. والنتائج ليست بسيطة على الإطلاق. من طلبات الوظائف إلى الموافقات على القروض، يمكن لقرارات الذكاء الاصطناعي المتحيزة أن تؤثر بشكل كبير على حياة الأفراد، خاصة أولئك من المجتمعات المهمشة.
آه، لقد فعلها مرة أخرى: أخطاء الذكاء الاصطناعي العنصرية
سجل الذكاء الاصطناعي مليء بحالات التحيز العنصري، التي كل واحدة منها أكثر فظاعة من سابقتها. ومن أشهر هذه الأمثلة حالة خوارزمية تصنيف الصور في جوجل التي وصفت في عام 2015 صورًا لأشخاص سود بـ “الغوريلات”. رغم تقديم جوجل اعتذارًا سريعًا وبذل جهود لتصحيح المشكلة، إلا أن الحادثة سلطت الضوء على التحيزات العميقة الجذور التي يمكن أن توجد داخل أنظمة الذكاء الاصطناعي.
مثال آخر واضح هو قضية أداة التوظيف بالذكاء الاصطناعي لشركة أمازون، التي تبين أنها كانت متحيزة ضد النساء. الأداة، التي تم تدريبها على السير الذاتية التي قدمت للشركة على مدار عشر سنوات، كانت تفضل المرشحين الذكور وتعاقب السير الذاتية التي تحتوي على كلمة “نساء”. بينما يسلط هذا المثال الضوء على التحيز القائم على النوع الاجتماعي، فإنه يبرز مشكلة أوسع نطاقًا: أنظمة الذكاء الاصطناعي يمكن أن تستمر في تعزيز أي نوع من التحيز الموجود في بيانات التدريب الخاصة بها.
في مجال الرعاية الصحية، أظهرت الذكاء الاصطناعي جوانبها السلبية أيضًا. أظهرت دراسة نُشرت في مجلة “ساينس” أن خوارزمية تستخدم لتوزيع الموارد الصحية في الولايات المتحدة كانت أقل احتمالًا لإحالة المرضى السود للحصول على رعاية إضافية مقارنةً بالمرضى البيض الذين يعانون من نفس الحالات الصحية. وُجد أن هذه الخوارزمية، التي تُستخدم لإدارة رعاية الملايين من الناس، كانت منحازة لأنها اعتمدت على تكاليف الرعاية الصحية كمؤشر للحاجات الصحية، في حين أن المرضى السود تاريخيًا يتكبدون تكاليف رعاية صحية أقل بسبب الفوارق النظامية.
هذه الأمثلة ليست حوادث معزولة، بل هي جزء من نمط أوسع حيث تقوم أنظمة الذكاء الاصطناعي بتكريس وتضخيم التحيزات الموجودة. وتتجاوز عواقب هذه الأخطاء ذلك بكثير، فتؤثر على كل شيء بدءاً من فرص العمل وصولاً إلى الحصول على الخدمات الأساسية. ومع ذلك، وعلى الرغم من هذه المشكلات الواضحة، لا يزال هناك نقص في التنظيم الشامل والرقابة لمعالجة تحيزات الذكاء الاصطناعي.
عمى الالوان؟
من أخطر جوانب التحيز العنصري في الذكاء الاصطناعي هو هوسه بلون البشرة. على الرغم من الادعاءات بكونه “عمي اللون”، إلا أن الكثير من أنظمة الذكاء الاصطناعي ليست كذلك. في الواقع، غالبًا ما تظهر هذه الأنظمة هوسًا مزعجًا بالعرق، مما يؤدي إلى نتائج تمييزية.
خذ على سبيل المثال حالة خوارزميات التنبؤ الجرمي. هذه الأنظمة، التي تستخدمها وكالات تطبيق القانون للتنبؤ بالمناطق التي يُحتمل حدوث الجرائم فيها، وجدت أنها تستهدف بشكل غير متناسب المجتمعات الأقلية. أظهرت دراسة أجراها معهد “AI Now” أن هذه الخوارزميات غالبا ما تعتمد على بيانات الجرائم التاريخية، والتي تحمل تحيزاً بسبب الإفراط في مراقبة أحياء الأقليات. ونتيجة لذلك، تنتهي الخوارزميات بتعزيز دورة من التمييز، مما يؤدي إلى زيادة المراقبة وتطبيق القانون في هذه المجتمعات.
تقنية التعرف على الوجوه هي مجال آخر يظهر فيه هوس الذكاء الاصطناعي بالألوان. أظهرت العديد من الدراسات أن هذه الأنظمة تكون أقل دقة بشكل كبير في تحديد هويات الأشخاص من ذوي البشرة الملونة بالمقارنة مع الأفراد البيض. وقد أدى ذلك إلى عدة حالات بارزة من التحديد الخاطئ للهوية، مما قد يترتب عليه عواقب وخيمة. على سبيل المثال، في عام 2019، تم اعتقال رجل أسود في ديترويت بغير وجه حق بعد أن قام نظام التعرف على الوجوه بتحديده بشكل غير صحيح كمشتبه به في جريمة.
حتى في التطبيقات التي تبدو غير ضارة، يمكن أن يكون لتحيز الألوان في الذكاء الاصطناعي تأثيرات ضارة. على سبيل المثال، تقوم مرشحات الجمال على منصات التواصل الاجتماعي في كثير من الأحيان بتفتيح لون البشرة وتغيير ملامح الوجه لتتماشى مع معايير الجمال الأوروبية. وهذا لا يعمل فقط على تعزيز الصور النمطية الضارة، ولكنه يعزز أيضًا فكرة أن البشرة الفاتحة أكثر جاذبية.
المشكلة لا تكمن فقط في أن أنظمة الذكاء الاصطناعي متحيزة، ولكن أيضًا في أنها تصمم وتنفذ دون النظر الكافي لهذه التحيزات. هذا النقص في الوعي والمساءلة يعني أن هوس الذكاء الاصطناعي بالألوان يستمر دون رقابة، مما يترتب عليه عواقب خطيرة على المساواة والعدالة العرقية.
الخوارزمية تعرف الأفضل… إذا كنت أبيض البشرة
الاعتقاد بأن “الخوارزمية تعرف الأفضل” هو معتقد خطير، خصوصاً عندما يتعلق الأمر بالتحيز العنصري. في الواقع، الخوارزميات لا تكون جيدة إلا بقدر جودة البيانات التي تدربت عليها، وإذا كانت تلك البيانات متحيزة، ستكون قرارات الخوارزمية متحيزة أيضًا. وهذا يعد مشكلة كبيرة عندما يتعلق الأمر بالعرق.
من أبرز الأمثلة على ذلك في مجال تقييم الائتمان، حيث تبين أن الأنظمة الذكية التي تستخدمها البنوك والمؤسسات المالية لتقييم الجدارة الائتمانية تحمل تحيزًا ضد المتقدمين من الأقليات. وقد أظهرت دراسة أجراها المكتب الوطني للبحوث الاقتصادية أن المقترضين من السود واللاتينيين كانوا أكثر عرضة بنسبة 80% لرفض طلباتهم بالقروض مقارنة بالمقترضين البيض الذين لديهم ملفات مالية مشابهة. ونسبت الدراسة هذا التفاوت إلى البيانات المتحيزة التي تم استخدامها لتدريب الأنظمة الذكية.
في سوق العمل، لوحظ أن أدوات التوظيف المدعومة بالذكاء الاصطناعي تميل أيضًا إلى تفضيل المرشحين البيض. فقد أظهرت دراسة أجرتها جامعة تورنتو أن الأنظمة المعتمدة على الذكاء الاصطناعي التي يستخدمها أصحاب العمل لفرز طلبات التوظيف كانت أكثر احتمالًا لاختيار السير الذاتية التي تحمل أسماءً تبدو “بيضاء” بدلاً من تلك التي تحمل أسماءً تبدو “إثنية”، حتى عندما تكون المؤهلات متطابقة. هذا لا يؤدي فقط إلى استمرار التمييز العنصري، ولكنه أيضًا يحد من الفرص للمرشحين من الأقليات.
حتى في نظام العدالة الجنائية، حيث تكون العدالة والنزاهة أمرًا بالغ الأهمية، تبيّن أن الذكاء الاصطناعي منحاز. كشفت دراسة أجراها “الشراكة على الذكاء الاصطناعي” أن الخوارزميات المستخدمة لتقييم المخاطر بهدف تحديد قرارات الكفالة والحكم كانت تصنّف المتهمين السود على أنهم ذوو مخاطر عالية بشكل أكبر مقارنة بالمتهمين البيض الذين لديهم ملفات مشابهة. وهذا له تأثيرات جادة على نزاهة نظام العدالة وعلى حياة الأشخاص المتأثرين بذلك.
الاعتقاد بأن الخوارزميات بطبيعتها موضوعية وخالية من التحيز هو خرافة خطيرة. في الواقع، تكون الخوارزميات غالبًا متحيزة بقدر التحيز الموجود في البيانات التي تم تدريبها عليها، ويمكن أن يكون لهذا التحيز عواقب وخيمة على المساواة العرقية والعدالة.
التنوع في البيانات؟ الذكاء الاصطناعي يقول “لا، أنا بخير”.
أحد الأسباب الرئيسية لانحياز الذكاء الاصطناعي العرقي هو نقص التنوع في البيانات المستخدمة لتدريب هذه الأنظمة. أنظمة الذكاء الاصطناعي تعتمد بشكل كبير على جودة البيانات التي تُدرب عليها، وإذا لم تكن تلك البيانات تمثل تنوع العالم الحقيقي، فإن الخوارزميات الناتجة ستكون منحازة.
وجدت دراسة أجراها معهد AI Now أن العديد من أنظمة الذكاء الاصطناعي يتم تدريبها على بيانات يغلب عليها أن تكون للأشخاص البيض والذكور. هذا النقص في التنوع في البيانات المستخدمة للتدريب يعني أن الخوارزميات الناتجة تكون أقل دقة وأكثر تحيزًا تجاه الأقليات. على سبيل المثال، تكون أنظمة التعرف على الوجوه التي تم تدريبها بشكل أساسي على وجوه بيضاء أقل دقة في التعرف على الأشخاص ذوي البشرة الملونة، مما يؤدي إلى معدلات أعلى من التعرف الخاطئ.
نقص التنوع في البيانات ليس مجرد مشكلة تقنية بل يعكس أيضًا تفاوتات اجتماعية أوسع. غالبًا ما تكون الأقليات ممثلة بشكل ناقص في البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي لأنها ممثلة بشكل ناقص في القطاعات التي تولد هذه البيانات. على سبيل المثال، تكون الأقليات أقل إمكانية للحصول على الرعاية الصحية، مما يؤدي إلى نقص تمثيلها في مجموعات البيانات الطبية المستخدمة لتدريب أنظمة الذكاء الاصطناعي.
نقص التنوع في البيانات يعكس كذلك قلة التنوع في صناعة التكنولوجيا بحد ذاتها. هذا النقص في التنوع يعني أن وجهات نظر وتجارب المجموعات الأقلية غالبًا ما يتم تجاهلها في تصميم وتطوير أنظمة الذكاء الاصطناعي.
معالجة نقص التنوع في البيانات أمر مهم لتقليل التحيز العنصري في الذكاء الاصطناعي. وهذا يعني ليس فقط جمع بيانات أكثر تنوعًا، بل أيضًا ضمان أن تكون صناعة التكنولوجيا نفسها أكثر تنوعًا وشمولية. فقط عندها يمكننا أن نأمل في إنشاء أنظمة ذكاء اصطناعي عادلة وغير متحيزة حقًا.
الذكاء الاصطناعي والتحيز في العالم الحقيقي
تأثير التحيز العنصري في الذكاء الاصطناعي ليس نظرياً فقط بل له آثار واقعية ملموسة. قرارات الذكاء الاصطناعي المتحيزة، بدءاً من طلبات التوظيف وصولاً إلى الموافقات على القروض، يمكن أن تؤدي إلى تغييرات جذرية في حياة الأفراد، لا سيما من ينتمون إلى الفئات المهمشة.
في سوق العمل، وُجد أن أدوات التوظيف المدعومة بالذكاء الاصطناعي تفضل المرشحين البيض، مما يحد من الفرص المتاحة للمرشحين من الأقليات. وهذا لا يرسخ فقط التمييز العنصري، بل يساهم أيضًا في فجوة الثروة العرقية. وكشفت دراسة أجراها معهد بروكينغز أن الثروة الوسيطة للأسر البيضاء تعادل عشرة أضعاف تلك للأسر السوداء، وأن قرارات الذكاء الاصطناعي المتحيزة تزيد من تفاقم هذا التفاوت.
في نظام العدالة الجنائية، يمكن أن يكون لقرارات الذكاء الاصطناعي المتحيزة تأثيرات خطيرة على نزاهة النظام وعلى حياة الأفراد المتضررين. لقد تم العثور على أن الخوارزميات المستخدمة في تقييم المخاطر لتحديد القرارات المتعلقة بالكفالة والحكم تكون متحيزة ضد المتهمين السود، مما يؤدي إلى معدلات أعلى من السجن وأحكام أطول للمجموعات الأقلية.
حتى في مجال الرعاية الصحية، يمكن للتحيز العنصري في الذكاء الاصطناعي أن تكون له عواقب تتعلق بالحياة أو الموت. فقد وُجِدت خوارزميات تُستخدم لتوزيع الموارد الصحية مُتحيزة ضد المرضى ذوي البشرة السوداء، مما يؤدي إلى تفاوتات في الوصول إلى الرعاية ونتائج الصحة. وأظهرت دراسة أجرتها الأكاديمية الوطنية للطب أن المرضى السود أقل احتمالية لتلقي الرعاية المناسبة لحالات مثل أمراض القلب والسرطان، وقرارات الذكاء الاصطناعي المتحيزة تزيد من تفاقم هذه التفاوتات.
يُبرز التأثير الواقعي لتحيز الذكاء الاصطناعي العرقي الحاجة الملحّة لاتخاذ إجراءات فورية. وهذا يتطلب ليس فقط معالجة المشاكل التقنية للتحيز في أنظمة الذكاء الاصطناعي، ولكن أيضًا التعامل مع عدم المساواة المجتمعية الأوسع التي تُسهم في هذا التحيز. عندها فقط يمكننا أن نأمل في إنشاء أنظمة ذكاء اصطناعي تكون عادلة وخالية من التحيز حقًا.
الخلاصة: الحقيقة غير المريحة حول الذكاء الاصطناعي
كان من المفترض أن تكون الذكاء الاصطناعي المنقذ المحايد الذي سيحدث ثورة في عالمنا بعيداً عن التحيزات والأخطاء البشرية. ولكن الواقع كان بعيداً كل البعد عن هذه الرؤية المثالية. على العكس، أظهرت الذكاء الاصطناعي مرارًا وتكرارًا ميلاً مقلقًا لاستمرار وتفاقم التحيزات العرقية.
من أنظمة التعرف على الوجوه التي تُخطئ في تحديد هوية الأشخاص من ذوي البشرة الملونة إلى خوارزميات التنبؤ بالجريمة التي تستهدف بشكل غير متناسب المجتمعات الأقليات، فإن سجل الذكاء الاصطناعي مليء بأمثلة على التحيز العنصري. هذه التحيزات ليست مجرد مشاكل تقنية بل تعكس أيضًا الفوارق المجتمعية الأوسع ونقص التنوع في البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي.
الاعتقاد بأن “الخوارزمية تعرف الأفضل” هو خطأ فادح، خاصة عندما يتعلق الأمر بالعرق. في الواقع، الخوارزميات تعتمد جودتها على جودة البيانات التي تم تدريبها عليها، وإذا كانت هذه البيانات متحيزة، فإن قرارات الخوارزمية ستكون متحيزة أيضًا. لهذا الوضع عواقب وخيمة على المساواة والعدالة العرقية، حيث يؤثر على كل شيء من طلبات التوظيف إلى الموافقات على القروض والوصول إلى الرعاية الصحية.
معالجة التحيز العرقي في الذكاء الاصطناعي تتطلب ليس فقط حلولًا تقنية، بل أيضًا تغييرات مجتمعية أوسع نطاقًا. وهذا يعني جمع بيانات أكثر تنوعًا، وضمان أن تكون صناعة التكنولوجيا نفسها أكثر تنوعًا وشمولية، ومعالجة أوجه عدم المساواة المجتمعية الأوسع التي تسهم في هذا التحيز. فقط عندئذ يمكننا أن نأمل في إنشاء أنظمة ذكاء اصطناعي تكون عادلة وغير متحيزة حقًا.
في النهاية، الحقيقة الغير مريحة بشأن الذكاء الاصطناعي هي أنه ليس المنقذ العادل الذي كنا نأمل فيه. بل هو انعكاس لتحيزاتنا وأحكامنا المسبقة، يتم تضخيمها واستمرارها بواسطة الخوارزميات المتقدمة. وحتى نتعامل مع هذه المشاكل الأساسية، سيظل الذكاء الاصطناعي أداة للتمييز بدلاً من قوة لخدمة الخير.