جدول المحتويات
أثار تقرير حديث صادر عن منظمة العفو الدولية مخاوف كبيرة بشأن استخدام الدنمارك لأدوات مدعومة بالذكاء الاصطناعي في نظام الرعاية الاجتماعية لديها. يتم إدارة النظام من قبل “أودبيتالينغ دنمارك” ويهدف إلى كشف حالات الاحتيال في الرعاية الاجتماعية، لكنه الآن متهم بتعزيز المراقبة الجماعية والتمييز، لا سيما ضد الفئات المهمشة. يسلط التقرير، الذي يحمل عنوان “العدالة المبرمجة: المراقبة والتمييز في نظام الرعاية الاجتماعية المُؤتمت في الدنمارك”، الضوء على أن الاستخدام المكثف للخوارزميات في اكتشاف الاحتيال أدى إلى انتهاكات خصوصية وخلق مناخ من الخوف بين متلقي الرعاية.
يشدد التقرير على أن النظام المدفوع بالذكاء الاصطناعي يستهدف غالبًا أفرادًا ينبغي حمايتهم بموجب شبكات الأمان الاجتماعي، مثل الأشخاص ذوي الإعاقة، والمواطنين ذوي الدخل المنخفض، والمهاجرين، واللاجئين. وتُؤكد منظمة العفو الدولية أن النظام يقوض الكرامة الإنسانية والخصوصية، مما يؤدي إلى خلق بيئة تمييزية تؤثر بشكل غير متناسب على المجتمعات الضعيفة أصلاً.
التوقعات المتعلقة بالذكاء الاصطناعي: تآكل الخصوصية والتحيز في الخوارزميات
أصبح أتمتة اكتشاف الاحتيال في الرعاية الاجتماعية باستخدام الذكاء الاصطناعي موضوعًا مثيرًا للجدل، خاصة داخل الاتحاد الأوروبي. في الدنمارك، اندمجت “أودبيتالينغ دنمارك”، الجهة العامة المسؤولة عن دفع مستحقات الرعاية الاجتماعية، بتطبيق أدوات ذكاء اصطناعي لتحديد الأفراد المشتبه في ارتكابهم للاحتيال. ومع ذلك، تشير نتائج منظمة العفو الدولية إلى أن النظام مليء بالتحيز، حيث يجمع بيانات شخصية واسعة النطاق، بما في ذلك وضع الإقامة والجنسية والروابط الأسرية، بهدف اكتشاف حالات الاحتيال المحتملة.
يثير استخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة قلقًا بشأن التداعيات الأخلاقية لجمع البيانات على نطاق واسع. ويُجادل النقاد بأن هذا النظام يجبر الأفراد فعلياً على التنازل عن خصوصيتهم دون موافقتهم الصريحة أو علمهم. إن هذا المستوى من المراقبة قد يؤدي إلى استنتاجات خاطئة ويستهدف على نحو غير متناسب المجتمعات المهمشة. تأتي الخوارزميات المستخدمة في “اكتشاف الاحتيال” بناءً على أنماط قد لا تعكس بدقة الأوضاع الواقعية، مما يخلق خطر النتائج الإيجابية الخاطئة ويعزز التفاوتات الاجتماعية القائمة.
الخوارزميات التمييزية وتأثيرها على الفئات المهمشة
أحد الجوانب الأكثر إثارة للقلق في نظام الرعاية الاجتماعية المُؤتمت في الدنمارك هو الطبيعة التمييزية للخوارزميات المستخدمة. على سبيل المثال، تستهدف خوارزمية “حقًا أعزب” التنبؤ بالحالة الاجتماعية للفرد للكشف عن حالات الاحتيال في الطلبات. لكن المعايير التي تعتمد عليها هذه الخوارزمية، مثل “ترتيبات السكن غير التقليدية”، يمكن أن تؤثر بشكل غير متناسب على الأفراد الذين لا يلتزمون بالمعايير المجتمعية التقليدية، مثل الأشخاص ذوي الإعاقة الذين يعيشون بعيدًا عن أزواجهم أو العائلات المهاجرة التي تعيش في منزل واحد متعدد الأجيال.
ومن الخوارزميات الأخرى المثيرة للجدل خوارزمية “النموذج الخارجي”، التي تأخذ “الروابط الأجنبية” بعين الاعتبار للإشارة إلى الأفراد لأغراض الفحص الإضافي. يستهدف هذا النظام بشكل غير متناسب الأشخاص المرتبطين بدول خارج المنطقة الاقتصادية الأوروبية، مما يثير مخاوف خطيرة بشأن التنميط العرقي والإثني. ويشدد تقرير منظمة العفو على أن استخدام مثل هذه المعايير يعزز التمييز على أساس الأصل الوطني ووضع الهجرة، مما ينتهك الحقوق الأساسية للمستهدفين.
التداعيات القانونية والأخلاقية: دعوات للإصلاح
ردًا على المخاوف المتزايدة حول نظام الرعاية الاجتماعية المبني على الذكاء الاصطناعي، دعت منظمة العفو الدولية إلى إعادة النظر في نهج الدنمارك في اكتشاف الاحتيال. وشدد التقرير على ضرورة ضمان السلطات الدنماركية امتثال الأنظمة الآلية للالتزامات الوطنية والدولية لحقوق الإنسان، بما في ذلك الحق في الخصوصية وعدم التمييز وحماية البيانات الشخصية.
علاوة على ذلك، دعت منظمة العفو الاتحاد الأوروبي إلى توضيح موقفه من الأنظمة المدعومة بالذكاء الاصطناعي التي تعمل كآليات “للتسجيل الاجتماعي”، وهي محظورة صراحة بموجب قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي. وتجادل المنظمة بأن نظام اكتشاف الاحتيال في الدنمارك يمكن أن يصنف على أنه شكل من أشكال التسجيل الاجتماعي، مما يستدعي وقفه فورًا وإجراء مراجعة شاملة.
رغم هذه الانتقادات، تدافع “أودبيتالينغ دنمارك” وشريكها التكنولوجي “إيه تي بي” عن قانونية وضرورة هذه الأنظمة التي يرون أنها ضرورية لكشف الاحتيال وضمان التوزيع السليم لموارد الرعاية الاجتماعية. ومع ذلك، لم تقدم أي منهما شفافية حول تصميم الخوارزميات أو مدى جمع البيانات، مما يثير المزيد من الشكوك بشأن عدالة هذه الأنظمة ومساءلتها.
في ظل تسارع انتشار الذكاء الاصطناعي في مختلف القطاعات، بما في ذلك الرعاية الاجتماعية، أصبح من الضروري التدقيق في التداعيات الأخلاقية وحقوق الإنسان المرتبطة باستخدامه. يُعد النظام الاجتماعي في الدنمارك مثالًا على المخاطر المحتملة لاعتماد الذكاء الاصطناعي في اتخاذ قرارات يمكن أن تؤثر بشكل كبير على حياة الأفراد. وبينما توفر التكنولوجيا إمكانيات واعدة من حيث الكفاءة وكشف الاحتيال، فإن استخدامها بطريقة غير محكومة يعزز عدم المساواة القائمة وينتهك الحقوق الأساسية.
تدق نتائج تقرير منظمة العفو الدولية ناقوس الخطر حول الحاجة إلى زيادة الشفافية والإشراف وتوفير الضمانات القانونية في استخدام الذكاء الاصطناعي في الخدمات الاجتماعية. ومن الضروري أن تتخذ كل من الدنمارك والاتحاد الأوروبي خطوات استباقية لضمان استخدام أنظمة الذكاء الاصطناعي بشكل مسؤول، مع إعطاء الأولوية لحماية حقوق الإنسان على السعي وراء الكفاءة. وفي ظل التطورات السريعة لتعزيز دور الذكاء الاصطناعي، يجب أن تبقى الاعتبارات الأخلاقية في مقدمة الاهتمام لتجنب إلحاق مزيد من الضرر بالفئات الأكثر ضعفًا في المجتمع.