جدول المحتويات
النقاط الرئيسية
- أنطونيو غوتيريش، الأمين العام للأمم المتحدة، يحذر من المخاطر المتزايدة للذكاء الاصطناعي.
- دعوة لإبرام صك قانوني ملزم لحظر “أنظمة الأسلحة الفتاكة ذاتية التشغيل” بحلول العام المقبل.
- التأكيد على أهمية السيطرة البشرية على القوة العسكرية وبناء أطر تنظيمية عالمية.
- دعوة الحكومات والشركات التقنية للتعاون في مكافحة التضليل والمعلومات المضللة.
التفاصيل
حذر أنطونيو غوتيريش، الأمين العام للأمم المتحدة، خلال مناقشة مفتوحة لمجلس الأمن، من المخاطر المتزايدة المرتبطة بتكنولوجيا الذكاء الاصطناعي. وأكد أن مستقبل البشرية لا ينبغي أن يُترك للخوارزميات، مشددًا على ضرورة أن يكون الابتكار في خدمة الإنسانية. كما دعا إلى إبرام صك قانوني ملزم بحلول العام المقبل لحظر الأنظمة العسكرية التي تعمل بشكل ذاتي دون إشراف بشري.
غوتيريش أشار إلى أولوياته في معالجة هذه القضايا، والتي تشمل ضمان السيطرة البشرية على استخدام القوة العسكرية، وتطوير أطر تنظيمية عالمية متماسكة، وحماية سلامة المعلومات في سياقات النزاع. كما دعا إلى سد الفجوة في القدرات المتعلقة بالذكاء الاصطناعي، مع التركيز على أهمية التعاون بين الحكومات والمنصات التقنية لمكافحة التضليل.
لماذا هذا الخبر مهم؟
تسلط تصريحات غوتيريش الضوء على التحديات المتزايدة التي يواجهها المجتمع الدولي في ظل التطورات السريعة في مجال الذكاء الاصطناعي. إن الدعوة إلى تنظيم هذه التكنولوجيا تعكس الحاجة الملحة لضمان استخدامها بشكل آمن وأخلاقي، مما يؤثر على المستخدمين والمطورين على حد سواء. يمكن أن تؤدي هذه المبادرات إلى تشكيل إطار عمل عالمي يحدد كيفية استخدام الذكاء الاصطناعي في المستقبل، مما يضمن حماية حقوق الإنسان والأمن العالمي.
خلفية سريعة
تاريخ الذكاء الاصطناعي يمتد لعقود، وقد شهد تطورات كبيرة في السنوات الأخيرة، مما أدى إلى استخدامه في مجالات متعددة مثل الرعاية الصحية، النقل، والأمن. ومع ذلك، فإن القلق بشأن استخدامه في الأنظمة العسكرية والتضليل الإعلامي قد زاد من الدعوات إلى تنظيمه. تعتبر الأمم المتحدة منصة رئيسية في هذا السياق، حيث تسعى إلى وضع قواعد تحكم استخدام هذه التكنولوجيا لضمان سلامة البشرية.
المصدر: الرابط الأصلي