حذر تقرير، الذي تم إعداده بتكليف من وزارة الخارجية الأمريكية، من أن الذكاء الاصطناعي يمكن أن يشكل مخاطر خطيرة على البشرية.
اعتمد التقرير على مقابلات مع أكثر من 200 شخص على مدى أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين من شركات تقنية الذكاء الاصطناعي الرائدة، والباحثين في مجال الأمن السيبراني، وخبراء في مجال الأسلحة النووية، ومسؤولين في قطاع الأمن القومي في الحكومة الأمريكية.
ويشير التقرير، الذي صدر هذا الأسبوع من قبل “غلادستون للذكاء الاصطناعي”، بشكل قاطع إلى أن الأنظمة الأكثر تقدما في مجال الذكاء الاصطناعي يمكنها، في أسوأ الحالات، أن تشكل تهديدا جديا على مستوى الانقراض للجنس البشري، وفقا لشبكة “سي إن إن” الإخبارية الأمريكية.
“صرح جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة “غلادستون للذكاء الاصطناعي”، الثلاثاء، بأن الذكاء الاصطناعي يعد بالفعل. تكنولوجيا خلق تحويل اقتصادي يمكن أن يتيح لنا علاج الأمراض وتحقيق الاكتشافات العلمية والتغلب على التحديات التي كنا نعتقد في يوم من الأيام أنها لا يمكن تجاوزها.
وأشار هاريس إلى أن استخدام الذكاء الاصطناعي قد يحمل مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب علينا أن ندركها. وأوضح أن الأدلة الزايدة – بما في ذلك الأبحاث والتحاليل التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم – تشير إلى أنه عند تجاوز حد معين من القدرة، من الممكن أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة.
يجدر بنا الحذر من خطرين كبيرين ينشأان من استخدام الذكاء الاصطناعي على نطاق واسع وفقاً للتقرير.
أولاً، يمكن تجهيز أنظمة الذكاء الاصطناعي المتقدمة لتسبب أضرار لا تُصلح. وثانياً، هناك مخاوف داخل مختبرات الذكاء الاصطناعي من فقدان السيطرة على هذه الأنظمة والتي قد تؤدي إلى عواقب مدمرة على الأمن العالمي.
وأشار التقرير إلى أن “تقدم الذكاء الاصطناعي والذكاء العام الاصطناعي يمكنه تقويض استقرار الأمن العالمي بطرق تشبه تهديد الأسلحة النووية”، معتبرًا أن هناك خطرًا من “سباق تسلح” في مجال الذكاء الاصطناعي، وصراع، ووقوع “حوادث مميتة على نطاق أسلحة الدمار الشامل”.
يدعو تقرير “غلادستون للذكاء الاصطناعي” إلى اتخاذ خطوات جديدة جذرية لمواجهة هذا التهديد، بما في ذلك إنشاء وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية “طارئة” وتحديد قدرة الحواسيب التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.
ووجه الكتاب في التقرير قولهم: “تتطلب الحاجة إلى تدخل حكومة الولايات المتحدة إجراءً واضحًا وملحًّا”
وذكر التقرير أن الضغوط التنافسية تحث الشركات على تسريع تطوير التكنولوجيا الذكية على حساب السلامة والأمان، مما يزيد من احتمالية سرقة أنظمة الذكاء الاصطناعي المتقدمة وتسليحها ضد الولايات المتحدة.
تُضاف هذه التوصيات إلى قائمة متزايدة من التحذيرات حول المخاطر المترتبة على الذكاء الاصطناعي، بما في ذلك حتى من قبل بعض أعلي الشخصيات في الصناعة.
ووفقًا للتقرير، صرّح أحد الأفراد في إحدى مختبرات الذكاء الاصطناعي المعروفة بأنه إذا تم إطلاق نموذج معين من الجيل التالي للذكاء الاصطناعي بدون قيود في الوصول، سيكون ذلك “سيئًا للغاية”، حيث يمكن للقوة المحتملة للنموذج أن تؤدي إلى “كسر الديمقراطية” إذا تم استغلالها في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.