موظفون في جوجل و OpenAI يحذرون من التهديدات التي يمكن أن يشكلها الذكاء الاصطناعي.
حذرت موظفون سابقون وحاليون في شركتي OpenAI وDeepMind التابعة لجوجل من تداعيات خطيرة قد تنجم عن تقدم التكنولوجيا الذكية الاصطناعية، مشيرين إلى ضرورة تعزيز حماية المبلغين عن أي انتهاكات محتملة، وذلك من خلال رسالة موجهة مشتركة إلى إدارات الشركتين والجهات التنظيمية.
وقعت الرسالة 13 موظفًا من موظفي شركتي OpenAI و DeepMind، وهما من الشركات الرائدة في مجال البحث في الذكاء الاصطناعي.
أعرب الموظفون في الرسالة عن قلقهم من مجموعة من الأخطار المتعلقة بتطوير الذكاء الاصطناعي، مثل تعزيز التفاوتات الاجتماعية والاقتصادية، وانتشار المعلومات الخاطئة، وفقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة التي قد تتسبب في عواقب وخيمة كانقراض البشرية، حسب الرسالة.
انتقدت الرسالة الشركات التي تعمل في مجال الذكاء الاصطناعي، مشيرة إلى أن لديها دوافع مالية قوية تدفعها للمضي قدمًا في عمليات التطوير دون الكشف عن المعلومات المتعلقة بإجراءات الحماية التي تعتمدها ومستويات الخطر المرتبطة بتلك العمليات.
وجاء في الرسالة: “نحن نعتقد أن الاعتماد على الشركات للمبادرة الذاتية في مشاركة هذه المعلومات غير كفء”.
حذر الموظفون من الاتفاقيات الصارمة والسرية المفروضة على الموظفين من قبل الشركات، والتي تعوق قدرتهم على التعبير عن مخاوفهم. وأكدوا دور الموظفين الحاليين والسابقين في كشف هذه الأخطار في ظل غياب رقابة حكومية فعالة على هذه المؤسسات.
يُطالب الرسالة شركات الذكاء الاصطناعي بتوفير حماية فعالة للموظفين الذين يبلغون عن مخاطر تطوير التكنولوجيا الذكية، وعدم فرض اتفاقيات تمنع تقديم الانتقادات البناءة، بالإضافة إلى توفير آليات موثوقة للتبليغ عن المخاوف إلى الإدارة والهيئات التنظيمية بحفظ السرية التجارية.
طالب الموظفون الشركات أيضاً بعدم اتخاذ إجراءات انتقامية ضد الموظفين الذين يكشفون معلومات سرية حول المخاطر المتعلقة بتطوير الذكاء الاصطناعي بعد فشل كل السبل الأخرى.