جدول المحتويات
في عالم يتسارع فيه تطور الذكاء الاصطناعي بشكل غير مسبوق، يبرز صوت البروفيسور جيفري هينتون، الحائز على جائزة نوبل في الفيزياء لعام 2024، كأحد التحذيرات الأكثر جدية. هينتون، المعروف بلقب “عرّاب الذكاء الاصطناعي”، يجسد التناقض بين كونه رائدًا في هذا المجال، وبين قلقه العميق من المخاطر المحتملة التي قد تنجم عن الابتكارات التي ساهم في تطويرها.
هينتون: من المُبدع إلى المُحذر
في حوار مثير للقلق مع شبكة سي بي إس نيوز، أعرب هينتون عن شعوره الغريب بالارتياح لبلوغه سن السابعة والسبعين، مشيرًا إلى أن تقدمه في العمر قد يحميه من رؤية العواقب الوخيمة للتقدم في الذكاء الاصطناعي. فبينما كان هينتون في طليعة ثورة التعلم العميق، أصبح الآن أحد أبرز المحذرين من المخاطر المرتبطة به.
يشبه هينتون الذكاء الاصطناعي بالـ “شبل النمر اللطيف” الذي نربيه اليوم، دون أن ندرك أنه قد يتحول إلى خطر يهدد وجودنا غدًا. يقول: “عندما تصبح الآلة أذكى منك، ستعرف كيف تتلاعب بك”، مما يسلط الضوء على المعضلة الأساسية التي تواجه البشرية في عصر التكنولوجيا المتقدمة.
التحديات المستقبلية
يُشير هينتون إلى أن الذكاء الاصطناعي الفائق قد يتحقق خلال عقد أو أقل، وهو تقدير أكثر تشاؤمًا مما كان يتوقعه سابقًا. ويعبر عن قلقه من ظاهرة “وكلاء الذكاء الاصطناعي”، تلك البرمجيات القادرة على تنفيذ مهام معقدة بشكل مستقل، والتي يراها أكثر إثارة للقلق. ورغم صعوبة التنبؤ بدقة، يُقدّر هينتون احتمالية حدوث سيناريو “سيطرة الآلة” بنحو 10 إلى 20%.
كما يعبر عن خيبة أمله من الشركات الكبرى، مثل جوجل، التي انتقل إليها بعد استقالته، موضحًا تراجعه عن موقفها المعارض لاستخدام الذكاء الاصطناعي في التطبيقات العسكرية. ويقول: “لن أكون سعيدًا بالعمل لدى أي منها اليوم”.
التنافس المحموم ونتائجه
يتناول هينتون التنافس بين الدول والشركات الكبرى، الذي يجعل من الصعب تقريبًا إيقاف تطوير الذكاء الفائق. في ظل هذه الظروف، يصبح السؤال الجوهري الذي يطرحه: “هل بإمكاننا تصميم الذكاء الاصطناعي بطريقة تجعله لا يرغب أبدًا في السيطرة؟”، وهو سؤال قد يحدد مصير البشرية في العقود القادمة.
خاتمة
إن التحذيرات التي أطلقها البروفيسور جيفري هينتون تعكس القلق المتزايد لدى الخبراء حول مستقبل الذكاء الاصطناعي. ومع تزايد الابتكارات والتطورات في هذا المجال، يصبح من الضروري أن يتخذ المجتمع الدولي خطوات جادة لضمان تطوير هذه التقنية بشكل آمن ومسؤول. يجب أن يكون الحوار مستمرًا بين العلماء والمطورين وصناع القرار لضمان أن يبقى الذكاء الاصطناعي أداة لخدمة البشرية، وليس تهديدًا وجوديًا. إن ما يفعله هينتون اليوم هو دعوة للتأمل والتفكير العميق حول مستقبل نعيشه جميعًا.