في الأوساط التكنولوجية، يُعرف جيفري هينتون باعتباره رائد الذكاء الاصطناعي.
حديثا أجرى مقابلة مع برنامج 60 Minutes لمناقشة المخاطر المحتملة التي قد تواجه البشرية بسبب التقدم في هذا المجال، خاصة مع سباق شركات التكنولوجيا العملاقة نحو تطوير مساعدي الذكاء الاصطناعي وروبوتات المحادثة الآلية.
هينتون الحائز على جائزة تورينج في مجال أبحاثه المتقدمة، يروي توقعاته بأن الذكاء الاصطناعي سيصبح قوى عظمى يمكنه التفوق على البشر والتحكم بهم.
وفي حديثه، قال هينتون: “أعتقد أننا قد نصل إلى مرحلة تواجه فيها كيانات أكثر ذكاءً منا بكثير”، مضيفاً رسالة إلى موقع Insider حيث حث البشر على “القلق بشدة” من تطورات الذكاء الاصطناعي.
بلا شك، أثار الذكاء الاصطناعي توليدي الكثير من الجدل خلال الفترة الماضية، محققاً إما الثناء الكبير وإما المقاومة الواسعة. وتصاعد الجدل بشأن هذه التكنولوجيا بعد ظهور صور ومقاطع فيديو أنشأها أشخاص باستخدام الذكاء الاصطناعي لشخصيات عامة، التي بدت للوهلة الأولى حقيقية للغاية، ما أدى إلى خداع الكثيرين.
هينتون يشير إلى الوضع الحالي للذكاء الاصطناعي، مشيراً إلى نقص الوعي الذاتي الذي يمكنه استخدام قدراته الكاملة للتحكم في البشر. وفيما يتعلق بسيطرته على العالم وحكمه، يعترف بأن هذا “احتمال محتمل بالتأكيد”.
ويرى هينتون أن الذكاء الاصطناعي سيكون تهديداً حقيقياً في غضون 5-20 سنة، مع اعترافه بأنه قد يتطلب وقتا طويلا حتى يشكل تهديداً فعلياً على البشرية بأسرها، معتبراً “ممكناً أيضاً أن لا يتم تحقيق هذه التهديدات في الواقع”.
وبخصوص المخاطر الأخرى لاستخدام الذكاء الاصطناعي، فإنها تشمل استبدال العمال وانتشار الأخبار الكاذبة وتحيز غير مقصود في أدواته المختلفة. وهينتون يشبه آلية عمل الذكاء الاصطناعي بشبكة الدماغ العصبية للإنسان، ويعتبر أن نظم الذكاء الاصطناعي أكثر فعالية من العقل البشري في التعلم على الرغم من أن روبوتات المحادثة الآلية تحتوي فقط على تريليون وحدة اتصال مقارنة بـ 100 تريليون وحدة في دماغ الإنسان.
بشكل عام، عمل هينتون لمدة عشر سنوات في شركة جوجل قبل أن يعتزل هذا العام. وقد أعرب سابقاً عن ندمه لدوره في تطوير الذكاء الاصطناعي، ومع ذلك، فإنه يقول أنه ليس نادماً على الايجابيات التي يمكن أن توفرها هذه التكنولوجيا للناس.
في ختام حديثه، قال هينتون: “أحاول مواساة نفسي بالمبرر الوجيه، فأقول إذا لم آل إلى تطوير هذه التكنولوجيا، لكان شخص آخر سيفعل ذلك. وبعض الأحيان، قد يكون من الصعب فعلياً فهم كيفية منع الأطراف الشريرة من استخدام هذه التكنولوجيا لأغراضها الشريرة”.