فيما كان المستثمرون يستعدون لحدوث اضطراب كبير بعد إقالة سام ألتمان بشكل مفاجئ من شركة أوبن إي.آي، وفي حين كان ألتمان يخطط للعودة إلى الشركة، كان فريق Superalignment في أوبن إي.آي يعمل بجد على حل مشكلة كيفية التحكم في الذكاء الاصطناعي الذي يفوق ذكاء البشر او على الأقل، هذا هو الانطباع الذي يتمنون أن يعبروا عنه.
هذا الأسبوع، تم إجراء محادثة هاتفية مع ثلاثة أعضاء من فريق Superalignment – كولين بيرنز وبافيل إزمايلوف وليوبولد آشنبرينر – الذين كانوا متواجدين في نيو أورليانز لحضور NeurIPS، المؤتمر السنوي لتعلم الآلة، لتقديم أحدث أعمال OpenAI للضمان بأن أنظمة الذكاء الاصطناعي تتصرف وفقًا للنوايا التي يقصدها.
أطلقت OpenAI فريق Superalignment في شهر يوليو للعمل على تطوير أساليب لتوجيه وتنظيم وإدارة أنظمة الذكاء الاصطناعي “فائقة الذكاء”، أي الأنظمة النظرية التي تتمتع بمستوى عالٍ من الذكاء يفوق ذكاء البشر بكثير.
قال بيرنز: “في الوقت الحاضر، يمكننا بشكل أساسي مضاهاة النماذج الأقل ذكاءً منا، أو حتى الوصول إلى مستوى الذكاء البشري في أفضل الحالات. أما مضاهاة نموذج أذكى منا في الواقع، فهو أمر غير واضح بكثير – كيف يمكننا تحقيق ذلك حتى؟”
يتقدم إيليا سوتسكفر، المؤسس المشارك والرئيس العلمي لشركة OpenAI، بجهوده في قيادة فريق Superalignment. هذا لم يكن مفاجئا في يوليو، ولكنه مفاجئ الآن بالفعل، خاصة في ضوء حقيقة أن سوتسكفر كان من بين الأشخاص الذين سعوا في البداية لإقالة ألتمان. في حين أن بعض التقارير تشير إلى أن سوتسكفر في حالة من الارتباك بعد عودة ألتمان، فإن العلاقات العامة في OpenAI تؤكد أن سوتسكفر لا يزال يقود فريق Superalignment، على الأقل حتى الآن.
أثناء دعوة التمان إلى إجراء مقارنات بين OpenAI ومشروع مانهاتن، قام بتشكيل فريق لاستكشاف نماذج الذكاء الاصطناعي لحماية نفسه من “التهديدات الكارثية” ، مثل التهديدات الكيميائية والنووية. ويقول بعض الخبراء إن هناك قليل من الأدلة التي تشير إلى أن تقنية الشركة الناشئة ستتفوق على الذكاء البشري قريبًا أو على الإطلاق. وأضاف هؤلاء الخبراء أن ادعاءات الذكاء الفائق تهدف فقط إلى إلغاء الانتباه عن القضايا الملحة للتنظيم الذكي في يومنا هذا ، مثل التحيز الخوارزمي وميل الذكاء الاصطناعي للسمية.
يبدو أن سوتسكفر يعقد إيماناً صادقاً بأن الذكاء الاصطناعي، بما في ذلك OpenAI بمثابة فريق بحثي، قد يمثل تهديدًا لوجود البشرية في المستقبل. يبدو أنه اتخذ إجراءات رمزية جادة، حيث قام بتكليف صنع تمثال خشبي ثم قام بحرقه في موقع خارج شركته، وذلك لإظهار التزامه الشخصي بمنع الضرر الذي قد يتعرض له البشرية بسبب الذكاء الاصطناعي. وبالإضافة إلى ذلك، يبدو أنه يستخدم نسبة عالية من قدرات الحوسبة في OpenAI – تصل إلى 20% من وحدات المعالجة المركزية الحالية – في أبحاث فريق Superalignment.
وقال آشنبرينر: “تقدم الذكاء الاصطناعي حدث بسرعة كبيرة مؤخرًا، وأنا أشدد على أنه لن يتباطأ. أرى أننا قريبًا جدًا سنصل إلى نظم تكنولوجية تكاد تكون على مستوى الذكاء البشري، ولكن لن يتوقف التطور هنا – سيكون لدينا نظم ذكاء فائقة مباشرة… فكيف يمكننا المواكبة مع هذه النظم الذكية فائقة الذكاء وجعلها آمنة؟ إنها حقًا مشكلة تواجه البشرية بأكملها – ربما تكون أهم مشكلة تقنية لم تُحل في عصرنا.”