جدول المحتويات
في خطوة استراتيجية لتعزيز سلامة وموثوقية تقنيات الذكاء الاصطناعي الخاصة بها، أعلنت شركة أوبن إيه آي عن شراكة مع معهد سلامة الذكاء الاصطناعي الأمريكي. ستمنح هذه الشراكة الجهة الحكومية وصولاً مبكراً إلى النموذج الأساسي التالي من Openai ChatGPT-5، مما يؤكد الالتزام المتجدد بسلامة الذكاء الاصطناعي. أُعلن عن ذلك من قبل الرئيس التنفيذي لأوبن إيه آي، سام ألتمان، في منشور حديث على منصة “X”، مسلطاً الضوء على تفاني الشركة في ضمان أن تكون النماذج الناشئة من الذكاء الاصطناعي آمنة ويمكن الوثوق بها قبل إصدارها للجمهور.
نطاق الشراكة
تأسس معهد سلامة الذكاء الاصطناعي الأمريكي تحت مظلة المعهد الوطني للمعايير والتكنولوجيا (NIST) وتم تكليفه بوضع إرشادات ومعايير لسلامة الذكاء الاصطناعي. كجزء من هذه الشراكة، سيقوم المعهد باختبار وتقييم ChatGPT-5 بدقة لتحديد وتخفيف المخاطر المحتملة في وقت مبكر من عملية التطوير. يتماشى هذا مع الأهداف الأوسع التي حددها الرئيس جو بايدن في أمره التنفيذي حول الذكاء الاصطناعي، والذي يهدف إلى تعزيز أمان ونشر الذكاء الاصطناعي بطريقة أخلاقية.
معالجة الانتقادات السابقة
تأتي هذه الشراكة في وقت حرج لأوبن إيه آي، التي واجهت تزايد التدقيق حول بروتوكولات السلامة الخاصة بها. في وقت سابق من هذا العام، قامت أوبن إيه آي بحل فريق “Superalignment” الذي كان مكرساً لضمان توافق نماذج الذكاء الاصطناعي مع النوايا البشرية وعدم تصرفها بشكل غير متوقع. أدى حل هذا الفريق إلى مغادرة شخصيات رئيسية مثل يان ليك وإيليا سوتسكيفر، اللذان كانا محوريين في جهود البحث الأولية للشركة حول السلامة.
أعرب النقاد، بمن فيهم الموظفون السابقون، عن مخاوفهم من أنOpenai قد أعطت الأولوية لتطوير المنتجات السريع على حساب إجراءات السلامة الشاملة. رداً على هذه الانتقادات، أكد ألتمان على التزام الشركة المستمر بسلامة الذكاء الاصطناعي، متعهداً بتخصيص ما لا يقل عن 20% من موارد الشركة الحوسبية لأبحاث السلامة، وهو وعد أعاد تأكيده في اتصالاته الأخيرة.
تعزيز الشفافية والمساءلة
في محاولة لتعزيز بيئة عمل أكثر انفتاحاً ومسؤولية، قامت أوبن إيه آي أيضاً بإزالة بنود منع الانتقادات من عقود موظفيها. تهدف هذه الخطوة إلى تشجيع الموظفين الحاليين والسابقين على التعبير بحرية عن مخاوفهم دون خوف من الانتقام، مما يعزز الشفافية العامة لعمليات الشركة.
السياق التنظيمي والتشريعي
تأتي الشراكة مع معهد سلامة الذكاء الاصطناعي الأمريكي كجزء من استراتيجية أوسع للتماشي مع المعايير التنظيمية وتشكيل مستقبل حوكمة الذكاء الاصطناعي. دعمت أوبن إيه آي قانون مستقبل الابتكار في مجلس الشيوخ، الذي يهدف إلى تمكين معهد سلامة الذكاء الاصطناعي من وضع لوائح اتحادية لسلامة الذكاء الاصطناعي. يرى البعض أن هذه الجهود التشريعية محاولة للتأثير على المشهد التنظيمي لصالح أوبن إيه آي، بالنظر إلى الزيادة الكبيرة في جهود الشركة للضغط، حيث أنفقت 800,000 دولار في النصف الأول من عام 2024 مقارنة بـ 260,000 دولار في عام 2023 بأكمله.
نظرة مستقبلية
سيتم الحكم في نهاية المطاف على فعالية هذه الشراكة بناءً على سلامة وموثوقية نماذج الذكاء الاصطناعي التي ستخرج منها. مع استمرار دمج الذكاء الاصطناعي في مختلف جوانب الحياة اليومية، تظل الموازنة بين السلامة والربحية مصدر قلق حيوي. يهدف إشراك جهة مستقلة للسلامة في عملية التقييم إلى توفير ضمان أكبر بأن أدوات الذكاء الاصطناعي آمنة وموثوقة، مما يعالج المخاوف المتزايدة حول خصوصية البيانات، والتحيز، والاستخدام المحتمل للذكاء الاصطناعي بطرق غير سليمة.
باختصار، يمثل تعاون أوبن إيه آي مع معهد سلامة الذكاء الاصطناعي الأمريكي خطوة هامة نحو تعزيز سلامة تقنيات الذكاء الاصطناعي. من خلال التفاعل الاستباقي مع الهيئات التنظيمية ومعالجة الانتقادات الداخلية والخارجية، تهدف أوبن إيه آي إلى استعادة الثقة وقيادة الصناعة في تطوير الذكاء الاصطناعي بشكل مسؤول.