ذكرت تقارير أن شركة “OpenAI”، المصنِّعة لروبوت المحادثة الشهير “ChatGPT”، على علم بالمخاطر الكبيرة المرتبطة بإنشاء نظام ذكاء اصطناعي عام “AGI”، لكنها تتجاهل تلك المخاطر.
يعتبر “الذكاء الاصطناعي العام AGI” نوعًا نظريًا من الذكاء الاصطناعي، يتميز بقدرته على الفهم والتفكير عبر مجموعة متنوعة من المهام. هذه التكنولوجيا تهدف إلى محاكاة أو التنبؤ بالسلوك البشري، وتبرز قدرتها على التعلم والتفكير.
قال الباحث دانييل كوكوتايلو، الذي غادر فريق الحوكمة في “أوبن إيه آي” في أبريل الماضي، في مقابلة مع “نيويورك تايمز”، أن هناك احتمالا بنسبة 70٪ أن يتسبب “الذكاء الاصطناعي المتقدم” في تدمير البشرية، إلا أن الفريق المطور (الذي يتخذ من سان فرانسيسكو مقرا له) يستمر في المضي قدما في هذا المسار دون اعتبار لهذا الاحتمال.
وأضاف أن شركة “OpenAI” متحمسة للغاية لتطوير الذكاء الاصطناعي العام وتسعى لتكون الرائدة في هذا المجال. وأشار إلى أنه منذ انضمامه للشركة قبل عامين تم تكليفه بالتنبؤ بتقدم التكنولوجيا، وأنه توصل إلى استنتاج أن الصناعة لن تحقق فقط تطوير الذكاء الاصطناعي العام بحلول عام 2027، بل إن هناك احتمال كبير بأن هذه التكنولوجيا قد تسبب أضراراً كارثية للبشرية أو حتى تدميرها.
صرّح كوكوتايلو بأنه أبلغ الرئيس التنفيذي لشركة “OpenAI”، سام ألتمان، بضرورة أن تركز الشركة على “السلامة” وأن تستثمر المزيد من الوقت والموارد في مواجهة المخاطر التي يمثلها الذكاء الاصطناعي بدلاً من الاستمرار في تحسين ذكائه. وأضاف أن ألتمان وافقه على ذلك، لكن لم يحدث أي تغيير منذ ذلك الحين.
يُعتبر كوكوتايلو جزءًا من مجموعة من المطلعين على “OpenAI”، الذين نشروا مؤخرًا رسالة مفتوحة يدعون فيها مطوري الذكاء الاصطناعي إلى تحقيق شفافية أكبر وزيادة الحماية للمبلغين عن المخالفات.
دافعت شركة “OpenAI” عن سجلها في السلامة في وجه الانتقادات من الموظفين والتدقيق العام، مؤكدة أنها تفخر بتاريخها في تقديم أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانًا، وتؤمن باتباع نهج علمي لمعالجة المخاطر.