لقد لفتت التكنولوجيا الحديثة للذكاء الاصطناعي التوليدي اهتماماً كبيراً منذ ظهورها في نهاية العام الماضي، وبسرعة فائقة أصبحت هذه التقنية محط أنظار الجهات التنظيمية في جميع أنحاء العالم، وفقاً للأدلة والأخبار الحالية، يبدو أن قطاع الذكاء الاصطناعي قد يتطور ليصبح الأكثر تنظيماً بين قطاعات التكنولوجيا.
في مختلف أنحاء العالم ، يعمل المشرعون على دراسة الخيارات المتاحة أمامهم لوضع قواعد لإدارة تكنولوجيا الذكاء الاصطناعي وتنظيم بعض استخداماته المثيرة للقلق والمخاوف. ويبدو أن الاتحاد الأوروبي سيكون أول منطقة تطبق نظامًا للرقابة والتنظيم في مجال التكنولوجيا الذكية الاصطناعية.
المنطقة العربية
على الرغم من عدم تقديم أي دولة عربية قوانين أو إطار قانوني يحدد أو ينظم استخدام الذكاء الاصطناعي بشكل فعلي، إلا أن هناك نشاطًا تشريعيًا يتمثل في دراسة استخدام التقنية بشكل أفضل وعلى نطاق أوسع، مع دراسة المزايا المتوقعة والمخاطر المحتملة لها. سُمح لدولة الإمارات العربية المتحدة بأن تكون الأولى عالميًا في إنشاء وزارة للذكاء الاصطناعي، بالإضافة إلى مجلس وبرنامج وطنيين للذكاء الاصطناعي، واستراتيجية وطنية للذكاء الاصطناعي. وهناك أيضًا هيئة واستراتيجية وطنية في المملكة العربية السعودية تتعلق بالبيانات والذكاء الاصطناعي للبحث عن أفضل طرق استخدامها.
الاتحاد الأوروبي
حاليًا، تواصل المفوضية الأوروبية المفاوضات النهائية بين أعضائها العشرين بشأن قانون الذكاء الاصطناعي المعروف بالقواعد العالمية الأولى للذكاء الاصطناعي. وتشير التوقعات إلى احتمالية التوصل إلى نصٍ نهائي لهذا القانون في العام الحالي، وأنه سيتم تنفيذه في أواخر عام 2025.
تقدم الأعضاء هذا القانون لأول مرة في عام 2021، قبل إطلاق شركة OpenAI أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وDALL-E. سرعان ما قامت شركات تكنولوجية كبيرة مثل ميتا ومايكروسوفت وجوجل بمتابعتها وتنافسها في سباق الريادة في هذا المجال.
تم تحديث مشروع اللائحة الاتحاد الأوروبي في هذا العام، ويتمثل أهم تغيير حاليًا في تصنيف نماذج الذكاء الاصطناعي التوليدي وأدواته إلى فئتين: فئة عالية الخطورة أو غير مقبولة. بشكل عام، تشمل قائمة أدوات الذكاء الاصطناعي المصنفة ضمن فئة عالية الخطورة مقاييس البيومترية لتحديد هوية المستخدمين، وأدوات الذكاء الاصطناعي المستخدمة في مجالات التعليم والقانون وإنفاذ القانون وإدارة شؤون العمال والموظفين.
بناءً على هذا القانون، بإمكان سلطات الاتحاد الأوروبي أن تحظر أدوات الذكاء الاصطناعي التي يراها غير مناسبة، بالإضافة إلى منع استخداماتها المتنوعة. يتضمن ذلك أنظمة التعرف على الهوية الحيوية للمستخدمين أو تقنيات التعرف على الوجوه، ونظام الرصيد الاجتماعي المستخدم لتصنيف الأشخاص حسب طبقتهم الاقتصادية وصفاتهم الشخصية، وأيضًا الممارسات التي تنطوي على التلاعب في السلوك والمعرفة مثل الأدوات التي تعتمد على الذكاء الاصطناعي وتعمل عندما يتحدث المستخدم.
فيما يتعلق بالذكاء الاصطناعي التوليدي، يشترط القانون المقترح الكشف الإجباري عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، بالإضافة إلى الكشف عن البيانات المستخدمة في تدريب نماذج اللغة الضخمة. هذا أمر مهم للغاية؛ حيث لجأت الشركات في الآونة الأخيرة إلى إخفاء مصادر بيانات التدريب التي تم جمعها من الإنترنت وإدخالها في قواعد بياناتها، خاصة بعد زيادة الرقابة والإجراءات القانونية من قبل أصحاب حقوق النشر وصناع المحتوى. بالإضافة إلى ذلك، يتعين على الشركات تقديم أدلة على جهودها في التصدي للمخاطر القانونية قبل إطلاق أدوات ونماذج جديدة من الذكاء الاصطناعي التوليدي، ويجب عليها تسجيل النماذج الرئيسية في قاعدة بيانات تابعة للاتحاد الأوروبي.
الولايات المتحدة الأمريكية
تحاول الولايات المتحدة الأمريكية بجهودها أن تنظم مجال الذكاء الاصطناعي في البلاد؛ حيث أعلن المتحدث الرسمي للبيت الأبيض في سبتمبر الماضي أن “الحكومة الأمريكية تعمل على إصدار مرسوم تنفيذي” حول هذه التكنولوجيا، وهي تعمل حاليًا على إعداد لائحة تنظيمية تم تأليفها بالتعاون بين الأحزاب الجمهورية والديمقراطية في البلاد. ويواصل البيت الأبيض جهوده لاستشارة خبراء الصناعة بشأن هذه المسألة.
في الآتي يتم اجراء جلسة استماع واجتماع سري بين مجلس الشيوخ وقادة شركات التكنولوجيا الكبرى حول الذكاء الاصطناعي، ولكن لم يتم تحقيق أي تقدمات مهمة خلال هذه اللقاءات إلا تواجه مارك زوكربيرج بشأن عرض نموذج Llama 2 الخاص بشركته، والذي يقدم دليلًا مفصلًا حول طريقة تطوير الأورام السرطانية.
من المتوقع أن تؤثر هذه التطورات والجهود التنظيمية على قانون حقوق الطبع والنشر والتوزيع في الولايات المتحدة الأمريكية. وقد أشار مكتب حقوق الطبع والنشر إلى دراسة اتخاذ إجراءات أو قواعد جديدة فيما يتعلق بالذكاء الاصطناعي التوليدي، خاصة في ضوء الجدل العام حول تأثير هذه التكنولوجيا على مختلف قطاعات الأعمال الإبداعية.
المملكة المتحدة
تسعى المملكة المتحدة بكل الجهود لتصبح قوة عالمية في مجال الذكاء الاصطناعي، وتبين ذلك في بحث أصدرته وزارة العلوم والابتكار والتكنولوجيا. على الرغم من إنشاء الهيئات الحكومية “صندوقًا تنظيميًا لتقنية الذكاء الاصطناعي”، إلا أنها لا تنوي تشريع تنظيمي جديد للرقابة عليه، وتعتزم بدلاً من ذلك تقييم هذه التكنولوجيا وأدواتها المختلفة على مر الزمن.
قالت ميشيل دونيلان وزيرة الدولة للعلوم والابتكار والتكنولوجيا: “لا شك أن سرعة تشريع القوانين في وقت مبكر جداً تضع عبئًا ثقيلاً غير مبرر على الشركات تمامًا”. وواصلت دونيلان قائلة: “مع تطور تكنولوجيا الذكاء الاصطناعي، يجب علينا تعديل نهجنا والتشريعات التنظيمية أيضًا”. ومن هذا النحو، ترى المملكة المتحدة أنه من الضروري أن يتم التحلي بالحذر في تشريع تلك القوانين، وتراقب طبيعة التقدم الذي يحدث في مجال الذكاء الاصطناعي.
البرازيل والصين
تتبع البرازيل نهجًا مماثلاً لما يتبعه الاتحاد الأوروبي في تصنيف أدوات الذكاء الاصطناعي واستخداماتها إلى فئات متعددة وفقًا لمدى الخطورة، سواء كانت عالية أو مفرطة. وقد قررت السلطات البرازيلية حظر أي أدوات للذكاء الاصطناعي تصنف ضمن فئة الخطورة المفرطة حسب مشروع قانون تم تحديثه في وقت سابق من هذا العام. وبالإضافة إلى ذلك، تعتزم السلطات البرازيلية تحميل شركات التكنولوجيا المتقدمة لنماذج اللغة الضخمة المسؤولية الكاملة عن أي أضرار قد تنتج عن أنظمة الذكاء الاصطناعي المصنفة ضمن فئة الخطورة العالية.
بالنسبة للصين، فقد قامت السلطات هناك بإقرار بعض اللوائح التنظيمية المرتبطة بتكنولوجيا الذكاء الاصطناعي. خلال السنوات الماضية، وضعت الحكومة قوانين وتشريعات تهم الخوارزميات المستخدمة في توصيات المنتجات للمستخدمين، بالإضافة إلى تكنولوجيا التلاعب العميق. وفي الوقت الحالي، تعمل الحكومة على تنظيم التكنولوجيا الاصطناعية في مجال التوليد. على سبيل المثال، يتطلب المشروع القانوني الجديد أن تكون نماذج اللغة الضخمة والبيانات المستخدمة في تدريبها دقيقة وحقيقية ليتم الموافقة عليها.
لا شك أن هذه الشروط تحول دون توفر أدوات الذكاء الاصطناعي التوليدي للمستهلكين في الصين، فهي عقبة لا يمكن التغلب عليها أمام الروبوتات المدعومة بتكنولوجيا الذكاء الاصطناعي في المحادثة.