قامت الهيئة الإيطالية لحماية البيانات بإبلاغ شركة OpenAI بأن روبوت الدردشة الذكي ChatGPT يعتدي على قوانين حماية البيانات الأوروبية. قد تم إجراء التحقيق من قبل الهيئة واستغرق عدة أشهر في روبوت الدردشة ذي الذكاء الاصطناعي.
ذكرت الهيئة الإيطالية لحماية البيانات في بيان جديد توصيات أولية تتعلق بخرق القانون الأوروبي، وتأتي هذه التوصيات في الوقت الذي تواصل فيه الهيئة تقدمها في التحقيق الذي بدأته في العام الماضي.
تُعَد الهيئة المعروفة باسم “غارانتي” واحدة من الهيئات المبدِتة في الاتحاد الأوروبي، وذلك في تقييم امتثال منصة الذكاء الاصطناعي لنظام خصوصية البيانات في المجموعة.
تم منع ChatGPT العام الماضي من قبل الهيئة بسبب ادعاءات انتهاك قواعد الخصوصية في الاتحاد الأوروبي.
سمحت الهيئة لروبوت الدردشة بالعودة إلى العمل بعد حل OpenAI لمشاكل تتعلق بحق العملاء في رفض الموافقة على استخدام الشركة للمعلومات الشخصية لتدريب خوارزمياتها.
أشارت الهيئة التنظيمية في ذلك الوقت إلى استمرار تجريباتها، وأعلنت في بيان جديد أنها قد وصلت إلى استنتاجات تظهر احتمال وجود انتهاكات لخصوصية البيانات، دون توضيح تفاصيل أكثر.
قالت الجهة المسؤولة Garante إنه يتم منح OpenAI، الشركة التي تحظى بدعم مايكروسوفت، فرصة مدتها 30 يوماً لتقديم حجج الدفاع. واضافت أن تحقيقاتها تأخذ في الاعتبار الجهود التي تمت من قبل فرقة العمل الأوروبية المكونة من هيئات مراقبة الخصوصية الوطنية.
وكانت إيطاليا أول دولة في أوروبا الغربية التي قامت بتقييد ChatGPT بعد أن لفت انتباه المشرعين والمنظمين بتطورها السريع.
يتعرض أي شركة تخالف القواعد لعقوبات تصل إلى 20 مليون يورو، أو 4٪ من إجمالي مبيعاتها العالمية، بموجب القوانين العامة لحماية البيانات في الاتحاد الأوروبي.
وبإمكان سلطات الحماية المعلوماتية أن تصدر أوامر تتطلب اتخاذ تعديلات على طريقة معالجة البيانات بهدف منع التجاوزات المؤكدة.
بسبب ذلك، قد يتوجب على OpenAI تغيير نهج عملها أو سحب خدماتها من الدول الأعضاء في الاتحاد الأوروبي نظرًا لرغبة السلطات في فرض تغييرات لا تروق الشركة.
في شهر ديسمبر، وافق المشرعون والحكومات في الاتحاد الأوروبي على شروط مؤقتة لتنظيم أنظمة الذكاء الاصطناعي، مثل ChatGPT، وهذا يدل على اقترابنا من وضع القواعد التي تحكم هذه التكنولوجيا.