سلطت الأخطاء التي ظهرت مؤخرًا في نموذج الذكاء الاصطناعي “جيميناي” التابع لشركة “غوغل” الضوء على تساؤلات متعلقة بمستقبل البيانات والصور، وحجم السيطرة التي قد تمتلكها هذه الأنظمة على “الذاكرة العامة” المتوقعة للإنسانية. وقد أعرب بعض المختصين عن تقديرهم لمبادرة “غوغل” في الاعتراف بأخطائها وإعلان نيتها بتصحيحها. في الوقت نفسه، حذر هؤلاء الخبراء من “أهمية اليقظة تجاه مخاطر الذكاء الاصطناعي وتأثيره على نحت صورة تاريخ البشرية”.
قال الرئيس التنفيذي لـ”جوجل”، سوندر بيتشاي، مؤخرًا إنه حدثت أخطاء وصفها بأنها “مرفوضة جدًا”، ارتُكبت من قبل تطبيق “جيميناي” للذكاء الصناعي، الذي “أنتج صورًا لجنود نازيين من مختلف الأعراق، كما أنتج صورًا غير صحيحة من الناحية التاريخية تُظهِر انتخاب امرأة أمريكية من أصل أفريقي عضوًا في مجلس الشيوخ في القرن التاسع عشر، الأمر الذي لم يحدث في الواقع حتى العام 1992″، وهو ما أثار ضجة وانتقادات في منصات التواصل الاجتماعي، وسط مخاوف من تأثير الشركات الكبرى في مجال التكنولوجيا على مستقبل المعلومات. من جهته، اعترف سيرغي برين، الشريك المؤسس لشركة “جوجل”، بـ “وقوع أخطاء في عملية إنشاء الصور”، وقال خلال “هاكاثون” للذكاء الصناعي تم إجراؤه مؤخرًا: “كان يجب على الشركة أن تختبر برنامج (جيميناي) بطريقة أكثر شمولية”، حسبما ذكرت “وكالة الأنباء الفرنسية”.
تمتدح الخبيرة في مجال الإعلام الحديث والذكاء الاصطناعي وأستاذة الإعلام والاتصالات، اللبنانية سالي حمود، قدرة تطبيقات الذكاء الاصطناعي على الاعتراف بالأخطاء ومحاولة تصحيحها. لكنها في الوقت ذاته، تنبه إلى مخاطر سيطرة الشركات الكبيرة في مجال التكنولوجيا على البيانات. وصرحت حمود في حديث لجريدة “الشرق الأوسط” بأن موضوع مخاطر الذكاء الاصطناعي وتأثيراته على البيانات والذاكرة الجماعية ليست بالمسألة الجديدة؛ ولكنها برزت بقوة مؤخراً مع تسهيل وصول تطبيقات الذكاء الاصطناعي للجمهور وظهورها بشكل واضح. كما أضافت أن البيانات المتوفرة عبر الإنترنت تشكل الذاكرة الجماعية للأشخاص وتتحول بمرور الوقت إلى معلومات يعتبرها البعض وقائع، حتى وإن لم تكن كذلك. وتلفت الانتباه إلى مدى خطورة البيانات المنتشرة على الإنترنت، خصوصاً وأنها تؤسس الخوارزميات التي تنتج في النهاية النتائج التي تقدمها تطبيقات الذكاء الاصطناعي. وتشدد على أن دقة المعلومات هي مسؤولية الأشخاص القائمين على برمجة هذه الخوارزميات وإمداد الإنترنت بالبيانات.
أشارت حمود إلى أن البشر يمتلكون تحيزاتهم وقيمهم ومعارفهم الخاصة، و هذا يؤثر حتماً في نوع المعلومات التي يعملون على توزيعها وإنتاجها. وقدمت مثالاَ على ذلك، بأن البرمجيات القائمة على الذكاء الاصطناعي تتأثر بهذه التحيزات الإنسانية، وغالبا ما تظهر تفضيلات للرجل الأبيض. وطالبت بضرورة الحرص على نشر المعلومات الدقيقة على الشبكة العنكبوتية، والتأكيد على الثقافة والهوية العربية، لمقاومة سيطرة الشركات الغربية في المجالات المعلوماتية والتكنولوجية.
وفقاً للمراقبين، تُدرّب تطبيقات الذكاء الاصطناعي باستعمال كميات ضخمة من البيانات بهدف توظيفها في مجالات عدة، كتكوين الصور أو الأصوات أو حتى النصوص، وأحياناً تُستخدم هذه التطبيقات في التشخيصات الطبية. ويُشير المراقبون إلى أن الذكاء الاصطناعي قد يُنشئ بيانات وصوراً تستند إلى إنترنت يعج بالتحيزات والمعلومات المُزيّفة والمُضلِّلة، مما يُرجِح تكرار هذه البيانات غير الدقيقة في إنتاج صور ومعطيات قد تؤثر في تاريخ البشرية ومستقبلها. ووفقاً لمسؤولي “غوغل”، فإنه كانت هناك محاولات لإحداث توازن في خوارزميات “جيميناي” بهدف إظهار نتائج تعبر عن التنوع البشري، لكن المحصلة كانت نتائج سلبية. فالتشديد على التنوع قد أوجد التطبيق صوراً لجماعات نازية مُتنوعة ومتعددة الأعراق وذلك بخلاف الحقائق التاريخية.
يُشير محمد الصاوي، المُتخصص المصري في مجال الإعلام الرقمي، إلى أن “تأثير التطورات في مجال الذكاء الاصطناعي على مآلات البيانات يتوقف على مدى تمكن الشركات الرائدة كشركة (غوغل) من ضبط آليات الذكاء الاصطناعي واستغلالها في خلق المعلومات وتوجيهها”، مبيناً “أن هذه الشركات، بتطبيقها حلولاً تعتمد على الذكاء الاصطناعي بشكل موسع، تمارس نفوذاً جلياً على مسار تدفق المعلومات وطريقة تفاعل المستخدمين مع الواقع”. وفي حديث له مع “الشرق الأوسط” ذكر “أن تجارب مثل تلك التي خاضتها (غوغل) تبين كيف يمكن أن تقع تلك التقنيات في الخطأ وتؤثر بالتالي على المعرفة وفهم الناس للتاريخ والوقائع”، لافتاً إلى أن “الصور المغلوطة والمعلومات المشوهة تستطيع الانتشار بشكل سريع وأن لها تأثيراً سلبياً على الثقة في البيانات التي يعتمدها الأفراد في اتخاذ قراراتهم”.
يقترح الصاوي كتدبير لمجابهة هذه المعضلة أن تسعى الحكومات والهيئات الرقابية إلى إرساء إطار تشريعي يرسم معايير والتزامات الشركات التقنية فيما يخص إنتاج وتوزيع المعلومات، وذلك من خلال فرض متطلبات مشددة للنزاهة والتدقيق المستقل للخوارزميات المستعان بها في مجال الذكاء الاصطناعي، مع تعزيز الابداع في سبيل ابتكار أساليب تصحيح الأخطاء وُتطوير نوعية البيانات والمعلومات التي تقوم بها هذه الخوارزميات.
منذ أن أتاحت شركة “أوبن إي آي” استخدام روبوت “تشات جي بي تي” للتحاور في شهر نوفمبر من عام 2022، اندلعت مناقشات حول استعمال تقنيات الذكاء الاصطناعي وتأثيرها على القطاعات المختلفة بما في ذلك الصحافة. جاء ذلك بعد أن لفتت العديد من الدراسات إلى مخاطر هذه التقنيات، الأمر الذي حثّ حكومات دول متعددة على محاولة وضع أنظمة للحد من توسعها.
في شهر مارس (آذار) لعام 2023، دعا أكثر من ألف خبير في مجال التقنية إلى «توقف مؤقت لمدة ستة أشهر يهدف إلى التوصل إلى إتفاق حول إقرار قوانين للحكم الرقمي». وعلى إثر هذا النداء، بدأ عدد من المشرعين في أوروبا بصياغة تشريعات جديدة ذات صلة بهذا الموضوع. من وقت لآخر، تقوم بعض الدول بحظر تطبيقات معينة من تطبيقات الذكاء الاصطناعي بحجة «الحفاظ على البيانات»، كما قامت به إيطاليا في شهر أبريل (نيسان) من عام 2023. ويثير استخدام تكنولوجيا الذكاء الاصطناعي الكثير من المخاوف المتعلقة بتوزيع «المعلومات المضللة» و«خرق الخصوصية»، مما دفع العديد من الدول إلى سن قوانين لحكمها ووضع قيود على استخدامها. ومن أجل التغلب على الميول والمعلومات «المغلوطة»، يحث الخبراء والمراقبون على «تعزيز التنوع في الفِرق التي تشرف على تطوير وتزويد تطبيقات الذكاء الاصطناعي»، وذلك متزامناً مع «زيادة الوضوح حول كيفية عمل خوارزمياتها بهدف تحسين جودة البيانات التي تقدمها هذه التطبيقات».
في النهاية، يسير العالم نحو تنظيم استخدام الذكاء الاصطناعي، وقد توصل الاتحاد الأوروبي في ختام العام الذي مضى إلى اتفاق يعد “أول تشريع متكامل لتنظيم الذكاء الاصطناعي”، يهدف إلى “تأمين سلامة السوق الأوروبية”، إلى جانب “دعم الاستثمارات وتشجيع الابتكار في مجال تطوير وتيسير استخدام أدوات الذكاء الاصطناعي”. ومن المنتظر أن يبدأ تطبيق هذه الاتفاقية في العام 2025.