جدول المحتويات
في عالم الذكاء الاصطناعي، أثارت شركة أنثروبيك، المطورة لنموذج كلود، جدلًا كبيرًا حول مدى حيادية الروبوتات المحادثة. السؤال المطروح هو: ما مدى إمكانية أن تكون هذه الأنظمة محايدة حقًا؟ وكيف يمكن قياس هذه الحيادية؟ في هذا السياق، أصدرت الشركة تقريرًا شاملًا مصحوبًا باختبار مفتوح المصدر يقارن التحيز السياسي لعدة نماذج، بما في ذلك كلود، وجمني، وغروك، وChatGPT، ولاما. تأتي هذه الأداة في وقت حرج، حيث قامت الولايات المتحدة بتشديد قواعدها بشأن الذكاء الاصطناعي بعد إصدار أمر تنفيذي من الرئيس ترامب يمنع استخدام الأنظمة ذات التحيز السياسي في الوكالات الفيدرالية.
اختبار لقياس “الحيادية” لم يتمكن أحد من توحيده
تقوم الأداة الجديدة من أنثروبيك بقياس ما تسميه الحيادية، وهي مقاربة لفهم الحيادية السياسية، وتتناول ثلاثة جوانب رئيسية:
- قدرة الروبوت المحادثة على تمثيل وجهات نظر مختلفة بشكل متوازن.
- مدى تكرار تجنبها للإجابة على الأسئلة الحساسة.
- كيفية توزيع حججها بين التيارات الفكرية المختلفة.
تستخدم المنهجية المعروفة باسم الأسئلة المقارنة، حيث تقارن بين إجابات متوازية وتقيّم الميل نحو المواقف التقدمية أو المحافظة أو الليبرالية. كما قامت أنثروبيك بنشر الكود البرمجي على GitHub، مما يتيح لأي شخص تدقيقه أو تعديله أو اقتراح مقاييس جديدة.
تهدف هذه الخطوة إلى فتح النقاش، حيث تعترف الشركة بوجود غياب للتوافق العالمي حول ما يعنيه “التحيز السياسي” في الذكاء الاصطناعي. قد تبدو نفس الإجابة متوازنة لبعض المستخدمين ومتحيزة لآخرين، مما يجعل هذه المسألة معقدة للباحثين والمشرعين.
النتائج: جمني وغروك يثيران الدهشة، وChatGPT يتخلف
وفقًا للبيانات التي جمعتها Axios من الدراسة، فإن مستويات الحيادية لكل نموذج هي كما يلي:
- جمني 2.5 برو (جوجل): 97%
- غروك 4 (xAI): 96%
- كلود أوبوس 4.1 (أنثروبيك): 95%
- كلود سونيت 4.5: 94%
- ChatGPT (OpenAI): 89%
- لاما 4 (ميتا): 66%
النتيجة الأكثر إثارة للاهتمام هي أن غروك حصل على درجة أعلى من كلود، على الرغم من أن إيلون ماسك اتهم مرارًا نماذج أخرى بوجود تحيز “تقدمي”. ومع ذلك، لا تزال الدراسات الخارجية تصنف غروك في الربع الليبرالي/الليبرالي الحر، وإن كان بشكل يميني قليلاً مقارنة بـ ChatGPT أو جمني.
نقاش سياسي مقنع بزي تقني
تتزامن نشر الأداة مع مناخ تنظيمي متوتر للغاية في الولايات المتحدة. حيث يحظر الأمر التنفيذي 14319، الذي وقعه ترامب في يوليو 2025، على الوكالات الفيدرالية والمقاولين استخدام أنظمة الذكاء الاصطناعي التي تتضمن “عقائد أيديولوجية”، مشيرًا بشكل خاص إلى مبادئ التنوع، والإنصاف، والشمول باعتبارها “أيديولوجية مدمرة”.
يتطلب الأمر أن تعطي النماذج الأولوية لـ:
- الدقة التاريخية
- البحث العلمي
- الحيادية القابلة للتحقق
لكن هناك مشكلة: لم يتم تحديد المقاييس التي يجب استخدامها لقياس ذلك. النتيجة هي حالة من الغموض التنظيمي حيث تحاول الشركات تخمين ما يفهمه الحكومة عن “الحيادية”.
في الوقت نفسه، تتجه دول أخرى في اتجاه مغاير. الصين أطلقت مؤخرًا حملة للسيطرة على الذكاء الاصطناعي ومكافحة المعلومات المضللة، مفضلة السيطرة الحكومية على النقاش الفني.
هل يمكن أن تكون الذكاء الاصطناعي محايدًا إذا كانت الحقائق ليست كذلك؟
حتى مع نظام منظم مثل الأسئلة المقارنة، تعترف أنثروبيك بوجود قيود كبيرة. تظهر عدة تساؤلات مثل:
- هل يجب أن تعطي الذكاء الاصطناعي الأولوية لـ “الحيادية المدركة” أم “الدقة الواقعية”؟
- ماذا يحدث عندما تدعم الأدلة العلمية بشكل موضوعي موقفًا معينًا؟
- كيف يمكن تجنب تفسير المستخدمين لإجابة واقعية على أنها تحيز سياسي؟
تؤكد الشركة أن أداتها ليست معيارًا نهائيًا، بل هي نقطة انطلاق لنقاش أوسع داخل الصناعة.
الشفافية كأداة ومشكلة: كيف ستبدو الانتخابات بدءًا من 2027
تتعارض قرار أنثروبيك بفتح الكود مع المواقف الأكثر قلقًا لشخصيات مثل إريك شميدت، الرئيس التنفيذي السابق لجوجل، الذي حذر من أن الذكاء الاصطناعي قد يتسبب في “إصابة أو قتل العديد من الأشخاص” إذا لم يتم تنظيمه بشكل صارم. لكن بالنسبة لأنثروبيك، تعتبر الشفافية هي السبيل الوحيد للمضي قدمًا: إذا لم نفهم كيف تتصرف النماذج، فلن نتمكن من تصحيح تحيزاتها.
لكن هناك جانب غير مريح: بعض النتائج لا تصب في مصلحة الشركة نفسها. إن حصول غروك على درجة أعلى من كلود في الحيادية هو ضربة رمزية، لكنه يعزز مصداقية الاختبار: إذا كانت الأداة مصممة لتفضيل أنثروبيك، لكانت النتائج مختلفة.
تقدم الأداة الجديدة من أنثروبيك بيانات قيمة وتفتح الباب لتقييم أكثر موضوعية للتحيز السياسي في الذكاء الاصطناعي. ومع ذلك، لا يزال العديد يرون أن المشكلة قائمة: لا توجد صيغة عالمية لتعريف ما هي الحيادية السياسية في نظام ذكي.
يتعين على الشركات تحقيق توازن بين: الدقة الواقعية، والانطباع العام، والامتثال التنظيمي، والفائدة الحقيقية للنموذج. حتى الآن، لم يتمكن أي نموذج من العثور على الإجابة المثالية. لكن هذه الدراسة (والقرار بجعلها مفتوحة) تمثل واحدة من أهم الخطوات نحو ذكاء اصطناعي أكثر شفافية وقابلية للتدقيق والمسؤولية. ومع ذلك، سيبقى القلق من أن الذكاء الاصطناعي قد يغير من آرائه وفقًا للمستخدمين، مما يجعلنا نتساءل عما إذا كانت تلك الشفافية ستكون للجميع.
المصدر: الرابط الأصلي