جدول المحتويات
في عالم الذكاء الاصطناعي المتطور، أصبح ChatGPT واحدًا من الأدوات الأكثر استخدامًا للإجابة على الأسئلة وتقديم المعلومات. ومع ذلك، تشير التقارير الأخيرة إلى أن هذا النموذج يعتمد بشكل متزايد على موسوعة Grokipedia، التي أسسها إيلون ماسك، كمصدر للمعلومات. هذه الظاهرة تثير تساؤلات حول دقة المعلومات وجودتها، مما يستدعي النظر في المخاطر المحتملة المرتبطة باستخدام مصادر غير موثوقة.
ChatGPT وموسوعة Grokipedia
وفقًا لتقرير حديث من The Guardian، يستخدم النموذج الأحدث من ChatGPT موسوعة Grokipedia بشكل متزايد للإجابة على مجموعة متنوعة من الأسئلة، بدءًا من الهياكل السياسية في إيران وصولًا إلى تفاصيل سيرة شخصيات تاريخية. هذا الاستخدام المتزايد لموسوعة Grokipedia يثير القلق بشأن جودة المعلومات المقدمة، حيث إن هذه المعلومات لا تخضع لنفس عمليات التحقق التي تمر بها المصادر المدارة من قبل فرق تحريرية أو مجتمعات أكبر.
ما هي Grokipedia؟
تأسست Grokipedia كمنافس لموسوعة ويكيبيديا، حيث يتهم إيلون ماسك ويكيبيديا بالتحيز نحو اليسار، ويؤكد أن مشروعه يسعى لتحقيق الحقيقة والحياد. ومع ذلك، يرى النقاد أن Grokipedia تمثل الاتجاه المعاكس، حيث تُعرض المحتويات أحيانًا من منظور يميني أو تتناول مواضيع مثيرة للجدل بشكل أحادي الجانب.
الفرق بين Grokipedia وويكيبيديا
على عكس المدخلات في ويكيبيديا التي يتم تنسيقها من قبل البشر، فإن النصوص في Grokipedia تُنتج بشكل أساسي بواسطة نموذج الذكاء الاصطناعي الداخلي المعروف باسم Grok. لا تُعتبر تعديلات المستخدمين جزءًا من هذا النظام، حيث يُفترض أن الجودة تُراقب من قبل موظفي xAI. عندما تستخدم نماذج لغوية أخرى مثل GPT-5.2 هذه النصوص المُنتجة آليًا كمصدر للحقائق، يتشكل حلقة تغذية راجعة تقنية حيث تتعلم الذكاءات الاصطناعية من بعضها البعض.
مخاطر المعلومات غير المصفاة
تزيد هذه الديناميكية من خطر حدوث سيناريو “القمامة في، القمامة خارج”، حيث إذا بدأت الذكاءات الاصطناعية في استخدام مواد غير مصفاة من ذكاءات اصطناعية أخرى كأساس لردودها، يمكن أن تنتقل الأخطاء أو التحيزات المحددة دون أي نوع من التدقيق. وقد أظهر تحقيق The Guardian أن ChatGPT يستشهد بـ Grokipedia ويكرر ادعاءات تتجاوز المعرفة المعروفة أو تم دحضها منذ فترة طويلة. هذا يوضح الخطر الذي يواجهه المستخدمون، حيث تصبح المعلومات المضللة أكثر مصداقية بسبب الاقتباسات المتبادلة بين نماذج الذكاء الاصطناعي، مما يجعل من الصعب على المستخدمين اكتشاف هذه المعلومات الخاطئة.
ردود فعل OpenAI
استجابت OpenAI بالفعل للتقرير، مشددة على أن بحث النموذج على الويب يحاول عكس طيف واسع من المصادر والآراء المتاحة للجمهور. وأكد متحدث باسم الشركة أن هناك فلاتر أمان تهدف إلى تقليل خطر عرض روابط لمحتوى يحتمل أن يكون ضارًا. بالإضافة إلى ذلك، يوفر ChatGPT إجابات مع اقتباسات ومصادر من أجل الشفافية. كما ذكرت الشركة برامج مستمرة تهدف إلى تصفية المصادر ذات المصداقية المنخفضة.
الخاتمة
إن استخدام ChatGPT لموسوعة Grokipedia كمصدر للمعلومات يثير العديد من التساؤلات حول دقة المعلومات وجودتها. في ظل المخاطر المحتملة المرتبطة بالمعلومات غير المصفاة، يصبح من الضروري أن يكون المستخدمون واعين لهذه الديناميكيات وأن يتخذوا خطوات إضافية للتحقق من المعلومات التي يحصلون عليها. إن فهم كيفية عمل هذه النماذج وكيفية تأثيرها على المعلومات المتاحة يمكن أن يساعد في تعزيز الوعي والقدرة على التمييز بين الحقائق والمعلومات المضللة.
المصدر: الرابط الأصلي