مع استمرار الذكاء الاصطناعي في إحداث ثورة في مختلف الصناعات، أصبحت تطبيقاته في تقنيات تحويل الكلام إلى نص محط أنظار على نطاق واسع. يُعدّ “ويسبر”، الأداة المقدمة من شركة OpenAI، أحد هذه الأدوات التي تم الإشادة بها لقدرتها على تحويل الكلام لمستوى ينافس البشر. ومع ذلك، أظهرت دراسات حديثة مشكلة كبيرة تتمثل في ميل الذكاء الاصطناعي إلى “الهلوسة” – أي إنشاء محتوى لم يتم التحدث به مطلقًا – وهو ما يثير مخاطر كبيرة في البيئات الحساسة مثل الرعاية الصحية والسياقات القانونية. في هذا المقال، سنلقي نظرة معمّقة على طبيعة هذه الهلوسات، وتأثيرها على الفئات الأكثر ضعفًا، والمخاوف الأخلاقية المحيطة باستخدام “ويسبر”.
طبيعة الهلوسات في “ويسبر”
نال “ويسبر”، نظام تحويل الكلام إلى نص من OpenAI، استحسانًا واسعًا لقدراته الدقيقة في نسخ الكلام. ولكن، في الوقت نفسه، يُظهر سلوكًا غريبًا ومقلقًا: إنتاج “هلوسات”. في سياق الذكاء الاصطناعي، تعني الهلوسات الحالات التي يقوم فيها النظام بإنشاء عبارات أو جمل لم تكن موجودة في الصوت الأصلي. تتراوح هذه الهلوسات بين سوء فهم بسيط وإنشاء عبارات مؤلفة بالكامل.
أظهرت الدراسات أن حوالي 1٪ من تحويلات “ويسبر” تحتوي على محتوى هلوسي. ورغم أن هذه النسبة تبدو صغيرة، إلا أن خطورة هذه الهلوسات تثير القلق. فحوالي 40٪ من هذه الهلوسات تشمل لغة ضارة أو عنيفة، مثل معلومات طبية زائفة أو ادعاءات سلطوية غير حقيقية. تعتبر هذه الهلوسات مقلقة للغاية في السياقات الحساسة مثل الإجراءات القانونية، حيث تُعد الدقة أمرًا حاسمًا، وأي خطأ صغير يمكن أن يؤدي إلى عواقب وخيمة.
الفئات الضعيفة الأكثر تعرضًا للخطر
تؤثر هلوسات “ويسبر” بشكل غير متناسب على الأفراد الذين يعانون من إعاقات في النطق، مثل مرضى الحبسة (aphasia). نظرًا لأنماط كلامهم الفريدة، بما في ذلك التوقفات المطولة والفترات غير اللفظية، يواجه هؤلاء الأفراد هلوسات أكثر تواترًا في تحويلاتهم. على سبيل المثال، قد يقوم الذكاء الاصطناعي بإنشاء جمل كاملة لم تُقال أبدًا بسبب صعوبة النظام في تحليل هذه الأنماط غير المنتظمة.
تثير هذه المشكلة مخاوف جادة عند استخدام “ويسبر” في تحويل استشارات مع أطباء أو مقابلات قانونية. فالنسخ غير الدقيق يمكن أن يؤدي إلى سجلات طبية غير صحيحة أو قرارات توظيف متحيزة – وهي انتهاكات للمعايير الأخلاقية الأساسية، مثل قانون الأمريكيين ذوي الإعاقة (ADA). ومع زيادة تكامل “ويسبر” في العديد من الصناعات، يصبح من الضروري إدماج المجتمعات المتأثرة بإعاقات النطق في مراحل تصميم واختبار مثل هذه الأدوات القائمة على الذكاء الاصطناعي.
“ويسبر” مقابل أدوات تحويل الكلام الأخرى: تحليل مقارن
عند مقارنته بأدوات تحويل الكلام الأخرى مثل Google وMicrosoft وAmazon، يبرز “ويسبر” – ولكن للأسف، للأسباب الخاطئة. فبينما تظهر أدوات المنافسين أخطاء طفيفة في النسخ، إلا أنها ليست عرضة لإنشاء محتوى جديد تمامًا كما يحدث مع “ويسبر”. وتعتبر نسبة الهلوسة في الأدوات الأخرى أقل بكثير، مما يجعلها أكثر موثوقية في التطبيقات الحساسة.
قد يعود تفسير مشكلة الهلوسة في “ويسبر” إلى تقنياته النموذجية الأساسية، التي تشبه تلك المستخدمة في النماذج اللغوية الكبيرة مثل ChatGPT من OpenAI. وعلى النقيض من ذلك، تعتمد الشركات الأخرى على تقنيات أكثر تقليدية في معالجة الصوت، والتي قد تعطي الأولوية لدقة النسخ على حساب الإبداع في توليد المحتوى. ونتيجة لذلك، فإن أداء “ويسبر”، رغم تفوقه في عدة جوانب، يتضرر بسبب هذا العيب الكبير.
التداعيات الأخلاقية والقانونية لهلوسات الذكاء الاصطناعي
تتجاوز عواقب هلوسات “ويسبر” الأخطاء التقنية؛ فهي تفتح بابًا لمخاوف أخلاقية وقانونية عميقة. فالتحريف في النسخ الطبي قد يؤدي إلى علاجات خاطئة، بينما قد تؤدي العبارات المؤلفة في السياقات القانونية إلى اتخاذ قرارات غير صحيحة أو أحكام غير مبررة. ويُعد ميل “ويسبر” إلى الهلوسة مقلقًا بشكل خاص بالنظر إلى استخدامه المتزايد في القطاعات الحيوية مثل الرعاية الصحية، حيث حذرت OpenAI بالفعل من استخدامه في “البيئات عالية المخاطر”.
علاوة على ذلك، قد تنتهك هلوسات “ويسبر” قوانين مثل قانون الأمريكيين ذوي الإعاقة (ADA)، حيث يمكن أن تؤدي مخرجات متحيزة إلى التمييز ضد ذوي الإعاقة. ويظهر من هذا الأمر ضرورة فرض تنظيمات أكثر صرامة فيما يتعلق بتكنولوجيا الذكاء الاصطناعي، ويدعو إلى زيادة الشفافية من الشركات مثل OpenAI. حتى أن بعض الخبراء والموظفين السابقين دعوا الحكومة الفيدرالية للتدخل، مقدمين توصيات لوضع لوائح شاملة لضمان الاستخدام الأخلاقي لهذه الأدوات.
يقدم “ويسبر” من OpenAI معضلة معقدة: فرغم ما يظهره من قدرات مثيرة للإعجاب في التعرف على الكلام، فإن ميله إلى “الهلوسة” يشكل مخاطر كبيرة، خاصة بالنسبة للفئات الضعيفة وفي البيئات الحساسة. ومع استخدام المزيد من الصناعات لأدوات النسخ المعتمدة على الذكاء الاصطناعي، لا يمكن تجاهل احتمال وجود عواقب ضارة. قد لا يكون الإصدار الحالي من “ويسبر” جاهزًا بعد للاستخدام الواسع في السياقات الحساسة؛ مما يجعل من الضروري التعاون بين المطورين والهيئات التنظيمية والمستخدمين لتحسين التكنولوجيا. وحتى يتم حل هذه المشكلات، يجب توخي الحذر لتجنب المخاطر الأخلاقية والقانونية والعملية الكبيرة التي قد تنتج عن هلوسات “ويسبر”.
في عالم الذكاء الاصطناعي سريع التطور، تُظهر الابتكارات مثل “ويسبر” وعدًا هائلًا، لكنها تتطلب أيضًا إشرافًا يقظًا لضمان استخدامها الآمن والعادل.