في حكم قضائي، قضت المحكمة العليا للعدل في كتالونيا (TSJC) بأن فصل عامل في شركة رخام كان غير عادل، مشيرة إلى استخدام خطاب إنهاء خدمة مستنسخ أو مُولد بواسطة الذكاء الاصطناعي كعامل رئيسي في الحكم. واستند هذا القرار، الصادر في 16 نوفمبر والذي حصلت وكالة الأنباء EFE على نسخة منه، إلى إثارة النقاشات حول تنامي دور الذكاء الاصطناعي في العمليات داخل بيئات العمل وما يترتب على ذلك من تبعات قانونية.
كشف هذا الملف عن عدة مخالفات في إجراءات فصل العامل، من بينها إغفال الشركة لوضعه الصحي المتمثل في مرض السحار السيليسي، وهو المرض الذي لم يمنعه من أداء مهامه باستخدام معدات الحماية المناسبة. ومع ذلك، ركزت المحكمة في حكمها على خطاب الفصل نفسه باعتباره النقطة المحورية في القضية. فقد تبين أن الوثيقة احتوت على مزاعم عامة بشأن ضعف الأداء، بل وأشارت إلى قطاع الملابس الجاهزة، مما أثار شكوكاً بشأن استنساخ الخطاب من قالب غير ذي صلة أو كتابته بواسطة الذكاء الاصطناعي. ووصفت المحكمة الخطاب بأنه “غير ملائم وغير معبر”، مما قوّض من مصداقية ادعاءات الشركة.
دور الذكاء الاصطناعي في قرارات الموارد البشرية: سلاح ذو حدين؟
يسلط قرار المحكمة العليا للعدل في كتالونيا الضوء على المخاطر المرتبطة بالاعتماد المفرط على أدوات الذكاء الاصطناعي في قضايا حساسة مثل إنهاء خدمات الموظفين. ورغم تبني العديد من الشركات لحلول الذكاء الاصطناعي لصياغة الوثائق وأتمتة سير العمل وتحسين عمليات الموارد البشرية، فإن هذه القضية تؤكد كيف يمكن أن يؤدي الاستخدام غير الملائم إلى نتائج عكسية. ويشير خبراء قانونيون إلى أن دور الذكاء الاصطناعي ينبغي أن يقتصر على مساعدة صنع القرار بدلاً من استبدال الإشراف البشري، خصوصاً في القضايا التي تتطلب اجتهاداً دقيقاً وتوافقاً مع المعايير القانونية.
في هذه القضية، لم تتمكن شركة الرخام من تقديم مبرر مقنع لقرار فصل العامل، مستعينة بخطاب إنهاء خدمة مشتبه في أنه تم إنشاؤه باستخدام قالب اصطناعي أو مصدر عبر الإنترنت. وانتقدت المحكمة هذا النهج، مؤكدة أن على أصحاب العمل ضمان أن تكون قراراتهم مدعومة بوثائق دقيقة ومحددة. كما أكدت القضية على ضرورة تحقيق توازن بين الاستفادة من تقنيات الذكاء الاصطناعي وتحمل المسؤولية في عملية اتخاذ القرارات.
الذكاء الاصطناعي في ممارسات العمل: دروس مستفادة
تُعتبر هذه القضية جزءاً من نقاش أوسع حول دمج الذكاء الاصطناعي في ممارسات العمل. فقد سهلت التطورات الأخيرة في مجال الذكاء الاصطناعي على الشركات أتمتة المهام الإدارية، غير أن هذه القضية تسلط الضوء على أن إساءة استخدام المحتوى المُولد بالذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة، سواء من الناحية القانونية أو المتعلقة بالسمعة. لذلك، ينبغي على المؤسسات تبني استخدامات أخلاقية وشفافة للذكاء الاصطناعي لتجنب الوقوع في مثل هذه المآزق.
كما يثير هذا الحكم تساؤلات حول الأبعاد الأخلاقية لاستخدام الذكاء الاصطناعي في قضايا التوظيف. فبينما تعزز أدوات الذكاء الاصطناعي الكفاءة، يجب استخدامها بشكل مسؤول، خصوصاً في القرارات التي تمس حياة الأفراد واستقرارهم الوظيفي. وتأتي القضية كتذكير بأهمية الإشراف البشري لضمان توافق تطبيقات الذكاء الاصطناعي مع المعايير الأخلاقية والقانونية.
يؤكد قرار المحكمة العليا للعدل في كتالونيا بإلغاء فصل العامل على أهمية استخدام الذكاء الاصطناعي بمسؤولية في سياقات العمل. ورغم الإمكانات التحويلية التي يقدمها الذكاء الاصطناعي في تسريع عمليات الموارد البشرية، فإن هذه القضية توضح مخاطر سوء التطبيق. من الاستناد إلى قوالب مستنسخة إلى خطاب إنهاء مُولد بالذكاء الاصطناعي، فإن غياب الإشراف البشري قد يؤدي إلى أخطاء مكلفة على الأصعدة المالية والسمعة.
ومع التقدم المستمر للذكاء الاصطناعي في مختلف جوانب الحياة المهنية، يجب على الشركات إعطاء الأولوية للشفافية والمساءلة والاعتبارات الأخلاقية. وتُعد هذه القضية نداءً للشركات لضمان تنفيذ ابتكارات الذكاء الاصطناعي بشكل مسؤول، بما يدعم الثقة والامتثال في عالم يزداد اعتماداً على الذكاء الاصطناعي.