كثيرًا ما يعتمد الموظفون اليوم على النماذج اللغوية المُبنية على الشبكات العصبونية في أداء مهامهم مثل روبوت الدردشة ChatGPT. كشف استبيان أجرته كاسبرسكي في روسيا أن 11% من المشاركين استخدموا روبوتات الدردشة، ويعتقد قرابة 30% منهم بإمكانيتها لتبديل أدوار العمل في المستقبل.
تشير استبيانات أُخرى إلى أن نسبة 50% من موظفي المكاتب في بلجيكا و65% منهم في المملكة المتحدة يعتمدون على روبوت الدردشة ChatGPT. كما توضح انتشار كلمة “ChatGPT” في سجلات البحث على Google Trends إلى استخدام واضح للأداة خلال أيام الأسبوع، الأمر الذي قد يكون مرتبطًا بتوظيف الموظفين لها أثناء العمل.
مع استمرار الاعتماد المتزايد على روبوتات الدردشة في بيئة العمل، يطرح ذلك سؤالًا حاسمًا: هل هذه الروبوتات مُؤهلة للاستخدام مع بيانات الشركات الحساسة؟ للإجابة على هذا السؤال، حدد باحثو كاسبرسكي أربعة مخاطر رئيسية يمكن أن تواجهها الشركات عند استخدام موظفيها لروبوت ChatGPT، وهي:
انتحال الهوية أو اختراق النظام من طرف المقدم
على الرغم من أن مُشغلي روبوتات الدردشة المبنية على نماذج لغوية كبيرة هم اللاعبون الرئيسيون في المجال التقني، فإنها ليست بلا ثغرات تجاه الاختراق أو انتحال الهوية. على سبيل المثال، نجح مستخدمو أداة ChatGPT في إحدى الحوادث في رؤية رسائل من سجلات محادثة تعود لمستخدمين آخرين.
تسريب البيانات من خلال روبوتات الدردشة
نظريًا، يمكن استغلال الرسائل المتبادلة مع روبوتات الدردشة في تدريب النماذج اللغوية المستقبلية. تميل النماذج اللغوية الكبيرة أحيانًا إلى “تذكر ما لم يُنوَ الاعتناء به”، حيث تُنشئ سلاسل بيانات فريدة مثل أرقام الهواتف التي لا تعطي انطباعًا إيجابيًا على تحسين جودة النموذج، ولكنها تمثل تهديدًا على الخصوصية، حيث يمكن لأي بيانات في مجموعة البيانات المستخدمة لتدريب هذه النماذج أن تصل إلى مستخدمين آخرين سواء عن قصد أو بدون قصد.
العميل الخبيث
قد يلجأ الأشخاص في البيئات التي تحظر الخدمات الرسمية، مثل ChatGPT، إلى بدائل غير رسمية من برامج أو مواقع إلكترونية أو روبوتات دردشة أخرى، ويُحملون برمجيات خبيثة على أنها عميل أو تطبيق وهمي.
اختراق الحسابات
يمكن للمهاجمين الدخول إلى حسابات الموظفين والوصول إلى بياناتهم عبر هجمات الاحتيال أو بيانات الدخول. فمثلًا، تُظهر خدمة Kaspersky Digital Footprint Intelligence بانتظام منشورات في منتديات الإنترنت المظلم التي تبيع إمكانية الوصول إلى حسابات مختلفة على منصات روبوتات الدردشة.
مُلخصًا، قد تُعرض روبوتات الدردشة خصوصية المُستخدمين والشركات للخطر. لذلك، يجب على المُطورين المسؤولين توضيح كيفية استخدامهم للبيانات عند تدريب نماذجهم اللغوية في سياسة الخصوصية الخاصة بهم.
تُشير تحليلات أجرتها كاسبرسكي لروبوتات الدردشة المُشتركة (كـ ChatGPT وChatGPT API وAnthropic Claude وBing Chat وBing Chat Enterprise وYou.com وGoogle Bard وتطبيق Genius من تطوير Alloy Studios) إلى أن مُعايير الأمان والخصوصية تكون أكبر في روبوتات الدردشة المُوجهة للعملاء الشركات (B2B) نظرًا للمخاطر الأكبر التي تُقابل معلومات الشركات.
وبالتالي، تُركز الشروط والأحكام الخاصة بجمع وتخزين ومعالجة البيانات على الحماية بشكل أكبر في هذا المجال مقارنة بالخدمات المُوجهة للمستهلكين الأفراد (B2C). وفي هذا التحليل، لا تُحفظ الأدوات المُوجهة للشركات سجلات المحادثة تلقائيًا عادةً، وفي بعض الحالات لا تُرسل بيانات إلى خوادم الشركة، حيث يعمل روبوت الدردشة محليًا في شبكة العميل.
قالت آنا لاركينا، خبيرة الأمان والخصوصية في كاسبرسكي: “بعد استكشاف المخاطر المحتملة المتعلقة بالتعامل مع روبوتات الدردشة المعتمدة على النماذج اللغوية الكبيرة لأغراض العمل، وجدنا أنه من المحتمل أن يكون خطر تسرب البيانات الحساسة أكبر عند استخدام الموظفين لحساباتهم الشخصية أثناء العمل. وهذا يجعل زيادة الوعي لدى الموظفين بمخاطر استخدام روبوتات الدردشة أولوية لدى الشركات. من ناحية، ينبغي على الموظفين معرفة البيانات التي تُعد سرية أو شخصية، أو تعتبر سر مهني، ولماذا ينبغي عليهم تفادي إدخالها إلى روبوت الدردشة. ومن ناحية أخرى، يجب على الشركة وضع قواعد واضحة لاستخدام مثل هذه الخدمات، إذا كانت تتيح استخدامها على الإطلاق”.