يشعر قادة تكنولوجيا المعلومات والأمن بالقلق بشأن تأثير الذكاء الاصطناعي في مجال الأمن السيبراني وهم محقون في هذا القلق.
عندهم القدرة على تأدية أعمالهم المشبوهة بفعالية وسرعة أكبر عن طريق استخدام التكنولوجيا الذكية، مما يزيد من صعوبة مديري أمن المعلومات وخبراء الأمن السيبراني لحماية المؤسسات التابعة لهم.
قال بريان فينش، الرئيس المشارك للأمن السيبراني وحماية البيانات وممارسات الخصوصية في شركة المحاماة Pillsbury Winthrop Shaw Pittman، إن الطريقة الأساسية التي يستخدمها القراصنة في الاستفادة من الذكاء الاصطناعي هي زيادة كفاءة رسائل البريد الإلكتروني المضللة والمعروفة بـ “هجمات الهندسة الاجتماعية”.
وقال فينش: “تاريخيًا، كان من السهل تحديد رسائل البريد الإلكتروني المزيفة إلى حد ما بسبب التوصيف غير المدروس”. “على وجه الخصوص، يمكن اكتشاف رسائل الاحتيال الإلكترونية التي ينشئها قراصنة مجهولون بلغة معينة بسهولة بسبب قواعد اللغة الضعيفة والمفردات غير المنطقية والهجاء السيئ”.
وقال إن هذا النوع من الأخطاء الواضحة كان من السهل استشعارها عبر الدفاعات الآلية وكذلك عن طريق الأفراد اليقظين بطريقة نسبية بسيطة.
وأشار فينش إلى أن الذكاء الاصطناعي يتيح للكثير من الأفراد، بغض النظر عن مهاراتهم اللغوية، إنشاء نصوص مقنعة بسرعة وبتكلفة منخفضة لاستخدامها في إرسال رسائل البريد الإلكتروني الخداعة.
من خلال استخدام تقنيات الذكاء الاصطناعي، أصبح من الممكن الآن أن تظهر رسالة البريد الإلكتروني المغشوشة بشكل يشبه الرسائل الأصلية، مما يؤدي إلى زيادة عدد الأشخاص الذين قد يتعرضون للنصب والاحتيال ويقومون بالنقر فعلاً على الروابط الخبيثة.
يمكن لقادة الأمن السيبراني أن يتبعوا 3 خطوات لتعزيز برامج أمن المنظمات في العصر الذي يشهد استخدام الذكاء الاصطناعي.
1- المقارنة بين الذكاء الاصطناعي والذكاء الاصطناعي.
إحدى الخطوات الفعالة التي يمكن للمؤسسات اتخاذها لتعزيز الدفاع ضد أحدث الهجمات باستخدام التكنولوجيا الذكية هي توزيع الأدوات والخدمات التي تستخدم الذكاء الاصطناعي.
وبذلك، يتطلب ضرورة مواكبة آخر التقنيات وتوظيف أفراد ذوي الكفاءات في مجال الذكاء الاصطناعي للتمكن من استخدام هذه المنتجات بكفاءة، أو يجب إعادة تدريب الموظفين الحاليين حتى يتمكنوا من الاستفادة منها بشكل ناجح.
صرح كايل كابيل، مسؤول الأمن السيبراني في شركة KPMG الأميركية، بأن التقنيات المتقدمة مثل خوارزميات التعلم الآلي والرصد والمراقبة في الوقت الفعلي يمكن أن تلعب دورًا رئيسيًا في تحديد الانتهاكات الأمنية المحتملة أو الأنشطة الخبيثة والاستجابة لها. وأضاف أن من خلال الاستفادة من هذه الأدوات، تستطيع المؤسسات تعزيز قدراتها في اكتشاف الأحداث الأمنية ومنعها والاستجابة لها بطريقة فعالة.
وأضاف كابيل أنه عن طريق وجود موظفين مختصين لمراقبة أمن الذكاء الاصطناعي، يستطيع الأفراد تقييم المخاطر التي تطرأ من التهديدات الجديدة بشكل فعّال وتنفيذ إجراءات ملائمة للوقاية
2- تحديث برامج تدريب الموظفين
إذا كانت إحدى المؤسسات تستخدم أساليب تدريب قديمة لتعليم الموظفين كيفية تجنب أن يكونوا فريسة للمهاجمين، فمن المحتمل جدًا أن تتعرض لاختراق البيانات أو أي حادث أمني آخر. برامج التدريب بحاجة إلى تحديث كامل تمامًا كما تحتاج الأدوات إلى تعزيز في هذا البيئة الأمنية الجديدة.
وأضاف فينش: “يُعَدُّ الذكاء الاصطناعي ظاهرة حديثة جداً لدرجةٍ تجعل معظم البشر – بما فيهم المدراء التنفيذيين – غير قادرين على فهم كيفية استخدامه في أغراض شريرة حقًا”. وأوضح أيضًا أن “قادة الأعمال يحتاجون إلى التعلم وتوعية أنفسهم وموظفيهم بالتطورات السلبية التي يمكن أن يؤديها الذكاء الاصطناعي”.
على سبيل المثال، مهم للموظفين أن يتعلموا عن العلامات التي يجب أن ينتبهوا لها في رسائل الاحتيال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، نظراً لأن القراصنة يستخدمون الذكاء الاصطناعي لتجعل الرسائل تبدو حقيقية. ويجب أن يتم تدريبهم بشكل مستمر بسبب استمرار تطور هذه التهديدات.
3- بناء إطار أمني جديد
في النهاية، يُعَدّ نشر الأدوات والبرامج التدريبية الجديدة شيئًا إيجابيًا، ولكن نظرًا لتهديدات الذكاء الاصطناعي الأحدث وخطورتها، تستدعي المؤسسات إنشاء استراتيجيات لتعزيز الأمان في كافة أقسام المؤسسة وضمان تفعيل السياسات.
قال كابيل: “يجب على المسؤولين التنفيذيين أن يتبنوا إطار عمل شامل يتوجه تنفيذ الضوابط المناسبة للاستخدام الذكي للذكاء الاصطناعي في جميع أنحاء المؤسسة وفي مختلف وظائف العمل، ويشمل ذلك التفاعل مع الجهات الخارجية”.
يجب أن يتضمن إطار العمل مؤشرات المخاطر والتحكم في النظام البيئي للذكاء الاصطناعي. وينبغي التركيز على معالجة الاعتبارات الأمنية الفريدة المرتبطة بتطبيق الذكاء الاصطناعي في مؤسساتهم. كما يجب تقليل مخاطر أمن الذكاء الاصطناعي التي يواجهونها.
مرتبط