قامت جوجل بتطوير نهج جديد يسمى "Project Naptime"، وهو يهدف إلى تمكين النماذج اللغوية الكبيرة من إجراء أبحاث حول نقاط الضعف وتحسين أساليب الكشف الآلي.
أشارت شركة البحث الضخمة إلى أن تقنية الذكاء الاصطناعي قد تساهم في تعزيز قدرة التعرف على التهديدات وتحليلها، وكذلك في اكتشاف الضعاف التي قد تفوتها الأدوات الحالية.
أعلن فريق Project Zero أنهم يقومون بدراسة كيف يمكن للنماذج اللغوية الكبيرة محاكاة أساليب الباحثين في مجال الأمن السيبراني، مثل فحص التعليمات البرمجية والهندسة العكسية.
يتعلق Project Naptime بتفاعل وكيل الذكاء الاصطناعي مع قاعدة الأوامر المستهدفة، حيث يتم تزويد الوكيل بمجموعة من الأدوات المتخصصة المصممة لمحاكاة عمل الباحث البشري في مجال الأمن.
هدف هذا النهج هو استخدام التطورات في فهم التعليمات البرمجية والقدرة على التفكير العام لإنشاء نماذج لغوية كبيرة، تستطيع محاكاة سلوك الإنسان في اكتشاف وعرض الثغرات الأمنية.
هذا النهج يشمل عدة مكونات مهمة، بما في ذلك أداة تصفح الشفرة التعليمية التي تسمح لوكيل الذكاء الاصطناعي بالانتقال عبر شفرة الهدف، وأداة لتشغيل البرامج النصية بلغة البايثون في بيئة محمية، وأداة مراقبة الأخطاء لمراقبة سلوك البرنامج باستخدام مداخل مختلفة، وأداة مراسلة لمتابعة التقدم في المهمة.
قالت جوجل إن Project Naptime لا يميل إلى أي نموذج معين ويعتبر محايداً في واجهته الخلفية، كما أنه يتميز بكفاءته في رصد تجاوزات سعة المخزن المؤقت وعيوب تلف الذاكرة المتقدمة، وفقاً لمعايير CYBERSECEVAL 2 التي تم إطلاقها من قبل ميتا في شهر أبريل الماضي. تعتبر هذه المعايير مجموعة تقييمية تهدف لتحديد المخاطر الأمنية للنماذج اللغوية الكبيرة.
خلال التجارب التي أجرتها جوجل لاختبار العيوب والثغرات الأمنية، تم تحقيق تحسين في درجات الثغرات الأمنية بنسبة 1.00 و 0.76 درجة على التوالي لنموذج GPT-4 Turbo من OpenAI، مقارنة بالنتائج السابقة التي كانت 0.05 و 0.24 درجة.
بحسب جوجل، يساعد Project Naptime النماذج اللغوية الكبيرة في إجراء أبحاث حول نقاط الضعف التي تتبع النهج التكراري القائم على الفرضيات لخبراء الأمن البشري. تعزز هذه الهندسة المعمارية قدرة الوكيل على تحديد وتحليل نقاط الضعف، وتضمن دقة وتكرارية النتائج.