أصدر المعهد البريطاني لسلامة الذكاء الاصطناعي مجموعة من الأدوات التي تهدف إلى تعزيز سلامة الذكاء الاصطناعي من خلال تسهيل تطوير تقييمات الذكاء الاصطناعي في الصناعة والمنظمات البحثية والأوساط الأكاديمية.
تهدف مجموعة الأدوات التي يطلق عليها “Inspect” إلى تقييم القدرات الخاصة لنماذج الذكاء الاصطناعي، مثل المعرفة الأساسية والقدرة على التفكير، وإنشاء تقارير استنادًا إلى النتائج.
تتوفر مجموعة الأدوات برخصة MIT المفتوحة المصدر.
في بيان صحفي، زعم معهد سلامة الذكاء الاصطناعي في بريطانيا أن مجموعة أدوات Inspect تعد منصة اختبار للذكاء الاصطناعي وهي الأولى التي تديرها هيئة حكومية تعمل على نطاق واسع.
قال إيان هوغارث، رئيس معهد سلامة الذكاء الاصطناعي في بريطانيا، في تصريح: “يكون التعاون الفعال في اختبار سلامة الذكاء الاصطناعي هو وجود نهج مشترك ومن السهل الوصول إليه في التقييمات”.
وأضاف: “نتطلع إلى رؤية استخدام المجتمع العالمي للذكاء الاصطناعي لمجموعة أدوات Inspect لتنفيذ اختبارات السلامة وتقديم المساعدة في التكيف والبناء عبر منصة مفتوحة المصدر، لكي نتمكن من إنتاج تقييمات ذات جودة عالية في جميع المجالات”.
تتكون الفحص من ثلاثة عناصر رئيسية، وهي مجموعات البيانات، والمحللون، والمدققون.
توفر مجموعات البيانات عينات لاختبارات التقييم، ويتم إجراء الاختبارات من قبل المشتركين، ويُقيم المصححون أداء الحلول ويجمعون الدرجات من الاختبارات ويحولونها إلى مقاييس.
يمكن تعزيز أجزاء تفتيش المضمنة من خلال حزم خارجية مكتوبة بلغة البرمجة Python.
في منشور على إكس، وصفت ديبورا راج، زميلة الأبحاث في موزيلا والمتخصصة في أخلاقيات الذكاء الاصطناعي، Inspect كونها دليلا على فعالية الاستثمار العام في الأدوات مفتوحة المصدر لمراقبة الذكاء الاصطناعي.
قدم كليمنت ديلانجو، الرئيس التنفيذي لشركة Hugging Face للذكاء الاصطناعي، فكرة دمج Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة عرض تعرض نتائج تقييمات مجموعة الأدوات.
وصدر معهد سلامة الذكاء الاصطناعي في المملكة المتحدة مجموعة أدوات Inspect بعد إطلاق NIST GenAI من قبل المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة، والذي يهدف إلى تقييم تقنيات الذكاء الاصطناعي التوليدي، بما في ذلك الذكاء الاصطناعي المولد للنصوص والصور.
يخطط المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة لإصدار معايير والمساعدة في إنشاء أنظمة للكشف عن محتوى غير صحيح وتشجيع تطوير برامج لاكتشاف المعلومات الزائفة أو المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.