كشفت شركة جوجل عن نموذج “جيما” الجديد للذكاء الاصطناعي، الذي يستهدف الباحثين الذين يرغبون في تشغيل نماذج الذكاء الاصطناعي على أجهزتهم بدلاً من الاعتماد على خدمات الحوسبة السحابية.
ووفقًا لما ذكرته جوجل، تم تصميم نموذج Gemma الجديد بواسطة شركة DeepMind التابعة لها والتي يقع مقرها في المملكة المتحدة، بالتعاون مع فرق أخرى في الشركة.
يشترك نموذج Gemma في بعض “العناصر التقنية والهيكلية الأساسية” مع نموذج Gemini الأكبر، وتقدمه جوجل بطرازين: Gemma 2B و Gemma 7B.
يمكن للبتشرين الوصول إلى نماذج Gemma المدربة سابقًا والمضبوطة لتلقي التعليمات، سواء عن طريق تشغيلها محليًا على أجهزة الكمبيوتر المكتبية أو الحواسيب المحمولة، أو عن طريق الوصول إليها من خلال الحوسبة السحابية.
قامت جوجل بتطوير نسخة جديدة من بطاقات معالجة الرسومات من شركة إنفيديا وGoogle Cloud TPUs، وهي معالجات ذكاء الاصطناعي التي تعمل على سحابة Google Cloud.
تقول جوجل إن نموذج Gemma بإصداريه يعتبر أصغر من الناحية الفنية مقارنة بنماذج اللغات الكبيرة الأخرى (LLMs)، ولكنها أكدت أنه يفوقها بشكل كبير في المقاييس الرئيسية، بما في ذلك نموذج Llama 2 من الشركة المعروفة سابقاً بـ ميتا.
تعمل جوجل حالياً على توفير نموذج Gemma للباحثين بشكل مجاني عبر منصتي Kaggle و Colab، كما توفر رصيدًا مجانيًا للاستخدام السحابي عبر Google Cloud للباحثين.
أعلنت الشركة عن إطلاق نموذج Gemini في بداية هذا الشهر، وقدمت تطبيقًا مجانيًا بنفس الاسم بالإضافة إلى اشتراكات مدفوعة للميزات المتقدمة بسعر 20 دولارًا أمريكيًا. بعد ذلك، قامت الشركة بالإعلان عن نموذج Gemini 1.5 Pro الذي يتمتع بقدرات متقدمة مقارنة بالإصدار السابق.