كشفت تم توضيح أن إنفيديا H200 هي وحدة معالجة رسومية يتم تصميمها لتدريب نماذج الذكاء الاصطناعي المتقدمة المدعومة بتقنية الذكاء الاصطناعي التوليدي.
تمثل وحدة معالجة الرسومات الجديدة تحسينًا عن وحدة معالجة الرسومات السابقة H100، والتي استخدمتها OpenAI لتدريب نموذج اللغة الضخم GPT-4.
وتتنافس الشركات الكبيرة والشركات الناشئة والهيئات الحكومية في السباق للحصول على كميات محدودة من الرقاقات.
تتراوح تكلفة H100 بين 25 ألف و40 ألف دولار، وتتطلب ربط آلاف الوحدات معًا لتدريب نماذج لغوية كبيرة.
أدى التوجه المتزايد نحو وحدات معالجة الرسومات الداعمة للذكاء الاصطناعي التابعة لشركة إنفيديا إلى ارتفاع قيمة أسهمها بنسبة تفوق الـ 230٪ حتى الآن في عام 2023.
تتوقع الشركة تحقيق إيرادات تبلغ حوالي 16 مليار دولار في الربع الثالث من هذا العام، بنسبة زيادة تصل إلى 170 في المئة مقارنة بالعام الماضي.
يعتبر التحسين الرئيسي في H200 هو امتلاك شريحة ذاكرة HBM3 بسعة 141 جيجابايت من الجيل التالي، مما يساعده في تنفيذ الاستدلال أو استخدام نموذج لغوي كبير بعد تدريبه على إنشاء النصوص أو الصور أو التنبؤات.
يزيد عرض النطاق الترددي لذاكرة وحدة معالجة الرسومات إلى 4.8 تيرابايت في الثانية بدلاً من 3.35 تيرابايت في الثانية عبر H100، وذلك لتحسين قدرتها على معالجة الأعمال الكثيفة للذكاء الاصطناعي التوليدي.
وأشارت الشركة إلى أن هناك تقريبا ضعف السرعة في شريحة H100 مقارنة بشريحة H200 في إنتاج النتائج. ومن المتوقع أن يتم توفير هذه الشريحة للعملاء في الربع الثاني من عام 2024، وتنافس وحدة معالجة الرسومات MI300X من AMD.
تمتاز شريحة MI300X من AMD بحجم ذاكرة إضافية أكبر بالمقارنة مع الطرازات السابقة، وهذا يساعد في جعلها مناسبة لتشغيل النماذج الضخمة لأغراض الاستدلال.
يتماشى H200 مع H100، مما يعني أن الشركات التي تعتمد على الذكاء الاصطناعي وتستخدم H100 لتدريب النماذج اللغوية الكبيرة لن يكون عليها تغيير أنظمة الخادم أو البرامج الخاصة بها للاستفادة من H200.
وفقًا لشركة إنفيديا، يتوفر H200 بتكوينات خادم رباعية وحدات معالجة الرسومات، أو ثمانية وحدات معالجة الرسومات عبر أنظمة HGX الكاملة للشركة، بالإضافة إلى شريحة تُسمى GH200، والتي تُربط وحدة معالجة الرسومات H200 بمعالج قائم على Arm.