هذا الأسبوع، قامت شركة ميتا بتنفيذ تجربة صغيرة في الولايات المتحدة لإطلاق منتج جديد للذكاء الاصطناعي، وهو يدعم وسائط متعددة. تم تطوير هذا المنتج للعمل بالتعاون مع Ray-Ban، الشركة المتخصصة في صناعة النظارات الفاخرة.
تجرب الشركة الذكاء الاصطناعي المتعدد الوسائط في مرحلة التجريب عن طريق برنامج الوصول المبكر في الولايات المتحدة. ومن المقرر أن تطلق شركة ميتا الذكاء الاصطناعي المتعدد الوسائط الجديد بشكل علني في عام 2024.
بفضل وجود كاميرا مدمجة في النظارات، يستطيع الذكاء الاصطناعي الجديد التفاعل بشكل ذكي مع الفيديو و التصوير الفوتوغرافي، وكذلك عرض ما يشاهده الشخص الذي يرتدي النظارات بشكل مباشر وذكي.
تم تصميم ميتا المساعد للتحكم به عن طريق الصوت، حيث يمكن لمستخدمي النظارة التحدث مع المساعد بنفس الطريقة كما لو كانوا يتحدثون مع مساعد صوتي مشهور مثل أليكسا من أمازون أو سيري من آبل.
تضمن بعض الميزات الجديدة التي يقدمها الذكاء الاصطناعي المتعدد الوسائط:
القدرة على تمييز النظارات ووصفها. القدرة على ترجمة النصوص المكتوبة وتوضيح الصور. القدرة على تقديم اقتراحات للملابس أو السلع الأخرى المتوافقة مع ما يرتديه المستخدم.
هذه الخطوة متوقعة بسبب تبنِّي ميتا الشامل للذكاء الاصطناعي في منتجاتها ومنصاتها، وتعزيزها للذكاء الاصطناعي المفتوح المصدر من خلال Llama 2 .