"غوغل" تكشف عن نموذج الذكاء الاصطناعي الجديد Gemma الموجه للباحثين
كشفت شركة غوغل عن نموذج الذكاء الاصطناعي الجديد Gemma الموجه للباحثين الذين يودون تشغيل نماذج الذكاء الاصطناعي على أجهزتهم بدلا من الخدمات السحابية.
ويشترك نموذج Gemma في بعض "المكونات التقنية ومكونات البنية التحتية" مع نموذج Gemini الأكبر، وتطرحه غوغل بطرازين: "Gemma 2B و Gemma 7B".
ويمكن للباحثين الوصول إلى نماذج Gemma المدربة سابقا والمضبوطة لتلقي التعليمات، إذ يمكن تشغيلها محليا على أجهزة الحاسوب المكتبية والحواسيب المحمولة أو من خلال السحابة.
وحسنت "غوغل" نموذجها الجديد للعمل على بطاقات معالجة الرسومات من شركة إنفيديا بالإضافة إلى Google Cloud TPUs، وهي معالجات "غوغل" التي تشغل مهام الذكاء الاصطناعي في سحابة Google Cloud.
وقالت شركة غوغل : إن نموذج Gemma بإصداريه يعد أصغر من الناحية الفنية مقارنة بنماذج اللغات الكبيرة الأخرى (LLMs)، ويتفوق عليها على نحو ملحوظ في القياسات الرئيسية، ومنها نموذج Llama 2 من شركة ميتا.
وتعمل "غوغل" على إتاحة نموذج Gemma الآن للباحثين مجانا عبر منصتي Kaggle وColab التابعتين لها، كما توفر أيضا رصيدا مجانيا للباحثين لاستخدام النموذج سحابيا عبر Google Cloud.
وكانت الشركة قد أطلقت في وقت سابق من الشهر الجاري نموذج Gemini، وأتاحت تطبيقا مجانيا يحمل الاسم نفسه، واشتراكات مأجورة للمزايا المتقدمة.
وقالت Google إن نموذج Gemma الذي يحتوي على 2 مليار معلمة يعمل على وحدات المعالجة المركزية (CPU) للتطبيقات الموجودة على الجهاز أو التطبيقات الطرفية في الأجهزة مثل أجهزة الكمبيوتر المحمولة. يحتوي النموذج على 7 مليارات على وحدات معالجة الرسومات ووحدات TPU. يمكن أيضًا الوصول إلى النماذج من خلال منصة Vertex AI الخاصة بـ Google Cloud وGoogle Kubernetes Engine.
تسمح Google بالاستخدام التجاري "المسؤول" لـ Gemma وتوزيعها على المؤسسات بجميع أحجامها. في المقابل، تقصر "Meta" الاستخدام المجاني لمجموعة Llama 2 من نماذج اللغات على المؤسسات التي لديها أقل من 700 مليون مستخدم نشط شهريًا. خلاف ذلك، يجب عليهم الحصول على ترخيص.