تاريخ النشر: 19 يوليو 2023
أعلنت شركة ميتا يوم الثلاثاء أنها سوف تسمح بتشغيل نموذج اللغة الكبير (لاما 2) Llama 2 التابع لها في شرائح شركة كوالكوم المستخدمة في الهواتف الذكية والحواسيب الشخصية، وذلك اعتبارًا من عام 2024 المقبل.
ولتشغيل نماذج اللغة الكبيرة، تعتمد الصناعة حاليًا في المقام الأول على مراكز البيانات التي تحتوي على أعداد كثيرة من الخوادم القوية التي تتضمن (وحدات معالجة الرسومات) GPU من شركة إنفيديا، وذلك نظرًا إلى الاحتياجات الهائلة للتقنية إلى الطاقة والبيانات الحاسوبية.
ولكن طفرة الذكاء الاصطناعي غابت إلى حد كبير عن الشركات التي تصنع شرائح متقدمة للهواتف الذكية والحواسيب اللوحية والحواسيب الشخصية، مثل: كوالكوم.
ويشير إعلان يوم الثلاثاء إلى أن شركة كوالكوم تريد أن يكون لشرائحها موضع قدم في صناعة الذكاء الاصطناعي الناشئة، ولكن ضمن الأجهزة، وليس في السحابة.
وإن كان من الممكن تشغيل نماذج اللغات الكبيرة في الهواتف بدلًا من مراكز البيانات الكبيرة، فقد يؤدي ذلك إلى خفض التكلفة الكبيرة لتشغيل نماذج الذكاء الاصطناعي، وإلى تطوير مساعدين صوتيين وتطبيقات أخرى أفضل وأسرع.
موضوعات ذات صلة بما تقرأ الآن:
وتعتزم كوالكوم جعل نموذج اللغة الكبير (لاما 2)، الذي يمتاز بأنه مفتوح المصدر، متاحًا في الأجهزة التي تحتوي على شرائحها، الأمر الذي تعتقد أنه سيمسح بتقديم خدمات ذكية غير معهودة في هذه الفئة من الأجهزة.
ويمكن لنموذج (لاما 2) من ميتا القيام بالعديد من الأشياء ذاتها التي يمكن لروبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT فعلها، ولكن يمكن تجميعها في برنامج أصغر، مما يسمح بتشغيلها في الأجهزة المحمولة.
وتحتوي شرائح كوالكوم على (وحدة معالجة تانسور) Tensor Processor Unit، وهي مناسبة تمامًا لأنواع من الحسابات التي تتطلبها نماذج الذكاء الاصطناعي.
ومع ذلك، فإن مقدار قوة المعالجة المتوفرة في جهاز محمول ضئيلة مقارنةً بمراكز البيانات المجهزة بأحدث وحدات معالجة الرسومات.
ويُعد نموذج اللغة الكبير (لاما) من ميتا مهمًا لأن الشركة نشرت «الشفرة المصدرية» التي تساعد في التحكم في كيفية عمله.
وبجعل النموذج مفتوح المصدر، سيكون بإمكان الباحثين والمؤسسات التجارية في نهاية المطاف استخدام نماذج الذكاء الاصطناعي في أجهزة الحاسوب الخاصة بهم دون طلب الإذن أو الدفع.
وتجدر الإشارة إلى أن نماذج اللغة الكبيرة البارزة الأخرى، مثل: (جي بي تي-4) GPT-4 من (أوبن أي آي) OpenAI، و(بارد) Bard من جوجل، هي مغلقة المصدر، ولا يمكن الوصول إلى الشفرة المصدرية الخاصة بها.
ويُشار إلى أن كوالكوم عملت على نحو وثيق مع ميتا في الماضي، لا سيما على شرائح نظارات الواقع الافتراضي (كوست) Quest الخاصة بها.
كما جرّبت أيضًا بعض نماذج الذكاء الاصطناعي التي تعمل ببطء في شرائحها، مثل: مولد الصور المفتوح المصدر (الانتشار المستقر) Stable Diffusion.
ويأتي إعلان ميتا وكوالكوم بالتزامن مع إعلان مماثل من ميتا ومايكروسوفت تدمج فيه الأخيرة نموذج (لاما 2) في خدمة الحوسبة السحابية التابعة لها (أزور) Azure.