أعلنت شركة Cerebras Systems عن حل استدلال الذكاء الاصطناعي للمطورين يوم الثلاثاء. وفقًا للشركة، فهو حل استدلال أسرع بكثير، أسرع 20 مرة من عروض Nvidia.
ستوفر Cerebras إمكانية الوصول إلى شرائحها الأكبر حجمًا لتشغيل تطبيقات الذكاء الاصطناعي التي تقول الشركة إنها أيضًا أرخص من وحدات معالجة الرسومات Nvidia. غالبًا ما يتم الوصول إلى وحدات معالجة الرسومات Nvidia المتوافقة مع معايير الصناعة عبر موفري الخدمات السحابية لتشغيل نماذج لغوية كبيرة مثل ChatGPT. عادة ما يكون الوصول إلى الخدمة ليس بالأمر السهل بالنسبة للعديد من الشركات الصغيرة وهو مكلف.
تقول شركة Cerebras إن رقائقها الجديدة يمكنها تقديم أداء يتجاوز وحدات معالجة الرسومات
استدلال الذكاء الاصطناعي هو عملية استخدام نموذج ذكاء اصطناعي تم تدريبه بالفعل للحصول على مخرجات، مثل الاستجابات من روبوتات الدردشة وحل المهام المختلفة. تعد خدمات الاستدلال العمود الفقري لتطبيقات الذكاء الاصطناعي اليوم، حيث تعتمد عليها في العمليات اليومية لتسهيل المستخدمين.
وقال سيريبراس إن الاستدلال هو القطاع الأسرع نموًا في صناعة الذكاء الاصطناعي لأنه يمثل 40٪ من جميع أعباء العمل المتعلقة بالذكاء الاصطناعي في الحوسبة السحابية. وقال أندرو فيلدمان، الرئيس التنفيذي لشركة Cerebras، إن الرقائق كبيرة الحجم للشركة توفر أداءً أكبر من وحدة معالجة الرسومات. وقال إن وحدات معالجة الرسومات لا يمكنها الوصول إلى هذا المستوى. وتحدث فيلدمان لرويترز في مقابلة.
وأضاف،
"نحن نفعل ذلك بأقصى قدر من الدقة ونقدمه بأقل سعر." المصدر: رويترز .
قال الرئيس التنفيذي إن خدمات الاستدلال القائمة على الذكاء الاصطناعي ليست مرضية لجميع العملاء. وقال لمجموعة منفصلة من المراسلين في سان فرانسيسكو إن الشركة "ترى كل أنواع الاهتمام" بحلول أسرع وأرخص.
حتى الآن، سيطرت Nvidia على سوق حوسبة الذكاء الاصطناعي من خلال شرائحها الجاهزة وبيئة برمجة CUDA (Compute Unified Device Architecture). وقد ساعد هذا Nvidia على تأمين المطورين في نظامها البيئي من خلال توفير مجموعة واسعة من الأدوات.
تحتوي رقائق Cerbras على ذاكرة أكبر بـ 7000 مرة من وحدات معالجة الرسوميات Nvidia H100
وقالت Cerebras إن خدمة الاستدلال عالية السرعة التي تقدمها تمثل تغييرًا في قواعد اللعبة بالنسبة لصناعة الذكاء الاصطناعي. تسمى الرقائق الجديدة للشركة، بحجم أطباق العشاء، بمحركات Wafer Scale Engines. يمكنهم معالجة 1000 رمز في الثانية، وهو ما تقول الشركة إنه مشابه لإدخال الإنترنت واسع النطاق.
وفقًا للشركة، توفر الرقائق الجديدة كميات مختلفة من المخرجات لنماذج الذكاء الاصطناعي المختلفة. بالنسبة لـ Llama 3.1 8B، يمكن للرقائق الجديدة معالجة ما يصل إلى 1800 رمزًا في الثانية، بينما بالنسبة لـ Llama 3.1 70B يمكنها معالجة 450 رمزًا في الثانية.
تقدم Cerebras خدمات الاستدلال بسعر 10 سنتات لكل مليون رمز، وهو أقل من الخدمات المستندة إلى وحدة معالجة الرسومات. وقالت الشركة إن الصناعة تعتقد عادة أن الأساليب البديلة تؤثر على الدقة على حساب الأداء، في حين أن رقائق Cerebras الجديدة قادرة على الحفاظ على الدقة.
وقالت شركة Cerebras إنها ستقدم منتجات استدلال الذكاء الاصطناعي بعدة أشكال. تخطط الشركة لتقديم خدمة الاستدلال عبر السحابة ومفتاح المطور. ستقوم الشركة أيضًا ببيع الرقائق الجديدة لعملاء مراكز البيانات وأولئك الذين يرغبون في تشغيل أنظمتهم الخاصة.
تحتوي رقائق Wafer Scale Engine الجديدة على وحدات تبريد وتوصيل طاقة متكاملة خاصة بها وهي جزء من نظام مركز بيانات Cerebras المسمى CS-3. وفقًا لتقارير متعددة، يعد نظام Cerebras CS-3 هو العمود الفقري لخدمة الاستدلال التي تقدمها الشركة.
يتميز النظام بسعة ذاكرة أكبر بـ 7000 مرة من وحدات معالجة الرسوميات Nvidia H100. وهذا يحل أيضًا المشكلة الأساسية المتعلقة بعرض النطاق الترددي للذاكرة، والتي يحاول العديد من صانعي الرقائق حلها.
تعمل Cerbras أيضًا على أن تصبح شركة مساهمة عامة. وللقيام بذلك، قدمت نشرة سرية إلى لجنة الأوراق المالية والبورصات (SEC) هذا الشهر.