NVIDIA تكشف عن شريحة Groq 3 LPU في مؤتمر GTC 2026: معالج استدلال مخصص يتفوق على وحدات GPU

AI Bot
· بواسطة AI Bot

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

كشف الرئيس التنفيذي لشركة NVIDIA، جينسن هوانغ، عن وحدة معالجة اللغة Groq 3 (LPU) خلال كلمته الرئيسية في مؤتمر GTC 2026 يوم 16 مارس، مسجلاً أول شريحة استدلال مخصصة ناتجة عن صفقة ترخيص NVIDIA مع شركة Groq الناشئة بقيمة 20 مليار دولار، والتي أُبرمت ليلة عيد الميلاد 2025.

أبرز النقاط

  • تقدم شريحة Groq 3 LPU عرض نطاق ترددي للذاكرة يبلغ 150 تيرابايت في الثانية، أي سبعة أضعاف سرعة ذاكرة HBM4 في كل وحدة Vera Rubin GPU البالغة 22 تيرابايت في الثانية
  • تحتوي كل شريحة على 500 ميغابايت من ذاكرة SRAM المدمجة، لتحل محل ذاكرة HBM الخارجية التقليدية
  • حوامل LPX المبردة بالسوائل تضم 256 وحدة LPU مع 128 غيغابايت من ذاكرة SRAM المدمجة و640 تيرابايت في الثانية من عرض النطاق الترددي
  • يحقق النظام مع وحدات Rubin GPU إنتاجية أعلى بـ 35 مرة لكل ميغاواط

معمارية جديدة للاستدلال

على عكس وحدات GPU التي تعتمد على ذاكرة النطاق الترددي العالي (HBM) الموجودة بجانب المعالج، تقوم شريحة Groq 3 LPU بتشابك وحدات المعالجة مباشرة مع وحدات الذاكرة على الشريحة نفسها. يخلق هذا التصميم تدفقاً خطياً مبسطاً للبيانات يقلل بشكل كبير من زمن الاستجابة — وهو عامل حاسم لتطبيقات الذكاء الاصطناعي الوكيلي في الوقت الفعلي.

صُممت المعمارية خصيصاً لعصر أحمال العمل متعددة الوكلاء، حيث تحتاج ملايين وكلاء الذكاء الاصطناعي إلى التفكير والاستجابة في أجزاء من الثانية. من خلال تقريب معالجة البيانات من الذاكرة، تزيل Groq 3 عنق الزجاجة الذي يحد من الاستدلال القائم على GPU على نطاق واسع.

حوامل LPX: الاستدلال على مستوى مراكز البيانات

ستنشر NVIDIA شريحة Groq 3 في حوامل LPX مخصصة، تحتوي كل منها على 256 وحدة LPU متصلة عبر نسيج اتصال عالي السرعة. صُممت هذه الأنظمة المبردة بالسوائل للعمل جنباً إلى جنب مع حوامل Vera Rubin GPU، مما يخلق معمارية هجينة تتولى فيها وحدات GPU التدريب والاستدلال المعقد بينما تسرّع وحدات LPU إنتاجية الاستدلال.

معاً، صُمم النظام المدمج للتعامل مع نماذج بتريليون معامل ونوافذ سياق بمليون رمز، مما يفتح ما تصفه NVIDIA بـ فرصة إيرادات أكبر بعشر مرات لمزودي السحابة والمؤسسات.

رهان بقيمة 20 مليار دولار على الاستدلال

شريحة Groq 3 هي النتيجة المباشرة لأكبر صفقة ملكية فكرية في تاريخ NVIDIA. في ديسمبر 2025، حصلت NVIDIA على ترخيص غير حصري لتقنية الاستدلال منخفض الكمون من Groq مقابل 20 مليار دولار — وهي خطوة شبّهها المحللون بصفقة الاستحواذ التحويلية على Mellanox في 2019.

صرّح هوانغ خلال كلمته في GTC: "الموجة الكبرى القادمة في حوسبة الذكاء الاصطناعي ستكون حول الاستدلال". مع تحول الذكاء الاصطناعي من تدريب النماذج الضخمة إلى نشرها عبر مليارات التفاعلات، يصبح العتاد المخصص للاستدلال ضرورياً للأداء وكفاءة الطاقة على حد سواء.

ماذا يعني هذا للصناعة

تشير شريحة Groq 3 LPU إلى تحول جوهري في البنية التحتية للذكاء الاصطناعي. حتى الآن، سيطرت وحدات GPU على أحمال التدريب والاستدلال معاً. مع شريحة استدلال مخصصة تقدم 7 أضعاف عرض النطاق الترددي للذاكرة مقارنة بأفضل وحدات GPU لديها، تخلق NVIDIA فعلياً استراتيجية شريحتين: وحدات Rubin GPU للتدريب والاستدلال، ووحدات Groq 3 LPU للاستدلال عالي الإنتاجية.

بالنسبة لمزودي السحابة، يترجم هذا إلى تكلفة أقل بكثير لكل رمز واستهلاك أقل للطاقة. أما للمطورين الذين يبنون أنظمة ذكاء اصطناعي وكيلية، فيعني أن البنية التحتية لدعم التفاعلات متعددة الوكلاء في الوقت الفعلي على نطاق واسع تصل أسرع من المتوقع.

من المتوقع أن تبدأ شحنات Groq 3 LPU في الربع الثالث من 2026.


المصدر: مدونة NVIDIA للمطورين


هل تريد قراءة المزيد من الأخبار؟ تحقق من أحدث مقال إخباري لدينا على جوجل تعلن عن A2A: بروتوكول مفتوح لتعاون وكلاء الذكاء الاصطناعي.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.