Zhipu AI تطلق GLM-5: نموذج مفتوح المصدر بـ 744 مليار معامل ينافس عمالقة الذكاء الاصطناعي الغربيين

أطلقت شركة Zhipu AI الصينية نموذج GLM-5، وهو نموذج لغوي ضخم يضم 744 مليار معامل متاح تحت ترخيص MIT المفتوح. النموذج، الذي أُعلن عنه في 12 فبراير 2026، تم تدريبه بالكامل على رقائق Huawei Ascend ويدّعي تحقيق أداء مقارب لأبرز النماذج الغربية من Anthropic و OpenAI و Google في المعايير الرئيسية — وهو إنجاز يشير إلى تقلّص الفجوة بسرعة بين الصين والغرب في تطوير نماذج الذكاء الاصطناعي المتقدمة.
أبرز النقاط
- 744 مليار معامل إجمالي مع 40 مليار معامل نشط أثناء الاستدلال باستخدام بنية خليط الخبراء (MoE)
- ترخيص MIT يتيح الاستخدام التجاري المجاني والتعديل والتطوير المجتمعي
- تدريب كامل على رقائق Huawei Ascend محققاً استقلالية تامة عن العتاد الأمريكي
- 77.8% في معيار SWE-bench Verified مقترباً من نتيجة Claude Opus 4.5 البالغة 80.9%
- أقل معدل هلوسة مسجّل على مؤشر Artificial Analysis Intelligence Index v4.0
المواصفات التقنية
يضاعف GLM-5 تقريباً عدد معاملات سلفه GLM-4.5 الذي كان يضم 355 مليار معامل. تم تدريب النموذج على 28.5 تريليون رمز، مقارنة بـ 23 تريليون في الجيل السابق. يتميز بنافذة سياق تبلغ 200,000 رمز وقدرة إخراج تصل إلى 131,000 رمز، مما يجعله أحد أقوى النماذج مفتوحة المصدر في معالجة المستندات الطويلة.
يستخدم النموذج تقنية Deepseek Sparse Attention (DSA) لتقليل تكاليف النشر مع الحفاظ على الأداء في المهام طويلة السياق. يعمل على كل من وحدات معالجة NVIDIA والرقائق الصينية من Huawei و Moore Threads و Cambricon.
أداء المعايير
يضع GLM-5 نفسه كمنافس جدي لأفضل النماذج المغلقة:
| المعيار | GLM-5 | Claude Opus 4.5 |
|---|---|---|
| SWE-bench Verified | 77.8% | 80.9% |
| Vending Bench 2 | $4,432 | $4,967 |
| BrowseComp | الأول | — |
يتفوق النموذج على كل من Deepseek-V3.2 و Kimi K2.5 في عدة معايير للبرمجة ومهام الوكلاء. والجدير بالذكر أن Zhipu تدّعي أن GLM-5 يتصدر القطاع بأكمله — بما في ذلك المنافسون الأمريكيون — في موثوقية المعرفة، محققاً نتيجة -1 على مؤشر AA-Omniscience، بتحسن 35 نقطة عن سلفه.
خمس قدرات أساسية
يتفوق GLM-5 في خمسة مجالات تعتبرها Zhipu حاسمة لاعتماده في المؤسسات:
- الكتابة الإبداعية بتنوع أسلوبي عبر مختلف التنسيقات
- توليد الأكواد المتقدم وتصحيح الأخطاء البرمجية
- الاستدلال متعدد الخطوات لحل المشكلات المعقدة
- الذكاء الوكيلي مع التخطيط المستقل واستخدام الأدوات
- معالجة السياق الطويل للمستندات البحثية والمواد المكثفة
يتميز النموذج أيضاً بـ "وضع الوكيل" الأصلي الذي يمكنه تحويل المطالبات الأولية أو المواد المصدرية إلى مستندات مكتبية احترافية، مُنتجاً ملفات .docx و .pdf و .xlsx جاهزة للاستخدام مباشرة.
الأهمية الاستراتيجية
يحمل هذا الإصدار ثقلاً يتجاوز المعايير التقنية. تم تدريب GLM-5 باستخدام إطار MindSpore على رقائق Huawei Ascend، مما يُثبت أن منظومة الحوسبة المحلية الصينية قادرة على إنتاج نماذج بحجم الحدود الأمامية دون الاعتماد على صادرات أشباه الموصلات الأمريكية — وهو مصدر قلق رئيسي منذ تشديد قيود التصدير الأمريكية في 2023.
التوقيت أيضاً جدير بالملاحظة: وصل GLM-5 بعد نحو ثلاثة أشهر من أحدث إصدارات النماذج الأمريكية الرائدة، مقلّصاً الفجوة الزمنية المعتادة البالغة سبعة أشهر بين النماذج الغربية والصينية إلى النصف.
التأثير على السوق
أثار الإعلان موجة ارتفاع في أسهم شركات الذكاء الاصطناعي الصينية، حيث قفزت أسهم Zhipu AI المدرجة في هونغ كونغ بنحو 30%. كما شهدت MiniMax ارتفاعاً بنسبة 13.7% بعد إطلاقها نموذج M2.5 المحدّث مفتوح المصدر. وقامت DeepSeek أيضاً بترقية نموذجها الرئيسي مع دعم نافذة سياق أكبر ومعرفة أحدث.
التوفر والتسعير
أوزان النموذج متاحة للعموم على Hugging Face و ModelScope تحت ترخيص MIT. كما أن GLM-5 متوفر على OpenRouter بسعر يقارب $0.80–$1.00 لكل مليون رمز إدخال و $2.56–$3.20 لكل مليون رمز إخراج.
يمكن للمطورين دمج GLM-5 مع أدوات شائعة مثل Claude Code و OpenCode و Roo Code عبر إطار OpenClaw. واجهة المحادثة الرسمية متاحة على Z.ai.
ما التالي؟
يُكثّف إصدار GLM-5 سباق الذكاء الاصطناعي المفتوح عالمياً. مع إطلاق شركات صينية مثل Zhipu و Deepseek و MiniMax نماذج تنافسية بتتابع سريع، لم تعد حدود الذكاء الاصطناعي مفتوح المصدر تُحدَّد حصرياً من قبل المختبرات الغربية. بالنسبة للمطورين والمؤسسات، يعني هذا خيارات أوسع وتكاليف أقل وابتكاراً متسارعاً في منظومة الذكاء الاصطناعي المفتوح.
المصدر: CNBC
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.