ديب سيك V4: ذكاء اصطناعي مفتوح المصدر بمستوى النماذج الرائدة
في 24 أبريل 2026، أصدرت ديب سيك المعاينة الأولى لعائلة نماذجها V4 التي طال انتظارها تحت رخصة MIT — وفي غضون ساعات، أصبح للحديث حول الذكاء الاصطناعي مفتوح المصدر مركز ثقل جديد. فمع 1.6 تريليون معامل إجمالي ونافذة سياق تبلغ مليون رمز ودرجات SWE-bench تقع ضمن 0.2 نقطة من Claude Opus 4.6، يُعد V4 أول نموذج بأوزان مفتوحة ينافس الجبهة المغلقة بشكل موثوق على المعايير التقنية. أما الالتفاتة التي جعلته أكثر إصدار ذكاء اصطناعي تداولاً هذا الأسبوع فهي السعر: أقل بنحو 85% من GPT-5.5 للأحمال البرمجية المماثلة.
بالنسبة للمطورين في الأسواق الحساسة للتكاليف — وخاصة الفرق في منطقة الشرق الأوسط وشمال إفريقيا — هذا ليس مجرد تحديث طفيف للمعايير. إنه إعادة تسعير لما تكلفه قدرة ذكاء اصطناعي جادة في التشغيل.
نموذجان في عائلة واحدة
تأتي ديب سيك V4 في صورة عائلة من نموذجين، كلاهما مبني على معمارية مزيج الخبراء (MoE)، ومنشوران في وقت واحد:
- DeepSeek-V4-Pro — النموذج الرائد: 1.6 تريليون معامل إجمالي، 49 مليار معامل نشط لكل رمز، تم تدريبه مسبقاً على 33 تريليون رمز. تصفه ديب سيك بأنه "أفضل نموذج مفتوح المصدر متاح اليوم."
- DeepSeek-V4-Flash — نموذج الكفاءة: 284 مليار معامل إجمالي، 13 مليار معامل نشط لكل رمز، تم تدريبه على 32 تريليون رمز. صغير بما يكفي ليُشغَّل على محطة عمل عالية الأداء بواسطة المستضيفين الذاتيين المصممين.
كلا النموذجين يدعمان سياقاً بمليون رمز ويأتيان بـوضعين: مسار سريع غير تأملي للاستعلامات اليومية، ووضع التفكير (Thinking) المتأني للاستنتاج المعقد والرياضيات والبرمجة.
المعمارية وقصة الكفاءة
الادعاء المعماري الأبرز ليس القدرة الخام — بل الكفاءة على السياق الطويل. عند سياق مليون رمز، يستخدم V4-Pro حوالي 27% من عمليات الفاصلة العائمة لكل رمز في V3.2 و10% فقط من ذاكرة KV. أما V4-Flash فينخفض أكثر، إلى نحو 10% من العمليات و7% من ذاكرة KV.
عملياً، هذا يعني أن صنفاً من الأحمال كان مكلفاً بشكل مانع سابقاً — تغذية قواعد كود كاملة، أو مجاميع قانونية طويلة، أو حزم بحث متعددة المستندات في موجه واحد — أصبح قابلاً للتبرير اقتصادياً. خطوط أنابيب RAG ذات السياق الطويل التي تعتمد اليوم على تجزئة عدوانية يمكن تبسيطها، وحلقات الوكلاء التي تتراكم فيها المحادثات لم تعد تدفع ضريبة ذاكرة KV الأسية.
بالنسبة للمستضيفين الذاتيين، عدد المعاملات النشطة أهم من العدد الإجمالي. فالـ13 مليار معامل نشط لكل رمز في V4-Flash تضعه في متناول وحدات معالجة الرسوميات المنتشرة بالفعل في معظم مجموعات الاستدلال المؤسسية.
المعايير: على بُعد شعرة من الجبهة المغلقة
تضع المعايير التي أبلغت عنها ديب سيك V4-Pro في صدارة كل لوحات الترتيب البرمجية مفتوحة المصدر، وفي مدى يدوي من النماذج المغلقة الرائدة على المهام التقنية:
- SWE-bench Verified: 80.6% — على بعد 0.2 نقطة من Claude Opus 4.6 (80.8%)
- Terminal-Bench 2.0: 67.9% — متقدماً على Claude Opus 4.6 بنسبة 65.4%
- LiveCodeBench: 93.5% — متقدماً على Claude Opus 4.6 بنسبة 88.8%
- تصنيف Codeforces: 3,206 — منافس لأداء البشر من فئة الأستاذ الكبير
حيث لا يزال V4 متخلفاً عن الجبهة هو في أكثر أنظمة المعرفة العامة والاستدلال تطلباً مقابل GPT-5.4 وGemini-3.1-Pro، بفجوة تطويرية تُقدِّرها ديب سيك نفسها بثلاثة إلى ستة أشهر. بالنسبة لمعظم العمل الهندسي الإنتاجي — توليد الكود وتصحيح الأخطاء وإعادة الهيكلة وخطوط الإخراج المنظم — هذه الفجوة غير مرئية.
ثورة الأسعار
المعايير لفتت الأنظار. الأسعار هي ما أبقاها.
| النموذج | المدخلات (لكل مليون رمز) | المخرجات (لكل مليون رمز) |
|---|---|---|
| DeepSeek-V4-Flash | 0.14 $ | 0.28 $ |
| DeepSeek-V4-Pro | 1.74 $ | 3.48 $ |
لوضع ذلك في سياقه: عند أداء SWE-bench شبه متطابق، فإن V4-Pro أرخص بنحو سبع مرات من النماذج البرمجية المغلقة الرائدة، وV4-Flash يخفض حتى تسعير API السلعي. أفاد مراقبون مستقلون منهم Mashable بأن معاينة V4 أقل تكلفة بحوالي 85% من GPT-5.5 للأحمال المماثلة.
مقترناً بالأوزان المفتوحة، يغير هذا التسعير حسبة "البناء مقابل الشراء" لأي فريق يشغّل استدلال ذكاء اصطناعي ذي حجم. الشركة الناشئة التي لم تكن تستطيع سابقاً تبرير إنفاق 50 ألف دولار شهرياً على API يمكنها الآن تشغيل V4-Flash، إما عبر API بأجزاء من السنت لكل طلب، أو باستضافة ذاتية على وحدات معالجة الرسوميات الخاصة بها.
الخلفية الجيوسياسية: شرائح هواوي
أُهمل إلى حد كبير في التغطية الغربية تكامل V4 الوثيق مع سيليكون هواوي. تُشير ملاحظات إصدار ديب سيك إلى أن النموذج مُحسَّن لشرائح Ascend من هواوي، ويشير مقطع في ورقة V4 إلى أن سعة هواوي 950 في طريقها لتلبية طلب الاستدلال في النصف الثاني من 2026.
بالنسبة لاستراتيجية الذكاء الاصطناعي في بكين، هذه قصة أهم من المعايير. نموذج مفتوح من فئة الجبهة يعمل بكفاءة على شرائح محلية يشكل، فعلياً، طبقة سيادة للبنية التحتية للذكاء الاصطناعي — مستقلة عن أنظمة ضوابط التصدير الخاصة بـNVIDIA. بالنسبة للمؤسسات في منطقة الشرق الأوسط وشمال إفريقيا التي تزن السيادة الرقمية إلى جانب الأداء والتكلفة، فإن هذا الفصل العتادي ليس هامشاً.
ماذا يعني هذا للمطورين والشركات
بالنسبة للفرق التقنية، تتغير ثلاثة أشياء فوراً:
1. سقف تكلفة ميزات الذكاء الاصطناعي يهبط. الميزات التي كانت محدودة سابقاً بفعل اقتصاديات API — مراجعة الكود في كل طلب سحب، وسياق قاعدة الكود الكاملة لحلقات الوكلاء، وتلخيص المستندات الطويلة على نطاق واسع — يمكن الآن تفعيلها دون تدقيق مالي.
2. الاستضافة الذاتية أصبحت قابلة للحياة فعلياً لفئة Flash. بـ13 مليار معامل نشط وكفاءة مثبتة على سياق مليون رمز، فإن V4-Flash هو أول نموذج مفتوح يكون فيه تشغيل الاستدلال الإنتاجي على عتاد مملوك تنافسياً مع استدعاءات API على مستوى التكلفة الإجمالية للملكية للأحمال عالية الحجم.
3. الاعتماد على البائعين يخف. ترخيص MIT يعني أن الأوزان نفسها قابلة للنقل. يمكن للفرق التي تدفع بالفعل أسعاراً متميزة لمزودين مغلقين ترحيل أحمالها تدريجياً، عبر اختبار V4 ضد المنافسين على حركة إنتاجية حقيقية.
بالنسبة لمنطقة الشرق الأوسط وشمال إفريقيا تحديداً، يخلق الجمع بين تسعير API المنخفض والأوزان المفتوحة والاستدلال المُحسَّن لـهواوي مساراً موثوقاً لبناء منتجات ذكاء اصطناعي سيادية دون الاعتماد على اقتصاديات مزودي الحوسبة الفائقة.
البدء
أسرع طريق هو الـAPI الرسمي على api.deepseek.com، وهو متوافق مع OpenAI. يبدو الاستدعاء الأدنى بلغة Python كما يلي:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_KEY",
base_url="https://api.deepseek.com",
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "You are a senior code reviewer."},
{"role": "user", "content": "Review this PR diff for security issues."},
],
extra_body={"thinking": True},
)
print(response.choices[0].message.content)للاستضافة الذاتية، الأوزان متاحة على Hugging Face تحت ترخيص MIT. أضافت vLLM وSGLang دعم V4 منذ اليوم الأول، وتنتشر بالفعل متغيرات مكمَّمة في المجتمع المفتوح المصدر. ستجد الفرق التي تشغل بالفعل نشرات Qwen أو Llama أن الانتقال مباشر — كلا حزمتي الخدمة تتعامل مع V4 كنقطة فحص MoE قابلة للاستبدال.
الصورة الأكبر
ديب سيك V4 لا تخلع الجبهة المغلقة. لا تزال GPT-5.4 وGemini-3.1-Pro متقدمتين على أصعب معايير الاستدلال والمعرفة. ما يفعله V4 هو سحق تكلفة قدرة "جيدة بما فيه الكفاية" لما يقرب من كل العمل الإنتاجي — ووضع تلك القدرة بين يدي أي شخص لديه ترخيص MIT ووحدة معالجة رسوميات.
بالنسبة لحركة الذكاء الاصطناعي مفتوح المصدر، هذه هي اللحظة التي ألمحت إليها صعود Qwen العام الماضي، وقد تجسدت: أوزان مفتوحة بجودة قريبة من الجبهة، بسعر يُعيد تشكيل اقتصاديات الوحدة لكل منتج ذكاء اصطناعي. أما بقية الصناعة، فإن صفحات التسعير القادمة ستبدو مختلفة جداً.
ما زالت المختبرات المغلقة تحتفظ بريادتها. لكنها لم تعد تملك خندقاً.
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.