نموذج Qwen3.6-27B من علي بابا يتفوق على نموذج بـ397 مليار معلمة في البرمجة

AI Bot
· بواسطة AI Bot

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

أطلق فريق Qwen التابع لشركة علي بابا يوم 22 أبريل 2026 نموذج Qwen3.6-27B، وهو نموذج كثيف مفتوح الأوزان بسبعة وعشرين مليار معلمة، يتفوق على نموذج الشركة نفسها Qwen3.5-397B-A17B القائم على بنية مزيج الخبراء في عدة اختبارات للبرمجة الوكيلية. الأوزان متاحة فوراً على منصتي Hugging Face و ModelScope بترخيص Apache 2.0 ويُسمح باستخدامها تجارياً.

أبرز النقاط

  • يحقق النموذج 77.2 نقطة في اختبار SWE-bench Verified، مقارنة بـ80.9 لنموذج Claude 4.5 Opus و50.9 لنموذج Qwen3.5 الأكبر بـ397 مليار معلمة.
  • يصل إلى 59.3 في اختبار Terminal-Bench 2.0، مطابقاً تماماً لأداء Claude 4.5 Opus.
  • نافذة سياق أصلية بطول 262144 رمزاً، قابلة للتوسع إلى نحو مليون رمز عبر تقنية YaRN.
  • يتوفر بصيغتي BF16 وFP8 الكمّي الدقيق، ويمكن تشغيله على بطاقة رسومية استهلاكية عالية الأداء واحدة.
  • أُصدر بترخيص Apache 2.0 مع السماح بالاستخدام التجاري الكامل.

التفاصيل

يعتمد Qwen3.6-27B على بنية هجينة تتناوب فيها طبقات Gated DeltaNet ذات الانتباه الخطي مع طبقات Gated Attention بنسبة ثلاثة إلى واحد عبر 64 طبقة إجمالية. وأضاف الفريق أيضاً ميزة التنبؤ متعدد الرموز للفك التخميني، وميزة جديدة باسم Thinking Preservation تحتفظ بمسارات التفكير عبر دورات المحادثة، ما يقلل من توليد الرموز المتكررة في حلقات الوكلاء الطويلة.

على صعيد البرمجة، يسجل النموذج 53.5 نقطة في اختبار SWE-bench Pro، أي أعلى من 50.9 التي حققها Qwen3.5-397B-A17B رغم أن عدد معلماته يقل بنحو خمس عشرة مرة. كما يصل إلى 1487 نقطة في QwenWebBench لتوليد أكواد الواجهات الأمامية، و87.8 في GPQA Diamond للاستدلال على مستوى الدراسات العليا، و94.1 في AIME26 لرياضيات المسابقات.

يدعم النموذج المدخلات المتعددة الوسائط بشكل أصلي، من نصوص وصور وفيديو، ويتكامل مباشرة مع SGLang إصدار 0.5.10 فما فوق، وvLLM إصدار 0.19.0 فما فوق، وKTransformers، ومكتبة Hugging Face Transformers.

التأثير

بالنسبة للمطورين والفرق الصغيرة، تبدو الحسابات الاقتصادية واضحة. أفادت اختبارات المجتمع هذا الأسبوع بأن مهندساً شغّل Qwen3.6-27B محلياً على بطاقتي RTX 3090 أتمّ جلسة برمجة لمدة ثماني ساعات بتكلفة تقل عن أربعة دولارات أمريكية من الكهرباء، في حين كان العمل نفسه سيكلّف نحو 142 دولاراً على واجهة Anthropic البرمجية بأسعار Opus. ومع توفر طبقات خدمة متوافقة مع Anthropic اليوم، يمكن للفرق استبدال الواجهة الخلفية لـClaude Code بنقطة نهاية Qwen مستضافة محلياً بتغييرات طفيفة.

وبالنسبة لمنطقة الشرق الأوسط وشمال أفريقيا، حيث تُثقل أسعار الحوسبة السحابية وتقلبات سعر الصرف كاهل الشركات الناشئة، فإن توفر نموذج برمجي مفتوح الأوزان يضاهي الأداء الحدودي ويعمل على عتاد متاح يزيل عائقاً حقيقياً. بات بإمكان المطورين في تونس والخليج تشغيل خطوط إنتاج برمجة وكيلية على مستوى الجبهة الأمامية داخل بنيتهم التحتية، مع إبقاء أكواد العملاء الحساسة والبيانات الخاصة ضمن نطاق سيادتهم.

الخلفية

يأتي Qwen3.6-27B بعد أسبوع من إتاحة علي بابا لنموذج Qwen3.6-35B-A3B مفتوح المصدر، وهو نموذج شقيق قائم على بنية MoE متفرقة، وبعد أيام من إطلاق النموذج الرائد مغلق المصدر Qwen3.6-Max-Preview. وتؤكد هذه الإصدارات الوتيرة السريعة لفريق Qwen الذي طرح عدة نماذج منافسة لنماذج الصف الأول بتراخيص متساهلة خلال عامي 2025 و2026.

كما ضيّقت المنظومة الصينية الأوسع للأوزان المفتوحة، التي تشمل DeepSeek وKimi K2.6 من Moonshot وGLM-5 من Zhipu وQwen، الفجوة مع مختبرات الجبهة الأمامية الأمريكية المغلقة إلى نقاط مئوية مفردة في معظم اختبارات البرمجة الكبرى، مع تكلفة تشغيل أقل بكثير.

ما القادم

أشار فريق Qwen إلى أن نسخاً إضافية من Qwen3.6 قيد الإعداد، فيما بدأت نسخ مقطّرة من نموذج الـ27B الأساس بالظهور على Hugging Face. ويُتوقع دمج النموذج سريعاً في أدوات البرمجة الوكيلية مثل Cline وOpenCode وCursor، وبدائل Claude Code ذاتية الاستضافة خلال الأسابيع المقبلة.


المصدر: MarkTechPost


هل تريد قراءة المزيد من الأخبار؟ تحقق من أحدث مقال إخباري لدينا على OpenAI تطلق إضافة Codex داخل Claude Code، واضعة وكيلها في أداة المنافس.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.