Qwen3.6-27B d'Alibaba bat un modèle à 397 milliards de paramètres en codage

AI Bot
Par AI Bot ·

Chargement du lecteur de synthèse vocale...

L'équipe Qwen d'Alibaba a publié Qwen3.6-27B le 22 avril 2026, un modèle dense à poids ouverts de 27 milliards de paramètres qui surpasse le propre modèle mixture-of-experts de 397 milliards de paramètres de l'entreprise sur plusieurs benchmarks de codage agentique. Les poids sont distribués sous licence Apache 2.0 et immédiatement disponibles sur Hugging Face et ModelScope pour un auto-hébergement commercial.

Points clés

  • Atteint 77,2 au SWE-bench Verified, contre 80,9 pour Claude 4.5 Opus et 50,9 pour le Qwen3.5-397B-A17B MoE beaucoup plus volumineux.
  • Obtient 59,3 au Terminal-Bench 2.0, égalant exactement Claude 4.5 Opus.
  • Fenêtre de contexte native de 262 144 tokens, extensible à environ un million de tokens grâce à la mise à l'échelle YaRN.
  • Disponible en variantes BF16 et en quantification FP8 à grain fin, exécutables sur un seul GPU grand public haut de gamme.
  • Publié sous Apache 2.0 avec un usage commercial intégralement autorisé.

Détails

Qwen3.6-27B utilise une architecture hybride qui alterne les couches d'attention linéaire Gated DeltaNet avec des couches Gated Attention dans un rapport de trois pour un, sur un total de 64 couches. L'équipe a également ajouté la prédiction multi-tokens pour le décodage spéculatif ainsi qu'une nouvelle fonction Thinking Preservation qui conserve les traces de raisonnement au fil des tours de conversation, réduisant la génération redondante de tokens dans les longues boucles d'agents.

Côté codage, le modèle affiche 53,5 au SWE-bench Pro — un score supérieur aux 50,9 obtenus par Qwen3.5-397B-A17B malgré un nombre de paramètres environ quinze fois moindre. Il atteint également 1487 au QwenWebBench pour la génération de code frontend, 87,8 au GPQA Diamond pour le raisonnement de niveau doctoral, et 94,1 à l'AIME26 pour les mathématiques de compétition.

Le modèle est nativement multimodal et gère texte, image et vidéo en entrée. Il s'intègre directement avec SGLang à partir de la version 0.5.10, vLLM à partir de la version 0.19.0, KTransformers et la bibliothèque Hugging Face Transformers.

Impact

Pour les développeurs et les petites équipes, l'équation économique est difficile à ignorer. Des benchmarks communautaires cette semaine ont rapporté qu'un ingénieur faisant tourner Qwen3.6-27B localement sur deux RTX 3090 a complété une session de codage de huit heures pour moins de quatre dollars américains d'électricité — un travail qui aurait coûté environ 142 dollars sur l'API Anthropic aux tarifs Opus. Avec des couches de service compatibles Anthropic désormais courantes, les équipes peuvent remplacer le backend de Claude Code par un endpoint Qwen hébergé localement avec des modifications minimes.

Pour la région MENA, où les prix du cloud GPU et la volatilité des devises pèsent lourdement sur les startups, l'arrivée d'un modèle de codage à poids ouverts de qualité frontière, exécutable sur du matériel standard, lève un vrai frein. Les développeurs tunisiens et du Golfe peuvent désormais faire tourner des pipelines de codage agentique de niveau avancé sur site, en gardant le code client sensible et les données propriétaires à l'intérieur de leur propre juridiction.

Contexte

Qwen3.6-27B arrive une semaine après qu'Alibaba a mis en open-source Qwen3.6-35B-A3B, un modèle frère à architecture MoE parcimonieuse, et quelques jours après le modèle phare propriétaire Qwen3.6-Max-Preview. Cette sortie poursuit la cadence rapide de l'équipe Qwen, qui a désormais livré plusieurs modèles compétitifs avec la frontière sous des licences permissives au cours de 2025 et 2026.

L'écosystème chinois plus large des poids ouverts — qui inclut DeepSeek, Kimi K2.6 de Moonshot, GLM-5 de Zhipu et Qwen — a resserré l'écart de performance avec les laboratoires frontière américains fermés à quelques points de pourcentage sur les principaux benchmarks de codage, pour une fraction du coût d'exécution.

Et après

L'équipe Qwen a indiqué que d'autres variantes de Qwen3.6 sont en préparation, et des distillations communautaires du modèle de base 27B apparaissent déjà sur Hugging Face. On peut s'attendre à une intégration rapide dans les outils de codage agentique tels que Cline, OpenCode, Cursor et les alternatives auto-hébergées à Claude Code dans les semaines à venir.


Source : MarkTechPost


Vous voulez lire plus d'actualités? Découvrez notre dernier article sur Anthropic supprime la prise en charge des outils tiers comme OpenClaw pour les abonnements Claude.

Discutez de votre projet avec nous

Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.

Trouvons les meilleures solutions pour vos besoins.