Ant Group ouvre Ling-2.6-1T en open source : un modèle à mille milliards de paramètres pensé pour les agents

Le laboratoire InclusionAI d'Ant Group a publié le 30 avril 2026 les poids ouverts de Ling-2.6-1T, un modèle de langage Mixture-of-Experts (MoE) à mille milliards de paramètres conçu spécifiquement pour les workflows agentiques, l'utilisation d'outils et les tâches logicielles de longue durée. Le modèle est désormais disponible sur Hugging Face et ModelScope sous une licence permissive, intensifiant une année déjà très agressive pour l'IA open source chinoise.
Points clés
- Mille milliards de paramètres au total, dont environ 50 à 63 milliards actifs par token via le routage Mixture-of-Experts.
- Fenêtre de contexte de 262 144 tokens, avec jusqu'à 32 800 tokens en sortie par réponse.
- Architecture d'attention hybride combinant Multi-Head Latent Attention (MLA) et Linear Attention pour activer un mode "Fast-Thinking" qui réduit la consommation de tokens.
- Poids ouverts publiés sur Hugging Face et ModelScope, avec une API officielle facturée 0,30 dollar par million de tokens d'entrée et 2,50 dollars par million de tokens de sortie.
- Bond de 15 points sur l'Artificial Analysis Intelligence Index par rapport à son prédécesseur Ling-1T, atteignant 34 — comparable à DeepSeek V3.2 (32) et Kimi K2.5 (37).
Détails
Développé par l'équipe Bailing Large Model du laboratoire InclusionAI d'Ant Group, Ling-2.6-1T est positionné comme un modèle phare "axé sur l'exécution" plutôt que comme un pur modèle de raisonnement. Ant présente cette conception comme une rupture délibérée avec les systèmes lourds en chaînes de pensée : au lieu de produire de longues traces de raisonnement visibles, le modèle est calibré pour agir avec décision sur les instructions, les appels d'outils et les sorties structurées.
Selon les notes de version, le modèle obtient des résultats de pointe parmi les modèles open source sur SWE-bench Verified, AIME 26, TAU2-Bench pour les workflows d'agents et BFCL-V4 pour l'invocation d'outils. L'évaluation indépendante d'Artificial Analysis a confirmé de solides performances en raisonnement scientifique — 75 pour cent sur GPQA — plaçant Ling-2.6-1T dans le même palier d'intelligence que DeepSeek V3.2 sur les tâches de connaissance de niveau supérieur.
Le mécanisme "Fast-Thinking" constitue la principale revendication d'efficacité de l'annonce. Ant indique que Ling-2.6-1T utilise environ 16 millions de tokens de sortie pour compléter l'intégralité de l'Artificial Analysis Intelligence Index, contre environ 75 millions pour GLM-5.1 et 27 millions pour Kimi K2.6. Aux tarifs publics, cela représente environ 95 dollars pour exécuter la suite complète de benchmarks, soit un ordre de grandeur moins cher que plusieurs modèles fermés de pointe.
Impact
Pour les développeurs qui construisent des agents, le rapport coût/capacité est l'élément le plus décisif de l'annonce. Un modèle ouvert à mille milliards de paramètres capable d'exécuter des workflows d'agents pour moins d'un dollar par tâche significative supprime un véritable obstacle pour les startups et les équipes de recherche écartées des paliers d'API de pointe. La fenêtre de contexte de 262K ouvre également la voie à des revues de bases de code étendues, à l'analyse multi-documents et à des boucles d'utilisation d'outils prolongées sans troncature agressive.
Le tableau de la fiabilité factuelle est plus contrasté. Artificial Analysis a relevé un taux d'hallucination de 92 pour cent sur son benchmark AA-Omniscience — proche de GPT-5.5 non-raisonneur — ce qui signifie que les équipes déployant le modèle pour des charges ancrées dans la récupération ou sensibles à la conformité devront mettre en place des garde-fous et des couches de vérification rigoureuses.
Pour l'écosystème dans son ensemble, cette publication ajoute un point de plus à un récit qui a dominé 2026 : les laboratoires chinois ne sont plus à la traîne de la frontière open source, ils la définissent. Ling-2.6-1T rejoint les récentes publications ouvertes de l'équipe Qwen d'Alibaba, de la gamme Kimi de Moonshot, de GLM-5 de Zhipu et de DeepSeek comme preuve que l'écart avec les modèles de pointe occidentaux fermés se réduit, au minimum.
Contexte
Ant Group, l'affilié fintech dans lequel Alibaba détient une participation minoritaire d'environ 33 pour cent, exploite InclusionAI comme son laboratoire de recherche ouvert. La famille Ling a démarré avec des modèles denses plus petits, est passée à l'échelle avec le Ling-1T original fin de l'année dernière, et a depuis enchaîné Ling-2.5-1T, Ling-2.6-Flash et Ling-2.6-1T sur une période d'environ six mois. Un cousin orienté raisonnement, Ring-1T, avait été publié plus tôt comme premier modèle "thinking" open source à mille milliards de paramètres ; les deux gammes de produits remplissent désormais des rôles distincts : Ring pour le raisonnement délibéré, Ling pour l'exécution rapide.
Cette stratégie reflète un schéma plus large parmi les laboratoires d'IA chinois : distribuer agressivement des poids ouverts tout en monétisant via les API d'inférence et les intégrations en entreprise. Ant n'a pas divulgué la puissance de calcul utilisée pour l'entraînement, mais les améliorations architecturales — en particulier la composante d'attention linéaire — suggèrent un travail significatif sur l'économie de l'inférence plutôt que sur la seule échelle brute.
La suite
Ant a indiqué que la famille Ling continuerait à itérer sur l'efficacité en tokens et la spécialisation pour les agents, avec une intégration plus profonde dans les produits d'entreprise d'Ant attendue plus tard cette année. Des hébergeurs tiers, dont Novita, OpenRouter et ZenMux, servent déjà Ling-2.6-1T, ce qui devrait accélérer l'expérimentation par les développeurs. À surveiller : les fine-tunes communautaires, les distillations vers des tailles plus petites et les benchmarks sur des charges intensives en agents — ces éléments, plus que les chiffres bruts de l'index d'intelligence, détermineront si Ling-2.6-1T devient un choix par défaut pour les piles d'agents de production ou une alternative solide mais de niche face à DeepSeek et Qwen.
Source : AIBase
Discutez de votre projet avec nous
Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.
Trouvons les meilleures solutions pour vos besoins.