Zhipu AI lance GLM-5 : un modèle open source de 744 milliards de paramètres qui rivalise avec les géants occidentaux de l'IA

AI Bot
Par AI Bot ·

Chargement du lecteur de synthèse vocale...

Le laboratoire chinois Zhipu AI a lancé GLM-5, un modèle de langage de 744 milliards de paramètres disponible sous licence MIT. Annoncé le 12 février 2026, le modèle a été entraîné intégralement sur des puces Huawei Ascend et revendique des performances proches des meilleurs modèles occidentaux d'Anthropic, OpenAI et Google sur les principaux benchmarks — un jalon qui illustre la réduction rapide de l'écart entre la Chine et l'Occident dans le développement de l'IA de pointe.

Points clés

  • 744 milliards de paramètres au total, dont 40 milliards actifs à l'inférence grâce à l'architecture Mixture-of-Experts (MoE)
  • Licence MIT permettant l'utilisation commerciale libre, le fine-tuning et le développement communautaire
  • Entraîné exclusivement sur des puces Huawei Ascend, garantissant une indépendance totale vis-à-vis du matériel américain
  • 77,8 % sur SWE-bench Verified, proche des 80,9 % de Claude Opus 4.5
  • Taux d'hallucination le plus bas du secteur selon l'Artificial Analysis Intelligence Index v4.0

Spécifications techniques

GLM-5 double quasiment le nombre de paramètres de son prédécesseur GLM-4.5, qui en comptait 355 milliards. Le modèle a été entraîné sur 28,5 billions de tokens, contre 23 billions pour la génération précédente. Il dispose d'une fenêtre de contexte de 200 000 tokens et d'une capacité de sortie de 131 000 tokens, ce qui en fait l'un des modèles open source les plus performants pour le traitement de documents longs.

Le modèle utilise Deepseek Sparse Attention (DSA) pour réduire les coûts de déploiement tout en maintenant les performances sur les tâches à contexte long. Il fonctionne aussi bien sur les GPU NVIDIA que sur les puces chinoises de Huawei, Moore Threads et Cambricon.

Performances sur les benchmarks

GLM-5 se positionne comme un concurrent sérieux face aux meilleurs modèles propriétaires :

BenchmarkGLM-5Claude Opus 4.5
SWE-bench Verified77,8 %80,9 %
Vending Bench 24 432 $4 967 $
BrowseComp1er (open source)

Le modèle surpasse Deepseek-V3.2 et Kimi K2.5 sur plusieurs benchmarks de programmation et de tâches agentiques. Zhipu affirme que GLM-5 domine l'ensemble du secteur — y compris les concurrents américains — en matière de fiabilité des connaissances, avec un score de -1 sur l'indice AA-Omniscience, soit une amélioration de 35 points par rapport à son prédécesseur.

Cinq capacités fondamentales

GLM-5 excelle dans cinq domaines que Zhipu considère comme essentiels pour l'adoption en entreprise :

  1. Rédaction créative avec une polyvalence stylistique à travers différents formats
  2. Génération de code avancée et débogage
  3. Raisonnement multi-étapes pour la résolution de problèmes complexes
  4. Intelligence agentique avec planification autonome et utilisation d'outils
  5. Traitement de contexte long pour les documents de recherche et les matériaux volumineux

Le modèle intègre également un « mode Agent » natif capable de transformer des instructions brutes ou des documents sources en fichiers bureautiques professionnels, générant directement des fichiers .docx, .pdf et .xlsx prêts à l'emploi.

Importance stratégique

Cette publication dépasse le cadre des benchmarks techniques. GLM-5 a été entraîné avec le framework MindSpore sur les puces Ascend de Huawei, démontrant que l'écosystème de calcul domestique chinois peut produire des modèles de pointe sans dépendre des exportations américaines de semi-conducteurs — une préoccupation majeure depuis le renforcement des contrôles à l'exportation américains en 2023.

Le calendrier est également significatif : GLM-5 est arrivé environ trois mois après les derniers modèles phares américains, réduisant de moitié le décalage habituel de sept mois entre les modèles occidentaux et chinois.

Impact sur les marchés

L'annonce a déclenché une vague haussière sur les actions des entreprises chinoises d'IA. Les actions de Zhipu AI cotées à Hong Kong ont bondi d'environ 30 %. MiniMax a enregistré une hausse de 13,7 % après le lancement de son modèle open source M2.5 mis à jour. DeepSeek a également mis à niveau son modèle phare avec une fenêtre de contexte élargie et des connaissances plus récentes.

Disponibilité et tarification

Les poids du modèle sont accessibles publiquement sur Hugging Face et ModelScope sous licence MIT. GLM-5 est également disponible sur OpenRouter, avec un tarif d'environ 0,80 à 1,00 $ par million de tokens en entrée et 2,56 à 3,20 $ par million de tokens en sortie.

Les développeurs peuvent intégrer GLM-5 avec des outils populaires tels que Claude Code, OpenCode et Roo Code via le framework OpenClaw. L'interface de chat officielle est disponible sur Z.ai.

Perspectives

Le lancement de GLM-5 intensifie la course mondiale à l'IA open source. Alors que des entreprises chinoises comme Zhipu, Deepseek et MiniMax lancent des modèles compétitifs en succession rapide, la frontière de l'IA open source n'est plus définie exclusivement par les laboratoires occidentaux. Pour les développeurs et les entreprises, cela signifie davantage de choix, des coûts réduits et une accélération de l'innovation dans l'écosystème de l'IA ouverte.


Source : The Decoder


Discutez de votre projet avec nous

Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.

Trouvons les meilleures solutions pour vos besoins.