La Chine fait du Nouvel An lunaire une vitrine pour accélérer la technologie : de nouveaux modèles d’IA défient frontalement la domination californienne.
Pendant que les dragons dansent et que les feux d’artifice illuminent le ciel en Chine, les géants du numérique tirent aussi leur propre feu d’artifice - mais en version logicielle. De nouveaux modèles d’IA venus de Pékin, Hangzhou et Shenzhen se rapprochent à une vitesse frappante de ChatGPT, Gemini et consorts, au point de faire réfléchir jusqu’au patron d’OpenAI, Sam Altman. Une question s’impose soudain : combien de temps encore la Silicon Valley gardera-t-elle la main sur l’intelligence artificielle ?
Le Nouvel An lunaire, vitrine d’IA : la Chine expose ses modèles d’IA chinois
Lors des festivités du Nouvel An chinois, il n’a pas seulement été question de tradition : la haute technologie s’est invitée au premier plan. Dans des shows officiels, des robots humanoïdes ont exécuté des chorégraphies synchronisées aux côtés de danseurs humains. Le message était clair : la Chine veut prouver qu’en robotique et en intelligence artificielle, elle n’est plus un suiveur.
En parallèle, les principaux groupes technologiques du pays ont lancé une nouvelle vague de modèles d’IA couvrant pratiquement tous les grands axes de l’IA actuelle - générateurs vidéo, chatbots multimodaux, assistants de programmation très spécialisés.
« Alors que les États-Unis voulaient freiner la Chine avec des interdictions d’exportation de puces, cette pression contraint précisément les entreprises chinoises à une efficacité radicale - avec des effets visibles sur la vitesse et les coûts. »
Dans une interview accordée à CNBC, Sam Altman a lui-même parlé d’un rythme « remarquable » en Chine. Qu’un dirigeant américain de tout premier plan s’exprime avec autant de clarté en dit long sur le sérieux avec lequel la Silicon Valley considère cette concurrence.
Un embargo américain qui se transforme en accélérateur inattendu
À l’origine de cette dynamique, on trouve paradoxalement la politique américaine. Washington limite fortement l’exportation de puces d’IA avancées vers la République populaire. L’objectif affiché était de ralentir les ambitions chinoises en IA ; sur le terrain, c’est souvent l’inverse qui se produit.
Là où OpenAI, Google ou Meta construisent d’immenses centres de calcul remplis de puces Nvidia, les développeurs chinois doivent travailler avec des ressources bien plus contraintes. Cette rareté les pousse à changer de méthode : architectures plus sobres, procédures d’entraînement mieux optimisées, et recherche d’alternatives au matériel américain.
Un exemple concret : l’utilisation des puces Huawei Ascend pour entraîner de grands modèles de langage. Ces semi-conducteurs ne viennent pas des États-Unis, mais sont désormais suffisamment performants pour servir à l’entraînement de modèles de haut niveau. À long terme, l’efficacité acquise dans ces conditions réduit durablement les coûts - un avantage stratégique dans la compétition mondiale.
Modèles ouverts comme atout : le pari chinois sur l’open source et l’open weight
Un point saute aux yeux - et peut faciliter l’adoption côté européen : une large partie des nouveaux modèles chinois sort en open source ou en version open weight.
- Open source : le code source, l’architecture du modèle et souvent aussi les données d’entraînement sont publics.
- Open weight : les poids du modèle sont disponibles au téléchargement, mais le code qui les entoure reste parfois propriétaire.
Dans les deux cas, un même bénéfice : ces modèles peuvent être exécutés localement, sur ses propres serveurs, voire sur des stations de travail puissantes. Les organisations gardent ainsi la maîtrise de leurs données, sans devoir les envoyer à une plateforme américaine ou à un fournisseur cloud chinois.
« Pour de nombreuses entreprises en Allemagne, la protection des données est le point décisif : un modèle puissant qui tourne entièrement dans leur propre centre de calcul paraît soudain plus attractif qu’un système américain un peu meilleur, mais hébergé dans le cloud. »
C’est précisément cette zone que ciblent nombre d’acteurs chinois : associer des performances élevées à la possibilité de télécharger le modèle, de l’adapter et de le sécuriser en interne. Pour les communautés de développeurs, c’est une aubaine ; pour les groupes américains, une menace directe sur leurs revenus de licences et d’API.
Vidéos spectaculaires : Seedance 2.0, et Hollywood s’inquiète
Au moment du Nouvel An, un modèle vidéo a particulièrement retenu l’attention : Seedance 2.0, du groupe ByteDance (TikTok). Les clips générés ressemblent à de courtes scènes de film, avec des mouvements de caméra travaillés et des personnages crédibles - nettement plus proches d’un rendu “cinéma” que les tentatives précédentes.
Seedance 2.0 se démarque toutefois de cette vague chinoise sur un point essentiel : il n’est pas ouvert. Ni code ni poids ne sont téléchargeables ; il s’agit d’un produit propriétaire classique. Et il provoque déjà des tensions : Disney, Paramount et Netflix accusent ByteDance d’éventuelles atteintes au droit d’auteur. Le soupçon : le modèle pourrait s’appuyer fortement sur des œuvres cinématographiques protégées.
Pour le secteur, c’est un signal d’alerte. Plus les vidéos génératives deviennent réalistes, plus les studios, réalisateurs et syndicats interrogent la légitimité des données d’entraînement, la protection des univers de marque et le risque de pertes d’emplois. Malgré tout, Seedance 2.0 illustre un fait : la Chine joue désormais dans la toute première division de l’IA vidéo.
Qwen, GLM, DeepSeek et Kimi : la nouvelle armada d’IA venue de Chine
Qwen3.5 : l’outil multimodal polyvalent d’Alibaba
Avec Qwen3.5, Alibaba mise sur un grand modèle Vision-Language capable de comprendre et relier texte, images et vidéos. Le chatbot identifie des contenus dans environ 200 langues et peut agir comme un « agent » dans des formulaires, sur des sites web ou au sein d’outils internes - par exemple pour automatiser des workflows.
Qwen3.5 est proposé sous licence libre sur des plateformes comme GitHub. Les développeurs peuvent l’intégrer à leurs produits, le spécialiser par fine-tuning ou l’exécuter sur leur propre infrastructure. Pour Alibaba, c’est aussi une manière d’attirer des écosystèmes IA mondiaux vers sa propre offre cloud.
GLM-5 de Zhipu AI : pensé pour les agents et le raisonnement complexe
Présenté par Zhipu AI, GLM-5 vise davantage les développeurs et les entreprises qui veulent construire des IA d’agents capables d’agir de façon autonome. Selon l’entreprise, l’accent est mis sur le raisonnement logique multi-étapes, une planification plus précise et une résolution de problèmes plus robuste.
Sur le plan technique, l’intégration de « DeepSeek Sparse Attention » (DSA) est notable. Cette méthode restreint volontairement l’attention du modèle aux parties pertinentes du contexte, ce qui réduit la charge de calcul sans faire chuter fortement la qualité. GLM-5 a été entraîné entièrement sur des puces Huawei Ascend, soulignant l’indépendance vis-à-vis du matériel américain.
DeepSeek V4 : un challenger chinois face à GPT et Claude
La communauté suit avec une attention particulière la prochaine itération du modèle DeepSeek. La génération précédente, DeepSeek V3, avait déjà fait sensation en se rapprochant de ChatGPT dans de nombreux benchmarks - tout en affichant des coûts d’entraînement nettement plus bas.
La version à venir, V4, devrait surtout briller sur les tâches de programmation. D’après des enquêtes de médias spécialisés, DeepSeek V4 pourrait dépasser, sur certains benchmarks, les modèles GPT actuels d’OpenAI ainsi que Claude d’Anthropic. Si cela se confirme en usage réel, un assistant de code chinois capable d’alléger le travail d’équipes de développeurs à l’échelle mondiale serait à portée de main.
Kimi K2.5 de Moonshot AI : la spécialisation plutôt que le gigantisme
Avec Kimi K2.5, Moonshot AI adopte une approche connue de Google Gemini 3.0 : la « Mixture of Experts » (MoE). Le grand modèle de langage est découpé en plusieurs sous-réseaux spécialisés ; pour chaque requête, un routeur décide quels “experts” activer.
Cette architecture économise de la puissance de calcul, car le modèle entier ne tourne pas à pleine charge pour chaque entrée. Certains experts se concentrent sur le code, d’autres sur la compréhension linguistique, d’autres encore sur les mathématiques ou l’écriture créative.
- Avantage : baisse de la consommation d’énergie par requête
- Avantage : optimisation ciblée de chaque expert possible
- Risque : architecture plus complexe, plus difficile à déboguer
L’écart de performance se réduit - et pourrait même s’inverser
Aujourd’hui encore, ChatGPT, Gemini et d’autres modèles américains obtiennent souvent des résultats légèrement supérieurs dans de nombreux benchmarks. Mais cet avantage s’est amoindri ; il n’est parfois visible qu’en plongeant dans les tableaux de test. Pour un usage en entreprise, d’autres critères deviennent déterminants : coûts, contrôle, capacité d’adaptation et sécurité juridique.
« Un modèle à peine moins performant, qui tourne localement et sans fuite de données, peut être plus attractif pour les PME industrielles que le service cloud brillant venu de Californie. »
En Europe, où les règles de protection des données sont strictes, les modèles chinois open source et open weight peuvent combler un besoin concret. Les entreprises téléchargent les poids, les déploient sur leur propre matériel ou via des hébergeurs locaux, et conservent les informations sensibles en interne. Cette possibilité déplace la ligne d’équilibre sur le marché mondial de l’IA.
Ce que recouvrent « open weight » et « IA d’agents »
Nombre de termes associés à ces nouveaux modèles paraissent très techniques, mais renvoient à des usages concrets. Open weight signifie par exemple que les poids - c’est-à-dire les paramètres du réseau entraîné - sont librement accessibles. Les développeurs peuvent alors :
- affiner le modèle sur leurs propres données,
- l’utiliser en environnement hors ligne, par exemple dans des réseaux isolés,
- rester indépendants du fournisseur d’origine, tant que la licence le permet.
L’IA d’agents désigne des systèmes qui ne se contentent pas de répondre à des questions, mais qui planifient et exécutent des étapes de manière autonome : rechercher dans des documents, remplir des formulaires, piloter des outils externes. C’est exactement le terrain visé par Qwen3.5 et GLM-5 : non pas de simples chatbots, mais des assistants capables d’opérer en arrière-plan - de la comptabilité au développement logiciel.
Opportunités et risques pour l’Allemagne et l’espace DACH
Pour les entreprises de l’espace germanophone (DACH : Allemagne, Autriche, Suisse), cette évolution ouvre de nouvelles options tout en ajoutant une part d’incertitude. Côté opportunités : des alternatives moins coûteuses aux services américains, davantage de diversité technologique, et la possibilité de bâtir une infrastructure IA interne sans dépendre entièrement d’un seul acteur.
Côté risques : tensions géopolitiques, possibles restrictions d’exportation visant les logiciels d’IA, et questions juridiques liées à la responsabilité, au droit d’auteur et à l’usage des données. Toute organisation qui adopte des modèles chinois doit examiner précisément la licence applicable et les conditions d’entraînement.
Dans la pratique, beaucoup d’entreprises ont intérêt à une approche hybride : des applications critiques sur des modèles open weight opérés localement, et des cas d’usage créatifs ou non sensibles qui restent sur des offres cloud comme ChatGPT. Le risque se répartit, les équipes gagnent de l’expérience sur les deux approches - tandis que l’écart entre la Chine et la Silicon Valley continue de se resserrer jour après jour.
Commentaires
Aucun commentaire pour le moment. Soyez le premier!
Laisser un commentaire