Quand on dit « infrastructure » dans la tech, on pense spontanément aux data centers, ces entrepôts réfrigérés, aux GPU Nvidia, aux kilomètres de fibre et aux mégawatts. On oublie l’essentiel : la couche de logiciels libres qui fait tourner ces machines, orchestre les charges, expose les API, et, de plus en plus, opère l’intelligence artificielle elle-même. Cette « infrastructure invisible » — des bibliothèques scientifiques jusqu’aux modèles — soutient l’économie numérique comme une partie intégrale de l’infrastructure du numérique, tout en restant largement sous-financée.

Dans l’IA, le constat est limpide. Linux, Kubernetes et Python forment l’ossature opérationnelle ; des briques comme PyTorch et scikit-learn (que nous opérons chez Probabl) composent le socle de calcul et d’apprentissage. Même CUDA, logiciel propriétaire et exclusif de Nvidia, ne représente qu’une fine couche du code de l’IA. Les grands modèles de langage ne sont rien d’autre qu’un sous-produit de la donnée et du logiciel, des artefacts. Dès lors qu’ils sont distribués avec des « poids ouverts », administrations, chercheurs et PME peuvent les auditer, les déplacer hors des clouds hyperscale, les adapter à leurs données, et maîtriser coûts et risques. Ce n’est pas un débat philosophique : c’est un enjeu de contrôle de l’innovation, de cybersécurité, et in fine de souveraineté.

L’open source, nouvel enjeu géostratégique de l’IA

Les États-Unis viennent d’acter ce changement de paradigme au plus haut niveau. Dans « America’s AI Action Plan » (juillet 2025), la Maison-Blanche explique que, si le choix d’ouvrir ou non appartient aux développeurs, le gouvernement fédéral doit créer un environnement favorable aux modèles ouverts — notamment via le NAIRR (National AI Research Resource) qui vise à mutualiser un accès au calcul et aux ressources pour l’écosystème académique et les startups. Autrement dit : les modèles ouverts sont reconnus comme actifs d’intérêt général et leviers géostratégiques.  

La dynamique concurrentielle accélère dans le même sens. Pour contrer la traction de Llama (Meta) et de DeepSeek auprès des développeurs, OpenAI a franchi le Rubicon : le 5 août 2025, l’entreprise a publié deux modèles à « poids ouverts », gpt-oss-120b et gpt-oss-20b, sous licence Apache 2.0, présentés comme proches de ses modèles propriétaires en raisonnement et utilisables localement ou « on-premises ». Signal fort : la bataille ne se joue plus seulement par des API fermées, mais sur la capacité à séduire et à agréger des communautés de développeurs. Il ne s’agit aucunement de philanthropie ! 

Pourquoi ce basculement ? Parce que, en théorie des jeux, dans des marchés avec de forts effets réseaux, la stratégie dominante du challenger — puis du leader sous pression — est d’abaisser les coûts d’adoption et de changement (“switching costs”), d’ouvrir l’accès et de maximiser l’accès à l’écosystème. L’ouverture attire les développeurs, stimule l’offre, accroît la surface d’expérimentation, accélère les boucles d’apprentissage et dilue la rente d’exclusivité que la concurrence dominante a réussi à s’octroyer. À mesure que des modèles comparables émergent, que les datasets se standardisent et que les toolchains s’alignent, la « valeur intrinsèque » d’un modèle donné décroît et tend vers zéro ; la valeur se déplace vers l’orchestration, l’intégration, la donnée propriétaire et le service. Le code du modèle devient une commodité, le marketing et la distribution deviennent l’avantage.

Pourquoi l’Europe doit financer son “infrastructure invisible”

L’Europe doit se positionner dans ce mouvement — non pas en subventionnant des silos, mais en finançant l’infrastructure invisible. Cela signifie : soutenir durablement les mainteneurs critiques (par exemple scikit-learn, Jupyter, etc.), exiger — quand c’est pertinent et sans compromettre la sécurité — la publication des poids pour les projets financés sur fonds publics, et bâtir un « NAIRR européen » qui dépasse la logique d’AI Factories en offrant un cloud mutualisé de calcul, de données et d’outils pour chercheurs et PME. C’est aussi adapter la commande publique pour favoriser des architectures ouvertes, auditables et réversibles, et intégrer l’open source dans les stress tests de souveraineté (tant les bibliothèques et les modèles clés). Les feuilles de route américaines et chinoises montrent que c’est faisable — et urgent.  

On nous rétorquera que l’ouverture « cannibalise » la captation de valeur et fragilise nos (rares) champions. C’est l’inverse : l’ouverture démultiplie la demande adressable et réduit le coût d’acquisition des développeurs, tout en ancrant la confiance (audits, reproductibilité, portabilité). Les leaders qui réussissent dans des marchés de plateformes l’ont compris : mieux vaut être le standard qu’un composant remplaçable. Les récentes annonces d’OpenAI ne visent pas seulement Meta, Mistral ou DeepSeek ; elles visent à devenir — à nouveau — le point focal (ou de Schelling) des développeurs.  

Vous l’aurez compris : l’open gagne toujours. Dans la concurrence de marché où l’adoption des développeurs et l’effet réseau priment, l’ouverture finit par triompher des enclos propriétaires — comme le world wide web l’a fait face aux portails fermés, comme Linux l’a fait avec les systèmes d’exploitation fermés, comme les modèles « open weights » sont en train de le faire dans l’IA. Il est temps d’investir dans l’infrastructure invisible en toute conscience — « Public money, public code & weights » — car c’est là, discrètement, que se joue la course mondiale. Et dans cette course, les nations qui parieront sur l’open ne seront pas seulement suiveuses : elles fixeront les règles du jeu.