Des grands modèles de langage (LLM) aux grands modèles quantitatifs (LQM)
La bataille en cours des géants de la tech sur les LLM est connue de tous. L'ambition sous-jacente est de construire une représentation complète de la connaissance humaine, dans l'espoir d’aboutir à une forme d’IA générale utile au plus grand nombre. Le problème est que le langage est une représentation trop parcellaire et compressée de la réalité pour en capturer toute sa complexité. On tente alors de combler ce vide en y ajoutant des images, du son, des
vidéos.
Une voie complémentaire a récemment émergé : apprendre directement aux IA les équations mathématiques fondamentales des lois de la nature. C'est le concept de Large Quantitative Model (LQM), notamment théorisé par SandboxAQ. En s'ancrant dans les principes scientifiques, ces LQM visent à réduire drastiquement l'incertitude inhérente aux LLM. Ceci leur permet de simuler, prédire et optimiser avec une précision et une fiabilité compatibles avec les
exigences de la biologie, de la chimie ou de la science des matériaux.
Le quantique comme fournisseur de vérité pour l'IA
Les lois physiques les plus précises dont nous disposons aujourd'hui sont celles de la mécanique quantique. Mais leur application numérique, indispensable pour produire des données d’entraînement, impose un arbitrage difficile entre précision et performance. Même les plus puissants supercalculateurs actuels ne peuvent simuler que de petits systèmes avec une grande précision. Au-delà, la complexité exponentielle devient vite ingérable.
C’est ici que la convergence entre quantique et IA entre en jeu. Le calcul quantique génère des représentations précises du monde, mais son coût explose avec la taille du système modélisé. L’IA excelle à extraire des schémas généraux à partir d'une multitude d'exemples, mais sa pertinence dépend de la qualité des données d'entraînement. La synergie est donc naturelle : utiliser le calcul quantique pour générer des "vérités fondamentales" et entraîner l'IA pour
construire un modèle général.
Cette stratégie est déjà à l'œuvre, en utilisant la puissance du calcul haute performance classique. Ce faisant, elle prépare le terrain pour le jour où des ordinateurs quantiques matures pourront fournir des données d'entraînement encore plus précises, sur des systèmes plus complexes, créant un cercle vertueux de renforcement.
L'excellence scientifique face au mur du produit et des données massives
La course mondiale pour bâtir le modèle "quantum AI" de référence est donc bien lancée. La France et l'Europe sont particulièrement bien positionnées, et démontrent une avance scientifique grâce à leur écosystème de recherche de premier plan. Un exemple notable est la publication récente, par Qubit Pharmaceuticals et Sorbonne Université, du premier LQM (FeNNix-Bio1) permettant la simulation moléculaire directement à partir des principes physiques fondamentaux des électrons. Ce modèle permet de prédire les interactions chimiques et les réactions physiques avec une fidélité jamais atteinte par les logiciels de modélisation traditionnels. Il représente ainsi d’ores et déjà un changement de paradigme pour la chimie pharmaceutique, et ouvre la voie vers un modèle de fondation aux capacités générales.
L’histoire du numérique démontre néanmoins que cette excellence scientifique n’est jamais suffisante. Il faut savoir la transformer en un produit désirable, intelligible et pouvant apporter une valeur tangible à un grand nombre d’utilisateurs. La complexité scientifique doit s’effacer et seule l'excellence produit et opérationnelle nous évitera d'être distancés sur le terrain du leadership technologique. Ceci requiert une vision claire, une discipline d'exécution et une
maîtrise technique absolue, en particulier dans la gestion de données massives. Les calculs quantiques génèrent en effet des volumes de données scientifiques se chiffrant en dizaines de pétaoctets – un défi d'ingénierie majeur nécessitant des pipelines robustes, extensibles et auditables.
Un appel aux bâtisseurs du futur scientifique
Cette transformation de l’excellence scientifique en leadership technologique est exigeante. Elle requiert des compétences et des savoir-faire pointus.
Si vous êtes de ceux qui croient que la prochaine révolution scientifique se construira à l'intersection de la recherche fondamentale, de l'IA et d'une approche produit rigoureuse et créative, alors l'aventure ne fait que commencer. Le chantier est immense, mais il est à la mesure des enjeux.