Depuis l’émergence des grands modèles de langage, l’intelligence artificielle a fait des progrès spectaculaires dans le traitement du texte et des images. Les industries fondées sur des workflows documentaires comme le juridique, le support client ou le marketing ont rapidement adopté ces outils pour automatiser des tâches et générer de la valeur. Pourtant, pour une très large majorité d’entreprises, l’IA générative reste marginale dans la création de valeur.
En entreprise, la prise de décision s’appuie sur les données chiffrées.
Ce décalage est dû à une limite technologique inhérente aux LLMs : entraînés sur des textes et des données non structurées, ils ne comprennent pas les relations et les distributions inhérentes aux données chiffrées et aux tableaux. Or, celles-ci constituent 70 % de la donnée des entreprises. La limite des LLM est donc dans leur nature même : ils sont génératifs et non prédictifs, inadaptés aux enjeux décisionnels des entreprises.
Les prédictions en entreprise gardent une dimension artisanale
Aujourd’hui, l’ultra-majorité des prédictions en entreprise suivent un modèle artisanal : une équipe de data scientists sélectionne des variables, construit des applications, entraîne un modèle spécifique pour une tâche définie, puis le déploie sous la gouvernance d’une équipe dédiée à la surveillance et à la maintenance. Chaque nouveau cas d’usage exige sa propre pipeline, son modèle spécifique, son équipe et de nombreux ajustements, pour des résultats souvent mitigés.
Le problème n’est donc pas uniquement la qualité de précision de ces modèles, mais le coût et l’effort à fournir pour les développer et les maintenir à l’échelle d’une entreprise. Si chaque prédiction requiert une pipeline de projet complète, l’entreprise ne pourra pas les appliquer à tous les niveaux de prise de décision.
Modèle de fondation tabulaire : nouvelle ère de l’IA pour la prise de décision en entreprise.
Une nouvelle frontière se dessine désormais, grâce à des modèles de fondation spécifiquement entraînés sur les données structurées. Comme les modèles linguistiques l’ont fait pour le texte, ces modèles de fondation dits « tabulaires » transforment radicalement la capacité des entreprises à piloter, prédire leurs activités et s’adapter en temps réel. Un seul modèle pré-entraîné (« de fondation ») peut être mis à contribution sur des dizaines de cas d’usage, tout en ayant une meilleure précision qu’un modèle spécialisé. En entreprise, l’IA générative comme l’IA artisanale cèdent leur place à l’IA prédictive.
Le potentiel de cette technologie est gigantesque. Selon une analyse récente de Forbes Analytics, le marché mondial de l’analyse des données structurées pourrait dépasser 600 milliards de dollars d’ici 2030. Pas étonnant quand on sait que la donnée structurée représente le cœur des systèmes d’information de la plupart des organisations dans la finance, l’assurance ou l’industrie, et reste bien plus vaste que les images et les textes qui sous-tendent les cas d’usage de l’IA générative.
L’IA prédictive s’imposera comme le nouveau standard dans la prise de décision en entreprise
Concrètement, l’intégration de modèles de fondation tabulaires dans l’infrastructure data des entreprises va permettre plusieurs ruptures : la réduction drastique des délais entre un scénario et sa mise en production, l’amélioration très significative de la fiabilité des prédictions et l’industrialisation massive des usages sur un large éventail de business cases.
Aujourd’hui, les limites des LLM ont terni, pour beaucoup d’entreprises, les espoirs de l’IA. Demain, en traitant enfin la donnée structurée comme un objet natif de l’intelligence artificielle, les entreprises pourront faire basculer la prédiction d’un exercice ponctuel et fragile vers une capacité opérationnelle durable et un avantage compétitif décisif.