L’IA vit aujourd’hui un paradoxe. Jamais les modèles n’ont été aussi puissants, accessibles, spectaculaires. Et jamais ils n’ont autant mis en lumière leurs propres limites : hallucinations persistantes, consignes ignorées, absence d’explicabilité, dérives comportementales, non-déterminisme structurel…

Ce décalage entre les promesses et la réalité crée un risque systémique. La plupart des organisations tentent aujourd’hui de construire l’avenir des agents autonomes avec des LLMs, bons pour générer du texte pas pour respecter des règles ni pour garantir un raisonnement vérifiable. La technologie elle-même devient le premier frein à l’adoption.

Quand la technologie elle-même devient le problème

Or trois obstacles majeurs freinent aujourd’hui l’adoption de ces agents intelligents en entreprise.

D’abord, l’imprévisibilité des modèles actuels. Une décision légèrement incohérente n’est pas une erreur bénigne, c’est potentiellement une fraude, une rupture de confiance client, une faille de sécurité.

Ensuite, l’impossibilité d’auditer. Les architectures dominantes aujourd’hui, ne permettent pas de reconstruire un raisonnement fiable et explicable, empêchant toute démonstration de conformité.

Enfin, l’absence de gouvernance fiable. Nulle entreprise ne peut garantir qu’un agent suivra strictement une règle interne ou ne contournera pas une consigne. Dans un environnement où la responsabilité juridique reste humaine, cette zone grise devient intenable.

De la donnée à la confiance, un changement d’ère

Le numérique a longtemps reposé sur la donnée comme matière première. Cette logique atteint aujourd’hui ses limites. La véritable monnaie de l’économie des agents, c’est la confiance.  Comme le rappelait Kenneth Arrow, « toute transaction économique contient un élément de confiance ». Or, ces transactions s’opèrent désormais entre un humain et un système, voire entre deux agents autonomes. Cette évolution place la fiabilité au centre de la valeur économique.

La corrélation entre confiance et prospérité n’est plus à démontrer. Une montre que les économies à haut niveau de confiance affichent un PIB par habitant plus élevé et une croissance plus stable. La confiance n’est donc pas un concept moral, c’est un déterminant économique mesurable. Il serait naïf de croire que cette dynamique diminuera à l’ère agentique ; elle s’en trouvera amplifiée. La crédibilité des décisions prises par des agents autonomes deviendra un déterminant de productivité aussi structurant que l’accès au capital ou la qualité des infrastructures.

Trois chantiers pour bâtir la confiance

À ce stade, toute l’industrie doit accepter une vérité simple. On ne construira pas des agents fiables avec les mêmes architectures conçues pour générer du texte. L’autonomie exige autre chose qu’une simple amélioration de modèles existants. Elle impose une rupture technologique. Pour cela trois chantiers s’imposent :

  1. Sécuriser les systèmes et les données. L’approche “zero trust” doit devenir la norme : chaque interaction, chaque agent, chaque décision doit être vérifiable.
  2. Rendre les agents explicables. La confiance repose sur la capacité à comprendre comment une décision est prise. Cette explicabilité ne vient pas de l’agent en lui-même, mais de l’architecture même. Une structure en hypergraphe permet de suivre chaque étape du raisonnement et de vérifier la cohérence des actions. Cette transparence intégrée dès la conception rend l’agent réellement explicable par conception.
  3. Industrialiser la transparence. La confiance ne peut reposer sur la logique probabiliste des LLMs  : elle doit être intégrée nativement dans l’architecture : une structure en hypergraphe combinant mémoire et actions possibles de l’agent permettant de retracer le raisonnement derrière chaque décision prise.. Sans explicabilité native, pas de confiance durable.

Le marché mondial des agents IA dépassera 50 milliards de dollars d’ici 2030 (Grand View Research). Mais sans garde-fous, les pertes liées à la fraude générée par l’IA pourraient atteindre 40 milliards dès 2025 aux États-Unis (Deloitte). La confiance n’est donc pas un supplément d’âme : c’est la condition même de la performance économique.

C’est précisément la direction qu’on plaidera auprès de l’écosystème réuni à Adopt AI, la confiance est la dernière frontière de l’IA, et la première ressource de la compétitivité future de nos entreprises ! Les géants du digital l’ont appris eux-mêmes. Sans transparence, les usages plafonnent. Sans gouvernance, l’innovation cale. Sans explicabilité, la confiance ne viendra jamais.