Longtemps considérée comme un prolongement conceptuel de l’IA générative, l'IA agentique entre désormais dans le champ de l’opérationnel. Que désigne-t-on par ce terme ? “Un agent, c’est un programme dont les décisions sont prises par un modèle de langage. Ce ne sont plus les développeurs qui écrivent des règles : c’est le modèle qui choisit quoi faire à chaque étape”, résume Stanislas Polu, fondateur de Dust. Amaury Delplancq, VP Europe du Sud chez Dataiku, complète : “un agent a une capacité d’agir sans script prédéfini, il prend une décision puis l’exécute.”
Dans les entreprises, cette logique transforme des chaînes d’actions entières. “On observe des groupes pharmaceutiques analyser des milliers de textes réglementaires via des agents pour adapter leurs propres brevets en interne, de manière presque automatique, avec très peu d'intervention humaine”, illustre Amaury Delplancq. Le marketing est également concerné : “on a des boîtes qui passent d'une semaine à quelques minutes pour envoyer des centaines de campagnes marketing qui sont automatisées grâce à des agents.”
Des cas d’usage concrets des agents IA, mais encore spécifiques et verticaux
D'autres cas d'usage émergent déjà pour les commerciaux. “Un agent peut automatiquement extraire les actions à faire après un call client et les injecter dans Salesforce. Personne n’a envie de faire ça manuellement”, sourit Stanislas Polu. C’est justement cette capacité à déléguer des micro-tâches à faible valeur qui séduit les équipes opérationnelles, et prépare un basculement à plus grande échelle.
Mais si les cas d’usage concrets se multiplient, ils restent pour l’instant concentrés sur des tâches bien encadrées et sectorielles. Pour Arnaud Barthelemy, partner d’Alpha Intelligence Capital, cela s’explique par le degré de maturité encore limité des déploiements à grande échelle : “Aujourd’hui, les cas d’usage qui fonctionnent à l’échelle sont encore très spécifiques. On parle d’onboarding bancaire ou de traitement de réclamations en assurance, des processus routiniers mais complexes.” Dans ces environnements, la technologie se heurte à des enjeux de chaîne de décisions automatisées, où chaque agent doit évaluer la fiabilité de sa propre action. “Certaines startups mettent en place un score de confiance : en dessous d’un certain seuil, un humain reprend la main.”
À mesure que ces chaînes d’agents s’allongent, la qualité des outputs devient plus fragile. “Plus la chaîne est profonde, plus la gouvernance et la sécurité deviennent critiques”, souligne Arnaud Barthelemy. C’est ce qui pousse certains acteurs à construire des architectures hybrides, où les agents prennent en charge les tâches répétitives, tandis que l’humain reste en contrôle des points sensibles.
Gouvernance, sécurité et architecture : des verrous encore solides
Si la promesse est claire, la réalité de l’implémentation reste complexe, en particulier dans les grandes structures. “Tous les systèmes de permissions ont été conçus pour des humains. Il faut réécrire en profondeur l’architecture des droits pour intégrer les agents”, alerte Stanislas Polu. Une refonte qui implique de repenser les règles internes, mais aussi les responsabilités en cas d’erreur. “Aujourd’hui, un agent peut être déclenché par un trigger sans que personne ne soit présent. Qui est responsable si cela dérape ?”
Cette inquiétude est particulièrement présente chez les DSI et les architectes IT. Le risque : perdre le contrôle, ou pire, subir des incidents critiques non tracés. C’est pourquoi beaucoup de grands groupes préfèrent freiner plutôt qu’accélérer. “Mettre en place une tour de contrôle dès le début est une priorité. Quand on gère des millions de clients, ça me paraît être une bonne chose de réfléchir à tout ça dès le départ”, justifie Amaury Delplancq.
Pour espérer une adoption viable, plusieurs conditions sont non négociables. “Il faut pouvoir démontrer un ROI mesurable, garantir la sécurité, et disposer de données propres et accessibles”, liste Arnaud Barthelemy. C’est ce qui pousse les investisseurs à privilégier des startups verticalisées.
L'IA agentique, un défi à relever pour les grands groupes
Accélération, automatisation, réduction du temps passé sur des tâches à faible valeur : les bénéfices en termes de productivité sont au cœur des promesses des agents IA. “Il y a une classe de tâches où le niveau de fiabilité des modèles est suffisant pour une adoption naturelle. Aujourd’hui, ça correspond grosso modo à des tâches de moins de 20 minutes”, estime Stanislas Polu. Mais cette productivité ne doit pas masquer les risques d’un mauvais calibrage. “Rien de pire que de passer vingt minutes à vérifier une tâche pour s’apercevoir qu’une erreur est apparue au milieu”, prévient-il. En clair, le gain de temps n’a de valeur que s’il est fiable, vérifiable rapidement et accepté par l’utilisateur.
Pour Arnaud Barthélémy, c'est assez clair, "en 2030, la manière de travailler sera radicalement différente de ce qu'elle est aujourd'hui"."On imagine que les grands groupes vont avoir besoin de 2-3 ans avant de commencer à vraiment installer une architecture d'entreprise qui leur permette d'embarquer cette innovation sans risquer de perdre cette confiance, ce contrôle, cette gouvernance et le respect de la réglementation dont on a parlé", estime Amaury Delplancq de son côté. Et combien de temps avant de voir émerger une entreprise 100% basée sur l'IA agentique ? "Elle existe déjà !", selon Stanislas Polu et Amaury Delplancq.