La levée de 200 millions d'euros d'OpenEvidence aux USA incarne l’essor fulgurant des IA médicales. Les acteurs tech de la santé sortent frénétiquement des solutions intégrant l’IA : il faut aller vite, prendre les parts de marché !

Mais une partie de ces usages dérive déjà vers un fast-food technologique avec des outils truffés d’erreurs. Dans la plupart des secteurs les conséquences ne sont qu’économiques. En santé, c’est une menace pour la vie.

Un risque réel sous un vernis d’intelligence

Les outils IA pour la décision médicale sont en cela préoccupants. Pour sortir vite, les startups adoptent une stratégie low-tech. Les solutions se multiplient, présentées comme adaptées aux soignants alors qu’elles reposent largement sur les IA généralistes. Dit autrement, on maquille un ChatGPT qu’on spécialise un petit peu, et on lance. Les IA généralistes commettent de 10 à 46 % d’erreurs. Quel patient accepterait qu’un médecin décide avec une telle marge d’erreur ? Malheureusement, de plus en plus de soignants, trompés, s’appuient sur des solutions non-sécurisées.

Car les IA généralistes sont clairement approximatives et produisent toujours une réponse, même quand elles ne savent pas, en l'absence de données fiables. Demandez une recette de crêpes pour un patient dépressif : vous serez effaré du résultat. L’IA, basée sur la statistique, confond fréquence et vérité. Ajoutez à cela la non-maîtrise des sources, en 2025 les connaissances médicales doublent tous les deux mois, et vous avez une bombe à retardement.

La nécessité de sources éprouvées, vivantes et traçables

Une IA clinique ne vaut que par le corpus de données sur lequel elle s’appuie. Les solutions IA généralistes se basent sur le tout venant d’un web bourré d’erreurs et non sur un socle fermé et hiérarchisé : recommandations des autorités sanitaires, sociétés savantes, méta-analyses, revues à comité de lecture, etc.

La sélection doit être traçable et le corpus doit être mis à jour, daté et surtout localisé : les connaissances médicales doivent être ancrées dans leur contexte local. Une solution pour les USA ne peut orienter une décision en France. Une base souveraine, construite sur des sources locales et validées est la seule garantie d’une décision clinique pertinente.

Enfin, cela devrait être la base : l’IA doit se taire quand l’incertitude est élevée. Tout comme un médecin généraliste renvoie vers un spécialiste en cas de doute. Sans cette discipline, point de salut.

Construire la confiance par la certification

Les institutions doivent se saisir de cet enjeu pour garantir l’existence de solutions souveraines sûres et développer avec les acteurs privés une certification garantissant la sûreté de la solution.

Cette certification, label de confiance, permettra de trier le bon grain de l’ivraie, sans tuer l’initiative : les règles seront claires pour tout le monde.

Ensuite, tout comme l’Etat a financé l’équipement des médecins en solutions digitales dans les cabinets ces 15 dernières années, il faudra soutenir l’acquisition de ces solutions certifiées. C’est une mécanique de transformation du système qui a déjà montré toute son efficacité. Cela sera rentable pour la collectivité, tant les gains en temps et en qualité, issus de l’IA, pour la santé, sont d’ores et déjà palpables.

L’IA en santé sera la plus grande des alliés si elle est développée dans le respect de toutes les valeurs qui charpentent la médecine moderne. L’enjeu est si révolutionnaire que la réponse ne doit pas tarder et impliquer dès aujourd’hui les communautés d’acteurs les plus avancés.