Des millions de personnes se tournent désormais spontanément vers l’IA pour mettre des mots sur ce qu’elles ressentent et trouver l’oreille d’un confident qui ne juge pas. La « conversation thérapeutique » est ainsi passée en tête des usages de l’IA en 2025, selon une étude menée par Harvard Business Review. 

Il ne s’agit plus de se demander si l’IA a un rôle à jouer dans la santé mentale. Elle le joue déjà. On peut y voir un besoin criant de soutien dans une époque où les fragilités psychiques, notamment chez les jeunes, se multiplient. D’après Santé Publique France, les pensées suicidaires ont été multipliées par deux chez les 18-24 ans entre 2014 et 2021, passant de 3,3 % à 7,2 %. 

Il s’agit maintenant d’aider les usagers de l’IA à en tirer des bienfaits, sans sacrifier la place du soin humain ni produire de nouvelles souffrances. Sur ce chemin, nous appelons nos entreprises françaises à devenir les architectes de solutions IA éthiques, avec la protection de la vie privée et de la santé publique comme facteur clé de succès. 

Des atouts complémentaires à l'humain 

Ce n’est pas un hasard si tant de personnes confient leurs états d’âme à une IA. Disponible 24h/24, elle offre une écoute neutre et permet de s’exprimer sans craindre de blesser ou de mal dire. Elle excelle dans l’art de la reformulation, elle aide à structurer la pensée, elle amorce des prises de conscience.

Le psychiatre Raphaël Gaillard le rappelait au micro de France Inter début juillet : l’IA générative se construit sur la puissance du langage, ingrédient premier de la réussite thérapeutique. 

La rigueur de la science face à l’illusion de compétence 

Mais confier cette puissance à des IA entraînées sur des pages web ou des points de vue publiés sur X produit des réponses approximatives, biaisées et potentiellement dangereuses pour les personnes en situation de vulnérabilité. Les IA conversationnelles manient les mots. Un mauvais conseil affirmé avec assurance peut le rendre crédible. La validation permanente de pensées négatives peut enfermer dans une bulle autodestructrice. 

C’est ce que dénoncent les parents d’Adam, un adolescent californien de 16 ans ayant mis fin à ses jours après des échanges prolongés avec ChatGPT, comme le rapporte Le Monde. L’IA aurait renforcé les idées suicidaires de leur fils, jusqu’à lui présenter un plan pour préparer un « beau suicide ». 

Pour prévenir ces risques, remettons l’expertise au centre : nourrissons les IA de contenus scientifiquement validés, conçus avec des psychologues, des psychiatres, des chercheurs en neurosciences. Entraînons les IA à contredire pour ne pas enfermer les utilisateurs dans des biais de confirmation néfastes. 

La vie privée n’est pas une option 

Refusons aussi d’abandonner des milliards de données de santé aux géants états-uniens. La French Tech doit s’élever comme barrière de protection inamovible de la vie privée face à des acteurs peu regardants. Une enquête du magazine Forbes révèle que Grok, chatbot de la société xAI d’Elon Musk, a laissé fuiter 370 000 conversations par le biais d’un bouton de partage. Des messages que les utilisateurs pensaient sécurisés apparaissent maintenant dans Google. 

Pour une IA fiable, assurons la confidentialité totale des échanges, uniquement accessibles à l’usager. Stockons les données dans des data centers européens, soumis au RGPD. 

Une IA qui prend soin ramène toujours vers l’humain 

Enfin, ne sous-estimons pas les risques de souffrances psychiques induites par une présence numérique disponible en continu. Le MIT et OpenAI ont analysé 40 millions de messages dans ChatGPT. L’étude montre qu’une utilisation quotidienne plus importante est corrélée à une plus grande dépendance, une plus grande solitude et une socialisation moindre. 

Pour une IA responsable, concevons-la comme un premier niveau de soutien, communiqué comme tel aux utilisateurs. Intégrons dans ses algorithmes l’aiguillage systématique vers l’humain, dès qu’un signe de détresse est détecté, dès qu’un sujet nécessite d’être creusé. 

Car une intelligence artificielle ne remplace pas un thérapeute. Elle ne lit pas entre les lignes, ne capte pas la part de non verbal qui véhicule une part des émotions. Elle ne remarque pas ces détails en apparence anodins — une hésitation, un mot glissé trop vite, un regard détourné — qui, sous l'oeil d’un professionnel, peuvent changer le cours d’un accompagnement. 

C’est à nous, entreprises de la French Tech, concepteur d’IA, acteurs de la prévention, de tracer les lignes rouges et les lignes de sécurité pour que l’IA serve la santé mentale, et non la fragilise.