Côté deadbots, l’application **2wai** permet déjà de recréer un « jumeau numérique » d’un proche disparu à partir de quelques minutes de vidéo. La vidéo publicitaire montre une jeune femme enceinte, puis son fils à différents âges, qui “discutent” avec leur (grand)-mère disparue. Dans la même veine, au sein de groupes Facebook consacrés à la retouche d’image par IA, des internautes animent des photos de personnes disparues à la demande de leurs proches.

Les IA compagnons sont encore plus répandues. Alors que le collier de friend.com qui vous propose de porter votre “ami” IA autour du cou fait polémique avec sa campagne de publicité dans le métro parisien, des applications comme Replika qui proposent des relations virtuelles explosent en téléchargements sur l’Apple Store et sur Google Play. Sans parler de la multitude de personnes qui confient déjà leurs angoisses et leurs besoins de conseils psychologiques à Chat GPT.

Avec la technologie qui progresse, les avatars et les vidéos sont de plus en plus réalistes et crédibles. Les IA sont de plus en plus performantes et “empathiques” dans leurs réponses. Et le potentiel de risques (impact psychologique, manipulation, monétisation des vulnérabilités) est de plus en plus effrayant.

En tant que personne, mon premier réflexe est le rejet. En tant que juriste, forcément je m’interroge : quelle est l’approche du droit face à ce type d’IA ? Sont-elles complètement légales ?

Et là le malaise continue car un angle mort apparaît : juridiquement, il n’y a pas grand-chose.

Le mur du droit : pourquoi les morts n'ont plus d'image

Le droit peine déjà parfois à appréhender l’IA comme outil utilitaire. Mais quand il s’agit de deadbots, d’avatars compagnons et plus largement des liens émotionnels que les personnes peuvent nouer avec l’IA, les mécanismes juridiques existants apparaissent bien faibles.

C’est criant s’agissant des deadbots : le droit à l’image, comme le droit à la vie privée, est rattaché à la personne physique. Conséquence: il disparaît avec elle. Les héritiers ne peuvent agir que s'ils prouvent un préjudice qui leur est propre (par exemple : atteinte à la mémoire ou au respect dû au défunt). Mais les héritiers étant précisément la cible commerciale visée par ces outils, s’ils décident d’y souscrire, ils en seront les utilisateurs, pas les opposants - sauf à ce que certains héritiers soient en désaccord sur le sujet, ce qui amènera un nouveau type de conflit entre héritiers à trancher.

On peut en tout cas relever un paradoxe dans cette absence de protection de l’image et de la personnalité des morts, par opposition à la protection de leur corps. En effet, dès qu’on touche au corps du défunt, le droit français change de ton. L’article 16-1-1 du Code civil dispose que « le respect dû au corps humain ne cesse pas avec la mort ; les restes des personnes décédées doivent être traités avec respect, dignité et décence ». C’est sur ce fondement que la justice française a interdit l’exposition de cadavres plastinés à des fins commerciales : même avec un consentement du vivant de la personne, on ne peut pas utiliser le corps comme un produit culturel ou marketing, au nom de la dignité humaine et de l’ordre public. Est-ce que cette même dignité pourrait être invoquée pour freiner les deadbots? Pas sûr. La frontière entre atteinte à la mémoire et hommage est subjective et dépend aussi de ce que la personne elle-même en pensait avant sa mort.

Ce qui amène à se dire que la clé serait peut-être de donner à la personne elle-même le choix de décider de ce qui pourrait être fait avec son image après sa mort - selon un mécanisme similaire à celui qui existe pour les données à caractère personnel. En effet, si le RGPD ne s’applique pas aux données des personnes décédées, la loi informatique et libertés (art 85), elle, prévoit la possibilité pour une personne de définir de son vivant ce qu’elle souhaite pour ses données personnelles après son décès. On peut donc s'opposer, dès aujourd'hui, à ce que nos données servent à entraîner une IA post-mortem. Encore faut-il y penser…

Qu’en est-il du côté des IA compagnons?

Si l’IA reprend les traits d’une personne existante, le droit sera plus fourni. Prenons le cas un peu malaisant de la personne qui n’arrive pas à décrocher de son ex et la recrée par IA. L’ex en question pourra invoquer son droit à l’image, son droit à la voix ou encore la protection de ses données à caractère personnel pour faire interdire son double numérique.

Le sujet sera alors plutôt pratique : cela présuppose que l’ex soit au courant que son image est utilisée dans l'intimité d'un chatbot tiers. On voit d’ici un marché s’ouvrir pour le développement de bots "scrolleurs" chargés de traquer les avatars illicites, comme on traque aujourd'hui les contenus piratés sur le net.

Au final, les mécanismes juridiques susceptibles d’appréhender les deadbots ou les IA compagnons sont assez ténus. On pense notamment au droit de la consommation, qui interdit les pratiques commerciales agressives et pourrait dès lors être invoqué pour faire obstacle à des IA exploitant les vulnérabilités émotionnelles à des fins commerciales. On pense aussi à l’interdiction des deepfakes par le code pénal, mais qui ne joue que s’il n’est pas précisé qu’il s’agit d’un montage. Une simple mention “généré par IA” suffit donc à échapper à l’interdiction. Ce type d’information va d’ailleurs devenir obligatoire à compter d’août 2026 pour tous les contenus générés par IA, les deepfakes ou encore les IA destinées à interagir avec des personnes physiques, en application du Règlement européen sur l’intelligence artificielle.

L’Europe n’est pas a seule à chercher à poser des garde-fous autour de l’IA. A titre de comparaison, la Californie a adopté il y a quelque mois une loi sur les chatbots compagnons, pour leur imposer transparence et protocoles de sécurité afin d’éviter la diffusion de contenus dommageables (ex : incitation au suicide). C’est un début.

Mais ces différents outils juridiques apparaissent bien faibles au regard des enjeux qui sont en train de se nouer.

L’intimité artificielle : un défi qui dépasse le droit

Enjeux psychologiques et sociétaux, d’abord : ce type d’IA interroge sur l’évolution de notre vision du monde et des relations. Un deadbot aide-t-il à faire son deuil ou, au contraire, le rend-il plus dur voire impossible? Que penser de ces personnes qui disent préférer leur petit-ami(e) IA à une vraie relation car plus attentionné(e), toujours de bonne humeur, toujours disponible et moins compliqué(e) à gérer? Quels seront les effets à long terme de ces relations et de cette intimité artificielles?

Enjeux éthiques et business ensuite. Il faut garder en tête que ces outils et toutes les données qu’ils brassent sont aux mains de sociétés commerciales, dont le but est de faire du profit. Quel modèle économique semblerait-il acceptable pour la monétisation des sentiments? L’abonnement? La revente des données? L’accès gratuit moyennant publicité? Imaginez le scenario : votre grand-mère virtuelle (car la vraie est décédée) vous demande comment s'est passée votre journée... avant de vous suggérer de vous réconforter en commandant un burger sur Uber Eats.

Enjeux philosophiques, enfin. Confier aux IA nos émotions et nos relations, c’est leur confier ce qui fait de nous des humains. Face à l’IA qui, par son fonctionnement technologique même, uniformise et standardise, l’humain se distingue par sa singularité. Or celle-ci est profondément liée à sa relation au monde et aux autres. En voulant utiliser l’IA pour contrer la mort et la solitude, est-ce qu’on ne tue pas précisément ce qui fait de nous des êtres vivants et sociaux ?

Avant de renforcer et/ou de compléter le droit existant, nous devons réfléchir à ces questions et décider collectivement vers quel type de société nous souhaitons aller. Interdiction pure et simple de ce type d’outil (peu vraisemblable), interdiction uniquement de certains usages radicaux (par exemple: deadbots à but publicitaire, politique, pornographique), encadrement via des règles de transparence combinées à des limitations d’accès (par exemple pour les mineurs) et des protocoles de sécurité, renforcement des droits des personnes sur l’utilisation de leur image et de leurs données avant et après leur mort … sont autant de voies possibles. En choisir une - ou en combiner plusieurs, nécessite de décider à quel point le droit peut et le cas échéant doit protéger les individus de leur propre besoin de réconfort numérique.