Il y a près de deux siècles, l’apparition de la locomotive à vapeur a suscité de nombreuses angoisses dans la population : crainte des effets de la vitesse, des incendies, effets sur les femmes enceintes… Chaque technologie, a fortiori quand elle est spectaculaire et qu’elle s’impose rapidement dans nos vies, apporte avec elle son lot de peurs – irrationnelles pour partie mais pas seulement.

L’arrivée de l’intelligence artificielle (IA), matérialisé par Chat GPT, a produit une sidération et des inquiétudes comparables. En donnant corps à un concept qui infusait depuis longtemps dans nos vies numériques, nous avons compris intuitivement que nous pénétrions dans une ère nouvelle.

Or, pour permettre à une technologie de rupture de s’imposer et d’accomplir tout son potentiel de transformation, il existe deux prérequis à satisfaire : garantir la sécurité de son fonctionnement et définir des règles communes qui président à son usage. Le train n’aurait jamais pu s’imposer sans limiter au maximum les risques d’accident qui en font le moyen de transport le plus sûr aujourd’hui, mais aussi sans uniformiser progressivement les rails et les locomotives. Il en va de même pour l’IA.

Pour avancer dans cette direction, le 30 octobre dernier, les dirigeants du G7 sont parvenus à un accord sur « des principes directeurs et sur un code de conduite en matière d’intelligence artificielle (IA) ». Le lendemain, le Royaume-Uni a organisé la première conférence mondiale consacrée aux risques associés à l’IA. Les États membres de l’UE ont quant à eux adopté en mai 2024 un règlement sur l'IA. Et en février prochain, la France accueillera un nouveau sommet mondial sur l’IA visant à promouvoir des règles de bonne gouvernance collectives.

Parmi les nombreuses spécificités de la « révolution IA », il faut donc noter celle-ci : aucun État dans le monde n’a voulu réguler ce phénomène de manière solitaire. Alors que les tensions sont de plus en plus vives entre un sentiment national qui s’impose dans le débat politique et une globalisation des enjeux qui parcourent notre société (transition écologique, mondialisation économique et financière, etc.), le débat est ici déjà tranché : pour se saisir des potentialités de l’IA et contenir ses dangers, les règles du jeu doivent être définies collectivement à l’échelle mondiale.

Dans ce domaine, l’Europe dispose d’un temps de retard et d’un temps d’avance : retard en matière de technologies, au regard de ce qui se fait aux États-Unis et en Chine, mais avance en termes de régulation, avec son règlement sur l’IA. Qu’on le déplore ou que l’on s’en réjouisse, l’UE est de plus en plus devenue une puissance normative plutôt qu’économique ou que technologique. Pour l’IA, cela confère à notre continent une lourde responsabilité : celle d’être à l’avant-poste pour faire émerger un consensus mondial pour une gouvernance éthique et collective de l’IA.

Car il ne suffira pas cette fois d’adopter des règles applicables à l’UE et d’espérer que le reste du monde s’en inspire. Les enjeux sont tels – en matière de liberté publique, de sécurité et plus largement, de rapport à ce qui fait notre humanité – que des règles qui ne seraient pas acceptées par tous et partout seraient inutiles. Par conséquent, l’Europe doit ici abandonner l’idée qu’elle saura mieux que les autres décider des règles à suivre et convier autour de la table tous les acteurs, publics et privés, d’où qu’ils viennent, y compris hors d’Europe, pour aboutir à une doctrine commune.

Sans infrastructures de transport, aucun pays ne pouvait espérait se développer hier. Demain, la maîtrise de l’IA sera aussi un prérequis absolument indispensable pour peser dans le monde. Mais cela ne suffira pas à construire un avenir meilleur : il faudra aussi s’assurer que le monde entier fasse un usage responsable de cet outil. Et si l’Europe est certainement le meilleur endroit pour définir ces règles, ce sera à condition de ne pas le faire seulement… entre européens.