Pour mémoire, tous les secteurs et toutes les technologies à hauts risques sont réglementés : nucléaire, aéronautique, ferroviaire, automobile, sûreté alimentaire, santé, bancaire... Des secteurs où l’innovation ne fait clairement pas défaut !  L’intelligence artificielle est une technologie clé dans l'accélération de la numérisation des entreprises. Pourtant, elle génère de nouveaux risques pour les citoyens, les droits fondamentaux et les processus démocratiques. L’approche européenne en matière d’intelligence artificielle réside dans la création d’un cadre de confiance pour garantir concomitamment innovation et protection des consommateurs et citoyens.

Avec l’AI Act, réglementation européenne en cours de finalisation, le législateur a choisi de ne réglementer que les systèmes d’intelligence artificielle (IA) dit à « hauts risques » - dont les mises en œuvre peuvent porter atteinte à la sécurité des citoyens ainsi qu’à leurs droits fondamentaux, à la santé ou encore aux infrastructures critiques.  Les systèmes d’IA pouvant porter radicalement atteinte à l’intégrité humaine seraient quant à eux interdits.

Comprendre l'esprit de l'AI Act : une approche par les risques

L’IA à « hauts risques » est essentiellement utilisée dans des filières économiques stratégiques où son usage est porteur d’une forte valeur ajoutée voire d’un avantage compétitif. C’est pourquoi, les échanges menés et les positions prises dans le cadre de l’élaboration de l’AI Act sont si passionnées et sujets à discussion au regard des enjeux économiques et stratégiques.

Comment donc réguler ces systèmes et placer le curseur au bon endroit pour ne pas freiner l’innovation ? C’est une question permanente au cœur des travaux de la réglementation et de la normalisation. Une chose est certaine, l’AI Act doit rester technologiquement neutre et n’encadrer que les systèmes dont l’usage présenterait des risques et non pas une technologie particulière en elle-même.

Des normes harmonisées par et pour le marché

Le monde de l’innovation craint d’être submergé par un déluge de règles et de normes et souhaite, légitimement, que ces règles soient « actionnables », c’est-à-dire qu’on puisse les mettre en œuvre facilement. C’est tout l’enjeu des normes dites harmonisées, en cours de développement.  

Un mot à ce sujet : les normes harmonisées constituent un dispositif européen particulier, à mi-chemin entre exigences réglementaires et normes volontaires. La conformité d’un produit aux normes harmonisées constitue une présomption de conformité à la loi, et devient alors un vrai avantage concurrentiel de marché ! C’est dire leur pouvoir ! Pour autant, veillons à préserver la capacité d'innovation des acteurs de petites tailles dont les ressources financières et humaines peuvent être limitées pour adresser ces enjeux de conformité. Les normes doivent être pensées, adaptées et proportionnées à leurs enjeux.

En ce sens, le Comité européen de normalisation (CEN) a été choisi pour mener ce processus à bien d’ici à avril 2025. En ce moment même, des entrepreneurs se regroupent pour rassembler les bonnes pratiques et contribuer à la construction du cadre de confiance dans lequel ils évolueront. 

Dans ces conditions, comment accompagner nos entreprises à la meilleure appropriation des exigences de cette régulation ? C’est aux acteurs de la réglementation et de la normalisation, aux grandes entreprises responsables, au monde de la recherche et aux animateurs d’écosystèmes d'accompagner et de soutenir l’émergence de nouveaux acteurs et la croissance des entreprises face à la concurrence internationale. L’enjeu est clair : ne pas rater un virage technologique de plus et utiliser un cadre de confiance européen pour développer des systèmes d’intelligence artificielle crédibles et porteurs des valeurs européennes. 

Défendre la vision et l'influence européenne

L'Union européenne s’est positionnée sur l'IA de confiance et l’AI Act constitue la première brique d’un cadre de confiance souverain. L’objectif poursuivi est la sûreté de fonctionnement des systèmes d'IA et donc la protection du citoyen et du consommateur. L’UE valorise notamment la robustesse, la sécurité, la gouvernance des données, la transparence, la non-discrimination.

L'Europe n'est pas seule à lancer des initiatives réglementaires. C’est le cas des États-Unis, de la Chine, du Japon, de Singapour, du Canada, du Royaume-Uni... Bien que certains de ces cadres réglementaires soient en accord avec le nôtre, il est justifié de se questionner sur la concordance de certains projets sociétaux avec ceux de l'Union européenne.

La présidente de la Commission européenne, Ursula von der Leyen, a plaidé en septembre 2023, à l’occasion de son discours sur l'état de l’Union, pour créer un panel mondial d'experts afin d'évaluer les risques de l'intelligence artificielle pour l'humanité, sur le modèle du GIEC. De nombreux forums internationaux et de nombreuses initiatives, comme le partenariat mondial pour l’intelligence artificielle (PMIA), militent pour des modèles de gouvernance mondiaux pour l’intelligence artificielle.

Encourageons ces initiatives tout en gardant à l’esprit la singularité européenne : elle fait de la confiance son socle sociétal. Faisons de l’AI Act un texte réglementaire de référence dont le respect des droits fondamentaux du citoyen constitue un avantage concurrentiel pour le marché de l’intelligence artificielle européen.

Cette tribune a été signée par :

Lauriane Aufrant - responsable de la recherche en NLP, Inria Défense & Sécurité
Guillaume Avrin - coordinateur national pour l'Intelligence artificielle, DGE
Patrick Bezombes – consultant, vice-président du Comité européen de normalisation IA, ingénieur général de l’armement (2S)
Caroline Chopinaud - directrice générale, Hub France IA
Fabien Mangeant - président du programme Confiance.ai
Laurence Devillers - professeure, Sorbonne université
Arnault Ioualalen - PDG et cofondateur, Numalis
Franck Lebeugle - directeur de la normalisation, groupe AFNOR
Arno Pons - délégué général, Digital New Deal
Milo Rignell - Expert résident et responsable de projets, institut Montaigne
François Terrier - Senior Fellow AI, directeur des programmes du CEA List