C'est sans nul doute l'un des règlements européens les plus attendus de l'année. L'IA Act, qui vise à mieux réguler et encadrer les usages de l'intelligence artificielle dans l'Union européenne, a fait l'objet d'un accord historique voté ce 2 février. Des extraits du texte avaient fuité quelques jours auparavant via le média Euractiv, et via Laura Carolin, conseillère politique au Parlement Européen, qui a publié une version d'environ 250 pages sur son compte Linkedin.

Si les grandes entreprises seront plutôt parmi les premières à adopter les nouvelles règles, "car leurs moyens et leurs ressources internes pour le faire sont considérables", les startups ne seront pas en reste. Olivier Martret, partner chez Serena, précise que pour ces dernières, l'IA Act sera "lourd à mettre en place". "Elles devront, en plus de se concentrer sur le développement de leur produit ou leur développement commercial, s'aligner avec." Pour mieux comprendre ce qui vous attend, Olivier Martret et Marianne Tordeux Bitker, de France Digitale, nous ont donné leur éclairage.

Les principaux changements induits par l’IA Act

Plusieurs gros changements sont attendus avec l’IA Act. Le texte renforcera tout d’abord le droit d’auteur, puisque les sources des données d'entraînement devront être précisées par les entreprises, afin que leurs auteurs (comme des artistes) puissent venir demander le versement de droits.

L’IA Act vise aussi à empêcher l'utilisation de l'IA à des fins de surveillance. Il interdit par exemple les catégorisations biométriques (classements de la population en fonction de ses opinions politiques, de sa religion, son ethnie ou son orientation sexuelle), la surveillance de masse, l'utilisation de vidéosurveillance pour en extraire des visages, la manipulation des comportements humains ou l'analyse des émotions dans un contexte professionnel ou scolaire via l'IA, etc…

Enfin, de manière générale, le texte va vers plus de transparence. Il faudra par exemple désormais ajouter une petite mention sur tous les contenus, textes, vidéos ou images produits grâce à une IA... Et si vous utilisez un chatbot boosté à l'intelligence artificielle... il devra lui aussi montrer patte blanche, et s'identifier comme tel. Plus complexe : lorsque vous créerez un système basé sur l’IA, vous devrez alors être en mesure de donner des détails techniques sur les données avec lesquelles vous l'avez entraîné. La nature et l'ampleur de ces détails varie : plus l'IA est jugée comme étant "à risque", plus ils devront être précis. 

Quelles seront les startups "à risque" ?

C’est là le premier point sur lequel alerte Marianne Tordeux Bitker, directrice des Affaires Publiques chez France Digitale. Avec Wavestone et Gide, elle vient de publier un guide pratique complet et gratuit pour aider les entreprises à mieux comprendre et appliquer la nouvelle loi européenne sur l’IA, qui entrera en vigueur d’ici quelques mois après un dernier vote au Parlement.

Elle nous avoue s’être par moments “arraché les cheveux” face à la complexité et au manque de clarté de certains points. “On va demander aux entreprises de cartographier elles-mêmes leurs IA, et d’évaluer lesquelles pourraient éventuellement présenter un risque pour les humains. Cela ira de l’IA utilisée pour gérer les plannings de ses équipes, à celles que l’on utilise pour créer des contenus sur les réseaux sociaux : cela ne concerne donc pas uniquement les startups qui sont spécialisées dans le développement d’intelligences artificielles, résume la spécialiste. Chaque usage devra être audité et associé à un certain niveau de risque. En fonction de ce risque, les décisions à prendre seront tout à fait différentes : certaines entreprises devront aller chercher une certification CE, alors que ce ne sera pas nécessaire pour d’autres.”

Le texte, précise Marianne Tordeux Bitker, “est encore très léger sur la définition du risque." D'après Olivier Martret, "peu de startups" devraient être concernées par le niveau de risque le plus élevé. "En Europe, on parle par exemple de Mistral et Aleph Alpha, qui crée des modèles fondamentaux", précise-t-il.

L'IA Act sera-t-il un frein à l'innovation pour les startups ?

Autre crainte, en partie liée à cette confusion et partagée par de nombreux experts : l’IA Act sera-t-il un frein à la compétitivité et à l’innovation pour les startups européennes ? “Le niveau de mise en conformité est tel que cela demandera beaucoup d’argent à certaines entreprises, dont les roadmaps seront complètement bouleversées. Cela vient ajouter de la complexité pour les entreprises qui veulent s’étendre sur le marché européen, et celles qui s’y trouvent déjà”, note à ce propos Marianne Tordeux Bitker.

"Créer ce cadre va effectivement certainement ralentir les sociétés dans leur arrivée sur le marché pour deux raisons, ajoute Olivier Martret : déjà, les potentiels clients devront utiliser des solutions 'IA Act compliant' et prendront certainement beaucoup de temps à faire leur choix. Le cas échéant, elles se tourneront vers les acteurs prêts les plus rapidement possibles - et les GAFA seront les mieux placés. D'autre part, les concurrents étrangers à ces sociétés européennes vont bénéficier d'un environnement réglementaire plus léger, pourront gagner rapidement des clients et seront financés plus largement."

En théorie, les PME et startups auront des aménagements spécifiques prévus pour ne pas freiner leur capacité d’innovation. Il y aura notamment des “bacs à sable réglementaires” prévus par le texte. "La philosophie derrière ces bacs à sable, précise Olivier Martret, est de laisser plus de liberté aux startups. Mais le concept n'est pas complètement clair aujourd'hui." Chez France Digitale, qui a poussé pour la création de ces fameux “terrains de jeux”, on se questionne également sur le passage à la pratique. “On ne sait pas encore comment cela va fonctionner : aura-t-on, là encore, les mêmes règles du jeu partout en Europe ? Nous manquons encore trop de visibilité pour le dire…” "Les contours évolueront certainement dans les prochains mois ou années à venir", nous indique-t-on chez Serena.

Un texte... encore très flou

Nos deux experts, de Serena et France Digitale, s'accordent finalement sur un point. L'IA Act était "plus que nécessaire", d'un point de vue éthique notamment, et sera certainement suivi, ailleurs dans le monde, d'autres règlements similaires.

Les difficultés qu'il pose, et ce sentiment “d’insécurité juridique” qui devrait peser sur les entreprises européennes durant ces prochains mois, sont pour la plupart liées au flou persistant. Des amendements devraient préciser certains points avant son entrée en vigueur, sur le niveau de risque évoqué plus haut ou sur l'identification des autorités qui devront encadrer tout ceci et leur doctrine, par exemple.

Il faudra ensuite veiller à garder une certaine cohérence entre les injonctions et les spécificités de chaque pays. “Il n’y a qu’à voir ce qui se passe avec la directive sur les droits d’auteur, illustre la responsable des Affaires Publiques de France Digitale. Il y a un seul texte, mais qui est appliqué de 27 façons différentes en UE, chaque pays ayant ajouté ses petites spécificités. On risque d’avoir ce type d’effets avec l’IA Act. La vérité, c’est que l’on pense avoir un marché unique… mais que c’est encore loin d’être le cas sur certains sujets.”

Olivier Martret conclut : "le régulateur doit davantage comprendre les sous jacents technologiques et entendre les besoins des sociétés, pour avancer à l'unisson sur l'un des sujets majeurs du siècle à venir..."