En août 2024, trois auteurs américains – Andrea Bartz, Charles Graeber et Kirk Wallace Johnson – ont intenté un recours collectif contre Anthropic, accusant l'entreprise d'avoir téléchargé illégalement plus de 500 000 livres numériques depuis des sites pirates comme Books3, Library Genesis et Pirate Library Mirror pour enrichir les bases de données utilisées dans l'entraînement de Claude.
En juin 2025, le juge fédéral William Alsup a rendu une décision partielle cruciale qui distingue deux situations : d'un côté, l'utilisation d'œuvres légalement acquises pour entraîner l'IA peut constituer un "fair use" (usage équitable) ; de l'autre, le stockage et l'usage de contenus piratés constituent une violation claire du copyright. Cette distinction juridique a contraint Anthropic à négocier spécifiquement sur le volet "contenus piratés".
C'est dans ce contexte que le 5 septembre dernier, Anthropic a proposé un accord amiable de 1,5 milliard de dollars aux auteurs plaignants – soit environ 3 000 dollars par œuvre piratée, un montant quatre fois supérieur à ce qui était initialement réclamé. Cette proposition révèle une stratégie qui dépasse le simple dédommagement : en fixant un standard économique aussi élevé, Anthropic tente de créer une barrière à l'entrée prohibitive pour ses concurrents moins capitalisés.
Au-delà des enjeux de propriété intellectuelle, cette affaire préfigure une situation où l'industrie européenne de l'IA générative risque de devenir spectatrice d'un jeu dont les règles économiques se définissent outre-Atlantique.
La Silicon Valley peut-elle dicter les règles du jeu ?
La proposition de Anthropic ne résulte pas d’une décision juridique, c’est une tentative de mettre en place un nouveau un standard économique de manière unilatérale. En proposant de payer des dommages pour l’équivalent de 3 000 dollars par œuvre (quatre fois plus que ce qui était réclamé par le juge) Anthropic ne fait pas preuve de générosité : la startup américaine tente de créer une barrière à l'entrée pour protéger son marché.
Cette stratégie est assez courante dans le domaine de la tech, notamment aux États-Unis. Google, Meta, Amazon ont tous commencé par développer leur business dans la zone grise juridique, puis ont légitimé leur position dominante avec des accords amiables, une fois le marché capturé.
Sauf que cette fois, la justice américaine a questionné l’accord de Anthropic —considéré comme du "compliance washing" — en mettant en valeur, au-delà des obligations de dédommagement, le besoin de respecter des standards de transparence qui convergent vers le modèle européen. En demandant une liste exhaustive des œuvres piratées, un processus de réclamation transparent, et une notification équitable, la justice américaine se rapproche de facto des standards de traçabilité qui font écho aux obligations européennes de l'AI Act.
L'Europe entre réglementation et innovation
Pendant que les entreprises américaines redéfinissent les règles du marché par la jurisprudence, l’approche de l’Europe repose sur des interventions législatives, notamment avec l'AI Act. Avec une entrée en vigueur le 2 août 2025, l’AI Act positionne l’Europe en pionnière de l'IA responsable avec un cadre réglementaire strict et des standards de transparence élevés.
Mais l'exemple d'Anthropic révèle les limites de cette approche purement réglementaire. Pendant que l'Europe structure ses règles via l'AI Act, les géants américains définissent les standards économiques par la jurisprudence. Cette dualité entre la régulation européenne d'un côté et la normalisation judiciaire américaine de l'autre crée un environnement hybride complexe, difficile à naviguer pour les entreprises de l’IA qui opèrent au niveau international.
Le tribunal américain doit encore se prononcer sur l’accord d'Anthropic, mais le juge a déjà soulevé des doutes et des questionnements — ouvrant ainsi une opportunité pour l'Europe. Pendant que les tribunaux américains risquent d’imposer rétroactivement des exigences de transparence aux entreprises de l’IA, l'Européen a déjà structuré proactivement ces obligations en stipulant les conditions de documentation des modèles et traçabilité des données d'entraînement.
Vers une stratégie concurrentielle européenne ?
Face à cette situation, l'Europe a désormais l’opportunité de transformer l’AI Act en avantage concurrentiel.
Plutôt que de subir les contraintes imposées par l’AI Act, les entreprises européennes peuvent faire de la conformité réglementaire un atout marketing. Cela pourrait passer par l’instauration d’un label IA responsable européen. Les entreprises respectant l'AI Act bénéficieraient ainsi d'une certification officielle valorisant leur approche éthique auprès des clients institutionnels et des marchés publics. Les standards de l'AI Act deviennent ainsi des gages de qualité face à l'opacité des modèles américains: c'est une différenciation par la confiance.
Pour renforcer son avantage concurrentiel, L’Europe a aussi l’opportunité de mobiliser le patrimoine culturel financé par l’argent public : Bibliothèque nationale de France, archives nationales, médias audiovisuels publics, universités. Ces contenus doivent devenir accessibles prioritairement aux entreprises européennes respectant l'AI Act, créant ainsi un avantage concurrentiel naturel face aux big tech américaines dépendantes de contenus piratés.
Enfin, à l'image du projet EuroHPC pour le calcul haute performance, l'Europe pourrait créer des centres d'entraînement mutualisés permettant aux startups européennes d'accéder à des ressources de calcul compétitives. Cette mutualisation réduirait les coûts d'entrée tout en garantissant la souveraineté technologique.
Un enjeu géopolitique
L'accord Anthropic nous rappelle que l'IA générative n'est pas qu'une révolution technologique, c'est aussi un enjeu géopolitique majeur. Les standards économiques mondiaux se définissent maintenant, et les entreprises qui développent et contrôlent ces technologies sont celles qui vont tenter de définir les normes économiques, culturelles et sociétales de leur utilisation.
Ainsi, l'Europe ne peut pas se contenter de n’être que le "régulateur de l’IA". L’Europe doit devenir un acteur industriel crédible, capable de peser dans les négociations qui façonnent l'avenir de cette technologie. Cela passe par une stratégie claire et assumée : exploiter nos avantages réglementaires, donner aux entreprises européennes un accès privilégié aux ressources publiques, et créer un écosystème qui fait de la responsabilité un différenciateur concurrentiel plutôt qu'une contrainte.