Le 17 juillet 2025, le United States District Court for the Northern District of California a rendu une décision d’importance majeure en matière de propriété intellectuelle et d’intelligence artificielle. Le juge a autorisé, pour la première fois aux États-Unis, la certification d’une Class Action visant à sanctionner l’entraînement illicite de modèles d’intelligence artificielle sur des millions d’œuvres protégées. Cette procédure oppose un collectif d’auteurs et d’ayants droit à Anthropic PBC, acteur majeur du secteur de l’IA générative.
La procédure a été initiée par plusieurs écrivains de renom et leurs entités juridiques respectives :
Ces demandeurs affirment détenir les droits exclusifs sur les œuvres concernées, qu’ils exploitent à titre individuel ou via leurs structures d’édition. Ils ont engagé la procédure en qualité de représentants d’un ensemble plus large d’ayants droit, dont les œuvres auraient été reproduites sans autorisation par Anthropic.
La partie défenderesse, Anthropic PBC, est une entreprise américaine spécialisée dans le développement de modèles d’IA générative, notamment la famille de modèles Claude. Fondée en 2021 et aujourd’hui considérée comme l’un des principaux acteurs du secteur aux côtés d’OpenAI et Google DeepMind, Anthropic est accusée d’avoir utilisé des copies illicites d’œuvres protégées pour former ses modèles de langage, sans obtenir l’autorisation préalable des titulaires de droits ni verser la moindre rémunération.
Les demandeurs reprochent à Anthropic d’avoir massivement téléchargé et exploité des copies non autorisées de livres pour l’entraînement de ses modèles d’IA. Entre 2021 et 2022, Anthropic aurait accédé à :
Ces fichiers auraient été obtenus par des téléchargements BitTorrent et conservés dans la bibliothèque de données d’Anthropic afin d’être intégrés à des ensembles d’entraînement de grande ampleur. Les demandeurs soulignent que les métadonnées des fichiers téléchargés (ISBN, ASIN, hash MD5) permettent d’identifier précisément les œuvres reproduites sans autorisation.
Les demandeurs fondent leur action sur les dispositions du Copyright Act (17 U.S.C. § 101 et s.), en particulier sur le droit exclusif de reproduction prévu à l’article 106(1). Ils soutiennent que :
Anthropic s’est opposée à la certification de la Class Action, avançant principalement que :
Le tribunal, sous la présidence du juge William Alsup, a écarté les arguments d’Anthropic, soulignant que :
Le juge a toutefois limité la certification à une catégorie précise, la “LibGen & PiLiMi Pirated Books Class”, définie comme :
« Tous les propriétaires légaux ou bénéficiaires des droits exclusifs de reproduction d’œuvres protégées téléchargées par Anthropic depuis LibGen ou PiLiMi, à condition que ces œuvres aient été enregistrées auprès du Copyright Office dans les cinq années suivant leur publication. »
Les demandes de certification concernant les catégories “Books3 Pirated Books Class” et “Scanned Books Class” ont été rejetées, faute de preuves suffisantes.
Le tribunal a :
Cette décision marque une étape déterminante dans la régulation des pratiques d’entraînement des modèles d’IA générative. En autorisant cette Class Action, la justice américaine envoie un signal fort aux acteurs du secteur : l’entraînement des modèles ne saurait se faire au mépris des droits d’auteur.
Elle pourrait inspirer des initiatives similaires dans d’autres juridictions et contribuer à l’élaboration de standards internationaux pour un usage éthique et licite des œuvres protégées dans le domaine de l’intelligence artificielle.
Cet article est rédigé par un avocat français, spécialiste en propriété intellectuelle et en intelligence artificielle. Pour tout conseil en droit américain, il est recommandé de consulter un avocat local compétent.