L’action collective initiée en août 2024 par des auteurs américains, qui accusaient la start-up Anthropic d’avoir pillé leurs œuvres pour former son outil d’intelligence artificielle (IA) Claude, pourrait finalement ne jamais aller à son terme. Mardi 26 août, Anthropic a conclu un accord préliminaire avec la partie adverse, apprend-on de Bloomberg : le règlement à l’amiable devrait être finalisé le 3 septembre, selon un document publié mardi. Grâce à cet accord qui devra être validé par un juge, Anthropic échapperait donc au paiement d’un chèque qui aurait pu être plus que salé. Selon une estimation, il aurait pu aller jusqu’à 900 milliards de dollars, un montant abyssal pour l’entreprise qui aurait, selon des sources de Reuters, atteint les 3 milliards de dollars de chiffre d’affaires.
« Cet accord historique profitera à tous les membres du groupe. Nous sommes impatients d’annoncer les détails de l’accord dans les semaines à venir », a déclaré Justin Nelson, l’avocat représentant les auteurs, dans une déclaration envoyée au média américain Wired.
À lire aussi : IA : Anthropic accusé de collecter sans autorisation des contenus de sites Web
Le « vol » de « centaines de milliers de livres protégés par le droit d’auteur » pour entraîner les IA de Claude ?
Cette affaire avait débuté en 2021, année où le cofondateur d’Anthropic, Ben Mann, avait « téléchargé Books3, une bibliothèque en ligne de 196 640 livres dont il savait qu’ils avaient été assemblés à partir de copies non autorisées de livres protégés par le droit d’auteur, c’est-à-dire piratés », rappelait le juge William Alsup, dans une décision annexe de juin dernier. La même année, le cofondateur avait téléchargé « au moins cinq millions de copies de livres » de Libgen. En 2022, deux autres millions de copies ont été téléchargées cette fois sur PiLiMi.
De quoi faire réagir plusieurs auteurs américains, dont Andrea Bartz, Charles Graeber et Kirk Wallace Johnson. Ces derniers estimaient qu’Anthropic avait « bâti une entreprise de plusieurs milliards de dollars en volant des centaines de milliers de livres protégés par le droit d’auteur ». Ils avaient initié une action collective contre l’entreprise concurrente d’OpenAI, la société à l’origine de ChatGPT.
À lire aussi : « Arrêtez de voler nos livres, et payez-nous » : aux États-Unis, la bronca des écrivains face aux industriels de l’IA
Un procès qui devait avoir lieu en décembre
Et en juin dernier, le juge californien William Alsup, qui était saisi de l’affaire, avait rendu un premier jugement donnant raison à l’une et à l’autre des parties. D’un côté, il avait estimé que l’entraînement de ses modèles d’IA sur des livres achetés légalement, sans l’autorisation de l’auteur ou de son ayant-droit, constituait bien un « usage loyal », une exception au droit d’auteur dans le droit américain.
Mais de l’autre, le juge californien a estimé que la manière dont Anthropic avait acquis certaines des œuvres, en les téléchargeant via des bibliothèques dites « fantômes », constituait bien un acte de piratage. Il avait donc donné son feu vert au recours collectif, estimant que les auteurs des livres pouvaient poursuivre Anthropic en justice. Le procès devait avoir lieu en décembre.
Dans sa décision, le magistrat américain avait laissé entendre que la décision de stocker sept millions de copies de livres piratés sur les serveurs d’Anthropic ne constituait pas une « utilisation équitable » ou « fair use », cette exception au droit d’auteur américain. Comprenez : le fait d’avoir utilisé des livres piratés à des fins d’entraînement d’IA violerait bien, à priori, le copyright.
À lire aussi : Scanner des livres pour entraîner son IA : c’est légal aux États-Unis, selon cette décision de justice inédite
Face au montant potentiel à payer, Anthropic aurait cherché un règlement amiable
Cette décision aurait poussé Anthropic à trouver très rapidement un accord avec les auteurs, souligne Bloomberg. Car selon la loi américaine sur le copyright, les dommages-intérêts pour ce type de piratage s’évaluent à 750 dollars par œuvre « pillée ». Comme la bibliothèque de livres constituée par Anthropic comprend environ 7 millions d’œuvres, la société d’IA risquait des sanctions judiciaires s’élevant à 900 milliards de dollars, selon une estimation d’Edward Lee, professeur de droit à Santa Clara. Un montant abyssal pour une entreprise qui ne prévoit pas de percevoir plus de 5 milliards de dollars de revenus cette année, selon une déclaration du directeur financier d’Anthropic, rapportée par nos confrères.
Reste à savoir ce que contient le règlement à l’amiable, et si son contenu sera reçu positivement par les auteurs impliqués dans cette affaire. Car la procédure d’action collective aux États-Unis se déroule ainsi : une fois validée dans son principe par un juge, les plaignants préviennent les personnes qui peuvent y participer. Or ici, cette étape était en cours. Les écrivains concernés par l’action contre Anthropic commençaient tout juste à être avertis qu’ils étaient éligibles à la procédure collective. Les avocats des plaignants devaient en effet soumettre une « liste des œuvres concernées » au tribunal californien, au plus tard début septembre.
À côté de cette action en justice, Anthropic a fait face à d’autres procédures initiées par des ayants droit, à l’image de celle impliquant Universal Music Group. Le groupe accuse la société d’IA d’avoir illégalement entraîné ses modèles de langage à partir de paroles protégées par le droit d’auteur.
À lire aussi : Auteurs versus IA : Meta gagne une manche aux États-Unis
Droit d’auteur : à partir du 2 août, les IA devront bien dévoiler leurs sources en Europe
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.