Universal Music Publishing Group, Concord et ABKCO ont poursuivi la société d’intelligence artificielle Anthropic pour violation présumée du droit d’auteur des chansons des trois éditeurs, Pierre roulante les rapports et documents consultés par Pitchfork le confirment. Les sociétés ont intenté une action en justice contre la startup basée à San Francisco devant un tribunal fédéral du Tennessee.
Les plaignants allèguent que Claude, l’assistant d’IA d’Anthropic – un grand modèle de langage (LLM) similaire au populaire ChatGPT d’OpenAI – a violé les droits d’auteur des éditeurs en formant Claude sur leurs chansons et en publiant les paroles des chansons dans ses réponses invitées sans accord de licence, comme ainsi que la suppression des informations sur la gestion des droits d’auteur en violation de la loi sur le droit d’auteur de 1976. Le procès cite 500 œuvres protégées par le droit d’auteur appartenant aux plaignants, dont « A Change Is Gonna Come » de Sam Cooke, « Every Breath You Take » de la police et « Halo » de Beyoncé. .» Le procès allègue que la violation est « systématique et généralisée » et qu’Anthropic est non seulement responsable de la violation de Claude, mais également des actes de contrefaçon de ses utilisateurs.
Anthropic a été fondée par quatre anciens employés d’OpenAI en 2021 et a levé des fonds auprès d’entreprises telles que Google et Zoom. En avril 2022, la société a levé 500 millions de dollars auprès d’un groupe dirigé par Sam Bankman-Fried, le fondateur de la bourse de crypto-monnaie en faillite FTX, qui a ensuite été inculpé de sept chefs d’accusation de complot et de fraude en lien avec l’effondrement de la bourse. Le ministère de la Justice allègue que l’investissement provenait des fonds des clients de FTX. Le mois dernier, Anthropic a annoncé qu’Amazon avait investi « jusqu’à 4 milliards de dollars », obtenant ainsi une participation minoritaire dans l’entreprise.
Étant donné que les ensembles de formation pour les LLM sont exclusifs et ne sont pas rendus publics, les plaignants ne savent pas exactement comment ni où Anthropic a « gratté » leur matériel protégé par le droit d’auteur. Leurs affirmations découlent en grande partie du fait que Claude produit du matériel protégé par le droit d’auteur. Dans la documentation de Claude 2, Anthropic a déclaré : « Les modèles Claude sont formés sur un mélange exclusif d’informations accessibles au public provenant d’Internet, d’ensembles de données que nous accordons sous licence à des entreprises tierces et de données que nos utilisateurs partagent de manière positive ou que fournissent les travailleurs de foule. » En raison de la nature opaque des LLM et de leurs ensembles de données de formation, les éditeurs affirment qu’ils subissent « un préjudice substantiel et irréparable dans une mesure difficile à déterminer ».
Le procès des éditeurs cite des exemples de Claude ayant servi les paroles de « Roar » de Katy Perry, « I Will Survive » de Gloria Gaynor, « Friends in Low Places » de Garth Brooks et « You Can’t Always Get What » des Rolling Stones. Vous voulez » lorsque vous y êtes invité. Il cite également des exemples de Claude générant des paroles pour de « nouvelles » chansons qui incorporent les paroles d’œuvres existantes protégées par le droit d’auteur. Le procès allègue que lorsque Claude a été incité à écrire une chanson sur la mort de Buddy Holly, il a servi les paroles de « American Pie » de Don McLean ; lorsqu’on lui a demandé d’écrire une chanson sur le déménagement de Philadelphie à Bel Air, il a généré les paroles de la chanson thème de Le Prince de Bel Air.
La résolution du procès a des implications importantes pour l’application de la loi sur le droit d’auteur en ce qui concerne les outils d’intelligence artificielle tels que les LLM. Bien que le Bureau américain du droit d’auteur ait publié des lignes directrices déclarant que toute partie d’une œuvre créée par l’IA n’est pas éligible à la protection du droit d’auteur, il n’a pas déterminé la légalité de la formation des LLM sur du matériel protégé par le droit d’auteur. La demande de réparation des éditeurs auprès du tribunal, si elle est accordée, pourrait potentiellement créer un précédent qui obligerait les entreprises à exclure les œuvres protégées par le droit d’auteur des résultats générés par leurs LLM ou même de leurs ensembles de données de formation.
Les éditeurs demandent une injonction permanente interdisant la violation des œuvres protégées par le droit d’auteur, divers dommages et honoraires d’avocat. Ils demandent au tribunal de forcer Anthropic à identifier les paroles des éditeurs et autres œuvres protégées par le droit d’auteur sur lesquelles elle a entraîné ses modèles d’IA, à divulguer les méthodes par lesquelles l’entreprise a collecté et copié les données d’entraînement (y compris les tiers avec lesquels elle a formé ses modèles d’IA). a partagé les données) et de détruire, sous le contrôle du tribunal, toutes les copies contrefaites des œuvres protégées en possession ou sous le contrôle de l’entreprise.