
Les labels, artistes et producteurs peinent à obtenir des avancées législatives, malgré plusieurs propositions au Congrès américain, tandis que certains États comme le Tennessee adoptent des lois contre les deepfakes. Au Royaume-Uni, une consultation vise à assouplir la loi sur la propriété intellectuelle pour l'IA.
L'industrie musicale lutte sur plusieurs fronts : sur les plateformes, dans les tribunaux, et auprès des élus, pour stopper le pillage et le détournement de ses contenus via l'intelligence artificielle (IA) générative, mais les résultats restent encore mitigés. 75 000 : c'est le nombre de deepfakes dont le label Sony Music affirme avoir déjà demandé le retrait sur internet, un chiffre qui illustre l'ampleur du phénomène. Pourtant, beaucoup assurent que la technologie permet désormais de détecter ces morceaux créés par un logiciel d'IA générative, sans l'intervention de l'artiste. "Même si elles paraissent réalistes, les chansons créées avec l'IA présentent de légères irrégularités de fréquence, de rythme, de signature numérique qu'on ne trouve pas dans la voix humaine", explique Pindrop, spécialisé dans l'identification vocale.
"Un cauchemar IA"
Cependant, il suffit de quelques minutes pour repérer, sur YouTube ou Spotify – les deux principales plateformes de streaming musical – un faux rap de 2Pac sur les pizzas ou une reprise par Ariana Grande d’un tube de K-pop qu’elle n’a jamais chanté. "Nous prenons cela très au sérieux et nous travaillons à de nouveaux outils dans ce domaine pour améliorer" la détection des faux IA, a précisé cette semaine Sam Duboff, responsable de la politique réglementaire chez Spotify, sur la chaîne YouTube Indie Music Academy.
De son côté, YouTube a annoncé "affiner (sa) technologie avec (ses) partenaires" et pourrait faire des annonces dans les semaines à venir. "Les acteurs mal intentionnés ont un temps d'avance", constate Jeremy Goldman, analyste du cabinet Emarketer. "YouTube a des milliards de dollars en jeu, donc on peut penser qu'ils vont réussir à régler le problème, (...) parce qu'ils ne veulent pas voir leur plateforme se transformer en cauchemar IA."
"Nous sommes dans une zone de vraie incertitude"
Mais au-delà des deepfakes, l'industrie musicale s'inquiète surtout de l'utilisation non autorisée de ses contenus pour développer des interfaces d'IA générative spécialisées, telles que Suno, Udio ou Mubert. En juin, plusieurs grands labels ont assigné devant un tribunal fédéral de New York la maison mère d'Udio, l’accusant d’avoir créé son logiciel en utilisant "des enregistrements protégés par la propriété intellectuelle dans le but ultime de détourner des auditeurs, fans et de potentiels utilisateurs payants". Plus de neuf mois après, aucune date n’a été fixée pour un éventuel procès, pas plus que dans un dossier similaire visant Suno, dans le Massachusetts.
Au cœur du débat juridique, la notion d’utilisation équitable (fair use), susceptible de limiter l’application du droit de propriété intellectuelle sous certaines conditions. "Nous sommes dans une zone de vraie incertitude" quant à l’interprétation des critères par les magistrats, estime Joseph Fishman, professeur de droit à l’université Vanderbilt. Les premiers jugements ne marqueront pas nécessairement la fin d’un chapitre, car "si les tribunaux se mettent à différer" dans leurs opinions, la Cour suprême pourrait être amenée à trancher, avertit l’universitaire.
En attendant, les grands acteurs de l’IA musicale continuent à alimenter leurs modèles avec des données protégées, soulevant la question de savoir si le combat n’est...
Lire la suite sur francetvinfo.fr