La campagne mondiale de lancement du douzième album de Taylor Swift, "The Life of a Showgirl", a donné lieu à une chasse au trésor numérique conçue avec Google.
Les fans étaient invités à rechercher le nom de la chanteuse sur le moteur pour débloquer douze vidéos cryptiques, menant progressivement au clip final The Fate of Ophelia.
Mais dès leur publication, plusieurs internautes ont relevé que ces séquences (paysages irréels, textures lissées, mouvements légèrement artificiels) semblaient avoir été générées par intelligence artificielle, sans qu’aucune mention ne l’indique.
Selon un article du magazine TechCrunch publié le 6 octobre 2025, certains observateurs soupçonnent l’usage du générateur vidéo Veo 3 de Google, bien qu’aucune confirmation officielle n’ait été donnée.
Cette controverse, relayée à grande échelle, illustre un débat juridique désormais central : quelles obligations de transparence s’imposent aux créateurs et plateformes lorsqu’un contenu est produit à l’aide d’une IA ?
Le règlement (UE) 2024/1689 sur l’intelligence artificielle (AI Act), adopté au printemps 2024, fixe à l’article 50 une obligation d’identification des contenus générés ou manipulés artificiellement lorsqu’ils sont susceptibles d’induire le public en erreur.
Toutefois, il introduit une exception significative pour les contenus manifestement artistiques, créatifs, satiriques ou fictifs, dès lors que leur nature ne prête pas à confusion.
Cette approche, fondée sur un équilibre entre liberté de création et protection du public, pourrait conduire à admettre qu’une campagne artistique telle que celle de Taylor Swift n’impose pas une labellisation explicite, à condition que le public perçoive clairement son intention promotionnelle et non trompeuse.
La Chine a adopté une position beaucoup plus stricte.
La réglementation du 15 août 2025 sur les services de génération de contenus par IA (Interim Measures for the Management of Generative AI Services), entrée en vigueur le 15 septembre 2025, impose un marquage visible, indélébile et traçable pour tout contenu généré par intelligence artificielle.
Les fournisseurs doivent assurer la traçabilité technique (par filigrane ou métadonnées) et assument une responsabilité directe en cas d’omission.
Aucune exception n’est prévue pour les créations artistiques : la transparence y est absolue, conçue comme une exigence de sécurité informationnelle et de confiance numérique.
Aux États-Unis, aucune législation fédérale n’impose aujourd’hui la labellisation des contenus d’IA.
Des initiatives locales émergent toutefois, comme le projet californien AI Transparency in Media Act, qui viserait à encadrer l’usage de contenus générés dans les communications politiques et publicitaires.
Mais faute d’un cadre harmonisé, la régulation américaine demeure fragmentée, laissant aux plateformes et artistes une large zone d’incertitude.
L’affaire Taylor Swift illustre la tension croissante entre innovation artistique et devoir de loyauté envers le public.
Même lorsqu’un contenu relève de la création, le silence sur l’usage de l’IA peut être juridiquement qualifié d’omission trompeuse (article L.121-2 du Code de la consommation) ou de manque de transparence publicitaire au sens de la directive (UE) 2005/29.
Conclusion :
L’Europe privilégie une transparence contextualisée, la Chine une transparence absolue, et les États-Unis restent sans cadre unifié.
Entre ces modèles, l’affaire Swift-Google montre que la labellisation des contenus générés par IA n’est plus un débat technique, mais un enjeu juridique global touchant à la confiance du public et à la loyauté de la communication artistique.