Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
6/1/26

La transparence des contenus générés par l’IA : analyse du projet de Code de bonnes pratiques relatif à l’article 50 de l’AI Act

Introduction : l’article 50 de l’AI Act : de l’exigence normative à la mise en œuvre concrète de la transparence

L’article 50 du règlement européen sur l’intelligence artificielle (AI Act) instaure un régime inédit de transparence applicable aux contenus générés ou manipulés par des systèmes d’intelligence artificielle. Derrière une rédaction volontairement concise, cette disposition emporte des conséquences juridiques considérables pour l’ensemble des acteurs de la chaîne de valeur de l’IA, en imposant que le caractère artificiel de certains contenus soit identifiable, techniquement détectable et, dans des hypothèses précisément circonscrites, explicitement porté à la connaissance du public.

La publication récente du premier projet de Code de bonnes pratiques sur la transparence des contenus générés par l’IA, élaboré sous l’égide de la Commission européenne, constitue à cet égard une étape structurante. Sans créer d’obligations nouvelles, ce texte propose une lecture particulièrement détaillée et cohérente de la manière dont les obligations prévues à l’article 50 doivent être comprises et mises en œuvre en pratique. Il s’impose d’ores et déjà comme un référentiel central d’interprétation, appelé à orienter les pratiques des entreprises, l’action des autorités de surveillance et, à terme, l’appréciation des juridictions.

Le projet de Code repose sur une distinction cardinale entre deux catégories d’acteurs : les fournisseurs de systèmes d’IA générative, auxquels incombe la responsabilité de la traçabilité et de la détectabilité techniques des contenus, et les déployeurs de systèmes d’IA, tenus, dans certains cas, d’une obligation d’information explicite du public.

Le texte intégral du projet de Code de bonnes pratiques

I. Une architecture juridique fondée sur une dissociation assumée des responsabilités

L’un des apports majeurs du projet de Code réside dans la clarification des périmètres respectifs des obligations pesant sur les fournisseurs et sur les déployeurs. Contrairement à une lecture intuitive mais juridiquement inexacte, l’article 50 de l’AI Act n’impose pas un régime uniforme de transparence à l’ensemble des acteurs ni à l’ensemble des contenus.

S’agissant des fournisseurs de systèmes d’IA générative, le projet de Code adopte une approche large et objectivée. Le critère déclencheur des obligations est exclusivement technique : dès lors qu’un contenu est généré ou substantiellement modifié par un système d’IA, il entre dans le champ des exigences de marquage et de détectabilité, indépendamment de sa finalité, de son public ou de son mode de diffusion. Sont ainsi visés, sans distinction, les contenus visuels, sonores, audiovisuels, textuels ou multimodaux, y compris lorsqu’ils sont destinés à un usage interne, expérimental ou technique. Cette approche traduit une volonté claire d’assurer une traçabilité continue des contenus tout au long de leur cycle de vie.

À l’inverse, les obligations applicables aux déployeurs reposent sur une logique finaliste et contextuelle. Elles ne se déclenchent que lorsque la diffusion d’un contenu généré ou manipulé par l’IA est susceptible d’induire le public en erreur quant à son authenticité ou à son origine. Le projet de Code circonscrit ainsi strictement l’obligation de divulgation explicite aux contenus de type deepfake, entendus comme des contenus audio, visuels ou audiovisuels représentant de manière réaliste des personnes, objets, lieux ou événements, ainsi qu’à certains contenus textuels, mais uniquement lorsqu’ils sont publiés dans un but d’information du public sur des sujets d’intérêt général et en l’absence de contrôle éditorial humain effectif.

Cette dissymétrie, loin d’être accidentelle, constitue l’un des fondements conceptuels de l’article 50 : tout contenu doit pouvoir être techniquement identifié comme artificiel, mais seuls certains contenus doivent être explicitement signalés au public.

II. Les obligations des fournisseurs : vers une traçabilité technique systémique des contenus

Lorsqu’il s’adresse aux fournisseurs de systèmes d’IA générative, le projet de Code retient une conception résolument technique de la transparence. Il part d’un constat désormais largement partagé : aucune technique isolée ne permet, à elle seule, de satisfaire simultanément aux exigences d’effectivité, de robustesse, de fiabilité et d’interopérabilité posées par l’AI Act.

En conséquence, le projet de Code préconise une combinaison de techniques complémentaires, organisées selon une logique de couches successives. Il est ainsi attendu des fournisseurs qu’ils intègrent, lorsque les formats le permettent, des informations de provenance dans les métadonnées des contenus générés, assorties de mécanismes de signature numérique garantissant leur intégrité. À ces dispositifs doivent s’ajouter, dans la mesure du possible, des filigranes imperceptibles directement intégrés au contenu, conçus pour résister aux opérations courantes de transformation ainsi qu’aux tentatives d’altération malveillante. Lorsque ces techniques s’avèrent insuffisantes, notamment pour certains contenus textuels ou hybrides, le recours à des mécanismes complémentaires de journalisation ou d’empreintes numériques est expressément envisagé.

Le projet de Code insiste par ailleurs sur la nécessité d’intégrer ces exigences dès la conception des systèmes, et en particulier au niveau des modèles génératifs eux-mêmes. Les fournisseurs de modèles destinés à être intégrés par des acteurs tiers sont encouragés à implémenter des mécanismes de marquage en amont, afin de faciliter la conformité des acteurs en aval et d’assurer une cohérence de la traçabilité tout au long de la chaîne de valeur.

Enfin, la traçabilité technique ne saurait être pleinement effective sans une capacité réelle de vérification. À ce titre, le projet de Code recommande la mise à disposition, à titre gratuit, d’outils permettant à des tiers de détecter l’origine artificielle des contenus. Cette exigence est conçue comme durable : la détectabilité doit être assurée sur la durée, y compris en cas de cessation d’activité du fournisseur, par la coopération avec les autorités compétentes.

III. Les obligations des déployeurs : une transparence intelligible et contextualisée à destination du public

Le projet de Code adopte une approche sensiblement différente à l’égard des déployeurs. Ici, la transparence ne relève plus prioritairement de la technique, mais de l’information intelligible du public. Les déployeurs sont ainsi invités à se doter de procédures internes leur permettant d’identifier précisément le degré d’intervention de l’IA dans les contenus qu’ils diffusent, en distinguant notamment les contenus entièrement générés de ceux pour lesquels l’IA n’intervient qu’à titre d’assistance substantielle.

Sur cette base, le projet de Code recommande l’usage d’un signe visuel commun, simple et immédiatement perceptible, destiné à signaler le recours à l’IA dès la première exposition du contenu. À titre transitoire, ce signe repose sur un acronyme linguistiquement adaptable, dans l’attente de la mise en place d’un dispositif harmonisé à l’échelle européenne, potentiellement interactif, permettant d’accéder à des informations plus détaillées sur la nature des modifications opérées par l’IA.

Le texte se distingue par la précision de ses recommandations selon les formats de diffusion. Vidéos en temps réel, contenus audiovisuels préenregistrés, formats audio seuls, images fixes ou textes d’information du public font chacun l’objet d’indications spécifiques, destinées à garantir une information effective sans imposer de contraintes disproportionnées. Une attention particulière est portée aux œuvres artistiques, créatives, satiriques ou fictionnelles, pour lesquelles l’exigence de transparence doit être conciliée avec la liberté de création et l’expérience esthétique du public.

La transparence est enfin appréhendée comme un processus organisationnel continu. Le projet de Code invite les déployeurs à formaliser leurs pratiques, à former les équipes concernées, à mettre en place des mécanismes de signalement des erreurs de labellisation et à prévoir des procédures de correction rapide.

IV. Calendrier réglementaire et date d’applicabilité de l’article 50

Le projet de Code de bonnes pratiques récemment publié constitue expressément une première version. Les travaux ont été engagés à l’automne 2025 dans le cadre d’une large consultation multi-acteurs, et le texte est soumis à observations jusqu’au 23 janvier 2026. Une version révisée est attendue courant 2026, en articulation étroite avec les lignes directrices que la Commission européenne doit adopter sur l’article 50 de l’AI Act.

Sur le plan strictement juridique, il convient de rappeler que, si le règlement sur l’intelligence artificielle est entré en vigueur le 1er août 2024, les obligations de transparence prévues à l’article 50, y compris celles applicables aux déployeurs, ne deviendront juridiquement applicables qu’à compter du 2 août 2026. À partir de cette date, les autorités de surveillance seront fondées à contrôler et, le cas échéant, à sanctionner les manquements aux obligations de divulgation prévues par le texte.

Conclusion : un projet de Code appelé à structurer durablement les pratiques

Le projet de Code de bonnes pratiques sur la transparence des contenus générés par l’IA ne saurait être appréhendé comme un simple document d’orientation. Par la précision de ses analyses, la cohérence de sa construction et la clarté de la répartition des responsabilités entre fournisseurs et déployeurs, il constitue d’ores et déjà un outil structurant pour la mise en œuvre concrète de l’article 50 de l’AI Act.

Si l’échéance du 2 août 2026 peut sembler encore lointaine, le contenu de ce projet offre une lecture particulièrement claire des attentes futures des autorités européennes. Pour les entreprises, l’enjeu n’est donc pas d’attendre l’entrée en application formelle de l’article 50, mais d’anticiper, dès à présent, la mise en place de dispositifs de transparence juridiquement solides, techniquement robustes et alignés sur ce qui est appelé à devenir le standard européen en matière de contenus générés par l’intelligence artificielle.

Vincent FAUCHOUX
Image par Canva
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.