


Depuis le mois d’octobre 2025, la plateforme Sora 2 développée par OpenAI a suscité de vives polémiques dans le monde entier. Présentée comme la première application combinant génération vidéo et réseau social, elle permettait à ses utilisateurs de créer des scènes entièrement synthétiques, incluant le visage et la voix de personnes réelles, sous réserve de leur consentement.
Mais plusieurs dérives sont rapidement apparues : des vidéos reproduisant des acteurs et figures publiques ont circulé sans autorisation, poussant OpenAI à réagir. Le 21 octobre 2025, son PDG Sam Altman a annoncé un renforcement immédiat des garde-fous : l’entreprise passe d’un système de simple retrait (“opt-out”) à un régime d’autorisation préalable (“opt-in”) pour tout usage de la ressemblance ou de la voix d’une personne réelle. Altman a également affirmé que la société « restait profondément engagée à protéger les artistes et créateurs contre la captation non consentie de leur image » et soutenait le projet de loi américain NO FAKES Act, destiné à interdire les imitations numériques sans accord explicite.
OpenAI a par ailleurs suspendu plusieurs contenus mettant en scène Martin Luther King Jr. ou Robin Williams, à la demande de leurs ayants-droit, après leur diffusion sur Sora 2 dans des contextes jugés irrespectueux.
C’est dans ce climat de défiance croissante que s’est produit, en France, un épisode singulier impliquant Tibo InShape (Thibaud Delapart), l’un des youtubeurs francophones les plus suivis.
À la fin du mois d’octobre 2025, il a accepté de prêter son visage et sa voix à la plateforme pour expérimenter la création de vidéos à son effigie. En quelques jours, l’expérience a échappé à tout contrôle. Dès le 28 octobre, des centaines de vidéos ont envahi TikTok et X, mettant en scène l’avatar du youtubeur dans des situations qu’il n’avait évidemment jamais validées. Certaines parodies étaient inoffensives ; d’autres, plus graves, véhiculaient des propos racistes ou misogynes, suscitant un vif émoi.
Le quotidien Le Monde rapportait le 31 octobre un « flot de vidéos racistes générées par IA mettant en scène Tibo InShape », symbole d’une nouvelle ère où l’identité numérique d’un individu devient un matériau librement manipulable.
En droit français, l’autorisation d’utiliser son image ne peut être que limitée et encadrée. Le droit à l’image, dérivé de l’article 9 du Code civil, protège la représentation de toute personne et subordonne son exploitation à un consentement spécifique quant à la finalité, la durée et le contexte de l’usage.
Accepter que son image soit utilisée sur une plateforme comme Sora 2 ne signifie donc pas renoncer à tout contrôle sur celle-ci. La jurisprudence constante rappelle que le consentement s’interprète strictement : il ne vaut que pour les usages expressément prévus. Toute réutilisation excédant ce cadre — création d’une vidéo haineuse, trompeuse ou attentatoire à la dignité — demeure illicite et peut être poursuivie sur le fondement de l’article 9 du Code civil, mais aussi des textes réprimant la diffamation, l’injure ou la provocation à la haine.
Cette problématique n’est d’ailleurs pas propre à la France.
Aux États-Unis, plusieurs célébrités ont récemment dénoncé l’usage non autorisé de leur image sur Sora 2 : l’acteur Bryan Cranston et le syndicat SAG-AFTRA ont saisi OpenAI à ce sujet, tandis que la fille de Robin Williams et celle de Martin Luther King Jr. ont publiquement condamné la diffusion de séquences générées par IA mettant en scène leurs proches disparus.
Ces réactions convergent : même lorsqu’une plateforme agit avec un consentement initial, celui-ci ne saurait être interprété comme une renonciation générale au droit à la personnalité.
En cas de diffusion de contenus illicites, plusieurs leviers juridiques coexistent :
Ces outils juridiques offrent encore un moyen de reprendre la main sur son image, à condition d’agir vite et de documenter chaque détournement. Mais ils révèlent aussi l’urgence d’un encadrement plus clair des avatars numériques consentis, afin d’éviter que l’expérience d’un créateur ne devienne le laboratoire incontrôlé de la confusion entre réalité et simulation.

