Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
2/10/25

La loi californienne SB-53 : un nouveau standard mondial pour la transparence et la sécurité des modèles d’« IA de frontière »

Introduction : l’initiative du législateur californien face aux risques de l’IA avancée

Le 29 septembre 2025, l’État de Californie a adopté et promulgué la loi SB-53, intitulée Transparency in Frontier Artificial Intelligence Act. Proposée par le sénateur Scott Wiener et approuvée par le Gouverneur de Californie, cette loi constitue le premier cadre législatif complet aux États-Unis spécifiquement consacré aux modèles d’« IA de frontière » — c’est-à-dire les modèles d’intelligence artificielle les plus avancés, conçus sur des ensembles massifs de données, entraînés à l’aide d’une puissance de calcul exceptionnelle et susceptibles d’être adaptés à de nombreuses tâches.

Cette initiative vise à renforcer la transparence et la responsabilité des développeurs de ces systèmes et à prévenir les risques graves pour la sécurité publique, identifiés notamment dans le rapport du Gouverneur sur les modèles d’« IA de frontière ». Ces risques concernent, entre autres, la perte de contrôle du système, son utilisation malveillante (notamment à des fins de cyberattaques ou de mise au point d’armes biologiques ou chimiques) ou encore sa capacité à contourner la supervision humaine.

La loi SB-53 marque ainsi le passage d’une autorégulation essentiellement volontaire à un cadre législatif contraignant, imposant aux acteurs les plus puissants de l’IA de se soumettre à des obligations de gouvernance et de reddition de comptes.

1. Transparence et maîtrise des risques : une obligation pour les grands développeurs de modèles d’« IA de frontière »

La loi impose aux grands développeurs de modèles d’« IA de frontière » de publier et de mettre à jour régulièrement une politique interne de gouvernance, véritable « cadre de l’IA de frontière ».

Cette politique doit définir notamment :

  • les méthodes d’évaluation des capacités dangereuses des modèles et les stratégies de réduction des risques ;
  • la prise en compte des normes internationales et des bonnes pratiques sectorielles ;
  • les procédures de contrôle avant tout déploiement ou usage interne à grande échelle ;
  • les mesures de sécurité informatique visant à protéger les paramètres essentiels des modèles contre les intrusions et détournements ;
  • les dispositifs de détection et de traitement des incidents graves, tels que les pertes de contrôle ou les comportements autonomes imprévus.

Avant le déploiement d’un nouveau modèle ou d’une version substantiellement modifiée, le développeur doit également publier un rapport de transparence exposant les risques identifiés, les mesures correctives mises en œuvre et, le cas échéant, le recours à des évaluations indépendantes.

Lorsque certaines informations sensibles doivent être protégées pour des raisons de sécurité ou de secret des affaires, le développeur est tenu d’en expliquer la nature et de conserver l’intégralité des données pour les mettre à disposition des autorités en cas de besoin.

La loi instaure en outre un obligation de signalement rapide des incidents graves. Ainsi, une perte de contrôle d’un modèle entraînant un dommage corporel ou une violation de la sécurité de ses paramètres critiques doit être notifiée sans délai à l’autorité publique compétente.

Le défaut de publication des politiques de gouvernance, de dépôt des rapports ou de signalement des incidents peut entraîner des sanctions civiles importantes, pouvant atteindre un million de dollars par violation.

2. Gouvernance publique et protection des salariés lanceurs d’alerte

Au-delà des obligations imposées aux entreprises privées, le législateur californien a confié à l’administration la mission d’étudier la création d’une infrastructure publique de calcul haute performance, baptisée « CalCompute ».

Cet outil vise à favoriser un accès plus équitable aux ressources de calcul, indispensable au développement de l’IA, et à soutenir des projets d’« IA de frontière » à vocation éthique, durable et conforme à l’intérêt général.

La loi renforce par ailleurs la protection des salariés exerçant un rôle d’alerte en matière de sécurité.

Elle interdit toute clause contractuelle ou pratique d’entreprise visant à restreindre ou sanctionner les signalements faits de bonne foi concernant des activités présentant un danger grave pour la santé ou la sécurité publiques.

Les grands développeurs doivent mettre en place un canal interne de signalement anonyme et assurer un suivi régulier des alertes reçues, tout en informant clairement les salariés de leurs droits.

En cas de représailles, les salariés peuvent saisir le juge pour obtenir des mesures d’injonction et le remboursement de leurs frais de justice.

3. Un précédent américain à portée internationale

La loi SB-53 californienne illustre une approche novatrice de gouvernance des risques systémiques liés à l’« IA de frontière », complémentaire des règles existantes en matière de protection des données et de transparence algorithmique.

Elle retient l’attention des entreprises et des praticiens européens pour deux raisons majeures :

  • elle préfigure un dialogue transatlantique sur les standards de sécurité applicables aux modèles d’« IA de frontière », susceptible d’interagir avec le Règlement européen sur l’IA (AI Act) ;
  • elle souligne l’importance, pour tout acteur développant ou utilisant de tels modèles, de mettre en place des mécanismes organisationnels et contractuels robustes, afin d’être en mesure de répondre aux futures obligations de publication, de signalement et de gouvernance.

Bien qu’il s’agisse d’un texte californien, certaines obligations pourraient produire des effets extraterritoriaux pour les développeurs internationaux proposant leurs modèles à des utilisateurs situés en Californie.

Le SB-53 devient ainsi une référence pour les régulateurs du monde entier cherchant à encadrer les risques inhérents aux technologies d’IA les plus puissantes.

Conclusion

En combinant obligation de transparence, maîtrise des risques et protection des salariés lanceurs d’alerte, la loi SB-53 impose un niveau de gouvernance inédit aux développeurs de modèles d’« IA de frontière ».

Elle établit un cadre qui vise à réduire l’écart entre la rapidité de l’innovation et la capacité du droit à prévenir les risques graves pour la collectivité, et préfigure l’émergence de standards internationaux dans le domaine.

Cet article est rédigé par un avocat français et ne constitue pas un avis juridique sur le droit américain. Toute décision ou stratégie impliquant l’application de la loi SB-53 doit être conduite avec l’assistance d’un avocat compétent en droit américain.

Vincent FAUCHOUX
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.