Le 29 septembre 2025, l’État de Californie a adopté et promulgué la loi SB-53, intitulée Transparency in Frontier Artificial Intelligence Act. Proposée par le sénateur Scott Wiener et approuvée par le Gouverneur de Californie, cette loi constitue le premier cadre législatif complet aux États-Unis spécifiquement consacré aux modèles d’« IA de frontière » — c’est-à-dire les modèles d’intelligence artificielle les plus avancés, conçus sur des ensembles massifs de données, entraînés à l’aide d’une puissance de calcul exceptionnelle et susceptibles d’être adaptés à de nombreuses tâches.
Cette initiative vise à renforcer la transparence et la responsabilité des développeurs de ces systèmes et à prévenir les risques graves pour la sécurité publique, identifiés notamment dans le rapport du Gouverneur sur les modèles d’« IA de frontière ». Ces risques concernent, entre autres, la perte de contrôle du système, son utilisation malveillante (notamment à des fins de cyberattaques ou de mise au point d’armes biologiques ou chimiques) ou encore sa capacité à contourner la supervision humaine.
La loi SB-53 marque ainsi le passage d’une autorégulation essentiellement volontaire à un cadre législatif contraignant, imposant aux acteurs les plus puissants de l’IA de se soumettre à des obligations de gouvernance et de reddition de comptes.
La loi impose aux grands développeurs de modèles d’« IA de frontière » de publier et de mettre à jour régulièrement une politique interne de gouvernance, véritable « cadre de l’IA de frontière ».
Cette politique doit définir notamment :
Avant le déploiement d’un nouveau modèle ou d’une version substantiellement modifiée, le développeur doit également publier un rapport de transparence exposant les risques identifiés, les mesures correctives mises en œuvre et, le cas échéant, le recours à des évaluations indépendantes.
Lorsque certaines informations sensibles doivent être protégées pour des raisons de sécurité ou de secret des affaires, le développeur est tenu d’en expliquer la nature et de conserver l’intégralité des données pour les mettre à disposition des autorités en cas de besoin.
La loi instaure en outre un obligation de signalement rapide des incidents graves. Ainsi, une perte de contrôle d’un modèle entraînant un dommage corporel ou une violation de la sécurité de ses paramètres critiques doit être notifiée sans délai à l’autorité publique compétente.
Le défaut de publication des politiques de gouvernance, de dépôt des rapports ou de signalement des incidents peut entraîner des sanctions civiles importantes, pouvant atteindre un million de dollars par violation.
Au-delà des obligations imposées aux entreprises privées, le législateur californien a confié à l’administration la mission d’étudier la création d’une infrastructure publique de calcul haute performance, baptisée « CalCompute ».
Cet outil vise à favoriser un accès plus équitable aux ressources de calcul, indispensable au développement de l’IA, et à soutenir des projets d’« IA de frontière » à vocation éthique, durable et conforme à l’intérêt général.
La loi renforce par ailleurs la protection des salariés exerçant un rôle d’alerte en matière de sécurité.
Elle interdit toute clause contractuelle ou pratique d’entreprise visant à restreindre ou sanctionner les signalements faits de bonne foi concernant des activités présentant un danger grave pour la santé ou la sécurité publiques.
Les grands développeurs doivent mettre en place un canal interne de signalement anonyme et assurer un suivi régulier des alertes reçues, tout en informant clairement les salariés de leurs droits.
En cas de représailles, les salariés peuvent saisir le juge pour obtenir des mesures d’injonction et le remboursement de leurs frais de justice.
La loi SB-53 californienne illustre une approche novatrice de gouvernance des risques systémiques liés à l’« IA de frontière », complémentaire des règles existantes en matière de protection des données et de transparence algorithmique.
Elle retient l’attention des entreprises et des praticiens européens pour deux raisons majeures :
Bien qu’il s’agisse d’un texte californien, certaines obligations pourraient produire des effets extraterritoriaux pour les développeurs internationaux proposant leurs modèles à des utilisateurs situés en Californie.
Le SB-53 devient ainsi une référence pour les régulateurs du monde entier cherchant à encadrer les risques inhérents aux technologies d’IA les plus puissantes.
En combinant obligation de transparence, maîtrise des risques et protection des salariés lanceurs d’alerte, la loi SB-53 impose un niveau de gouvernance inédit aux développeurs de modèles d’« IA de frontière ».
Elle établit un cadre qui vise à réduire l’écart entre la rapidité de l’innovation et la capacité du droit à prévenir les risques graves pour la collectivité, et préfigure l’émergence de standards internationaux dans le domaine.
Cet article est rédigé par un avocat français et ne constitue pas un avis juridique sur le droit américain. Toute décision ou stratégie impliquant l’application de la loi SB-53 doit être conduite avec l’assistance d’un avocat compétent en droit américain.