La loi californienne SB-243, adoptée en 2024 et applicable à compter du 1er juillet 2026, établit le premier cadre juridique au monde spécifiquement consacré aux companion chatbots, des systèmes d’intelligence artificielle conçus pour simuler une relation émotionnelle, personnelle ou intime avec leurs utilisateurs.
Ces systèmes, capables d’exprimer ou de reproduire des émotions et de construire des interactions continues, se distinguent des simples chatbots fonctionnels. Par cette distinction, la Californie reconnaît que certaines IA peuvent influencer l’affect, le comportement et la vulnérabilité psychologique des utilisateurs, et qu’elles appellent de nouvelles garanties juridiques et éthiques.
La nouvelle réglementation impose aux concepteurs et fournisseurs de companion chatbots des obligations de transparence et de protection renforcées. L’utilisateur doit être informé dès le début de l’interaction qu’il s’adresse à une machine. Le système doit être conçu de manière à prévenir toute manipulation, dépendance ou détresse émotionnelle, et à protéger les données personnelles et affectives.
Une vigilance particulière est requise à l’égard des mineurs, avec la mise en œuvre de mesures d’âge appropriées et l’interdiction de contenus sexualisés ou inappropriés. Ces exigences consacrent un principe de « sécurité psychologique dès la conception », analogue à l’ethics-by-design du droit européen (AI Act et RGPD).
La California Department of Technology est chargée d’assurer l’application du dispositif, d’édicter des lignes directrices et de contrôler la conformité des systèmes. Des sanctions civiles et mesures correctrices pourront être prononcées en cas de manquement.
Ce mécanisme s’articule avec les lois californiennes de protection des consommateurs et des données personnelles (CCPA et CPRA), tout en étendant leur logique à l’intelligence artificielle émotionnelle.
Face à l’Union européenne, qui privilégie une régulation par les risques et la conformité technique, et à la Chine, centrée sur le contrôle des contenus et de la stabilité sociale, la Californie adopte une voie originale : celle de la protection du bien-être émotionnel et de l’autonomie individuelle.
En reconnaissant juridiquement les systèmes simulant l’affection, l’intimité ou l’empathie, elle ouvre la voie à une nouvelle branche du droit de l’intelligence artificielle : la régulation de l’intelligence émotionnelle artificielle.
Cette innovation pourrait rapidement influencer les standards internationaux, incitant les acteurs mondiaux à renforcer la transparence, la supervision humaine et la modération des contenus.
Texte officiel disponible ici : California Senate Bill No. 243 – Companion Chatbots
Cette analyse est rédigée par un avocat de droit français à des fins d’information générale. Elle ne constitue pas un avis juridique au regard du droit américain ou californien. Pour toute consultation sur ces législations, il convient de s’adresser à un avocat habilité en Californie.