


Par une décision du 30 janvier 2026, le Conseil d’État apporte une clarification majeure sur les limites juridiques de l’usage de traitements algorithmiques appliqués à la vidéoprotection par les collectivités territoriales. Saisi par la Ville de Nice, le juge administratif valide la position de la CNIL et rappelle qu’en l’absence de fondement légal explicite, un dispositif d’analyse automatisée des images issues de la vidéosurveillance ne peut être mis en œuvre, même lorsqu’il poursuit un objectif de sécurité publique.
Conseil d’État, 30 janvier 2026, Commune de Nice, n° 506370 - disponible sur Légifrance
À la suite d’un contrôle effectué en avril 2023, la CNIL avait mis en demeure la commune de Nice de produire une analyse d’impact relative à plusieurs traitements algorithmiques appliqués à des images de vidéoprotection, dont un dispositif dénommé « zone d’intrusion – entrées des écoles ».
Ce traitement visait à :
Par une délibération du 15 mai 2025, la CNIL a estimé que ce dispositif ne pouvait être légalement mis en œuvre en l’état du droit, faute de base légale suffisante. La commune de Nice a alors saisi le Conseil d’État d’un recours pour excès de pouvoir.
Le Conseil d’État écarte tout d’abord les moyens tirés :
Il relève que la délibération contestée a été adoptée dans le respect des règles de quorum et de majorité, et qu’elle exposait de manière circonstanciée les motifs de droit et de fait justifiant la position de la CNIL.
Sur le fond, la décision est particulièrement claire.
Le Conseil d’État rappelle que :
Le traitement litigieux ne se limitait pas à une simple captation d’images, mais reposait sur :
Or, une telle finalité ne dispose à ce jour d’aucun fondement législatif explicite, ce qui suffit à justifier son illégalité.
La commune soutenait que le dispositif ne constituait pas un système d’intelligence artificielle « à haut risque » au sens du règlement européen sur l’IA (règlement UE 2024/1689).
Le Conseil d’État écarte cet argument :
même à supposer que le système ne relève pas de la catégorie des IA à haut risque, cela ne saurait pallier l’absence de base légale nationale autorisant un tel traitement.
La décision rappelle ainsi que :
Cette décision revêt une portée importante :
En pratique, cette décision ferme la porte à toute généralisation locale de dispositifs de vidéoprotection algorithmique sans intervention préalable du législateur.

