Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
30/1/26

Vidéosurveillance algorithmique et pouvoirs des collectivités : le Conseil d’État confirme le refus opposé à la Ville de Nice

Par une décision du 30 janvier 2026, le Conseil d’État apporte une clarification majeure sur les limites juridiques de l’usage de traitements algorithmiques appliqués à la vidéoprotection par les collectivités territoriales. Saisi par la Ville de Nice, le juge administratif valide la position de la CNIL et rappelle qu’en l’absence de fondement légal explicite, un dispositif d’analyse automatisée des images issues de la vidéosurveillance ne peut être mis en œuvre, même lorsqu’il poursuit un objectif de sécurité publique.

Conseil d’État, 30 janvier 2026, Commune de Nice, n° 506370 - disponible sur Légifrance

1. Contexte : un dispositif algorithmique de surveillance des abords d’écoles

À la suite d’un contrôle effectué en avril 2023, la CNIL avait mis en demeure la commune de Nice de produire une analyse d’impact relative à plusieurs traitements algorithmiques appliqués à des images de vidéoprotection, dont un dispositif dénommé « zone d’intrusion – entrées des écoles ».

Ce traitement visait à :

  • analyser automatiquement les images issues de caméras implantées sur la voie publique ;
  • détecter en temps réel la présence de véhicules stationnés devant les établissements scolaires ;
  • alerter les services de police municipale afin de prévenir les risques pour la sécurité.

Par une délibération du 15 mai 2025, la CNIL a estimé que ce dispositif ne pouvait être légalement mis en œuvre en l’état du droit, faute de base légale suffisante. La commune de Nice a alors saisi le Conseil d’État d’un recours pour excès de pouvoir.

2. Validation de la procédure suivie par la CNIL

Le Conseil d’État écarte tout d’abord les moyens tirés :

  • d’un vice de procédure,
  • d’une irrégularité dans la composition ou le fonctionnement de la CNIL,
  • ou d’une insuffisance de motivation.

Il relève que la délibération contestée a été adoptée dans le respect des règles de quorum et de majorité, et qu’elle exposait de manière circonstanciée les motifs de droit et de fait justifiant la position de la CNIL.

3. L’absence de base légale pour un traitement algorithmique automatisé

Sur le fond, la décision est particulièrement claire.

Le Conseil d’État rappelle que :

  • les articles L. 251-1 et suivants du Code de la sécurité intérieure autorisent la mise en œuvre de dispositifs de vidéoprotection ;
  • mais qu’ils n’autorisent pas, en l’état du droit, la mise en œuvre de traitements algorithmiques automatisés analysant les images captées.

Le traitement litigieux ne se limitait pas à une simple captation d’images, mais reposait sur :

  • une analyse automatisée et continue,
  • un traitement algorithmique de détection,
  • un mécanisme d’alerte déclenché sans intervention humaine.

Or, une telle finalité ne dispose à ce jour d’aucun fondement législatif explicite, ce qui suffit à justifier son illégalité.

4. Une décision indépendante de la qualification au titre de l’AI Act

La commune soutenait que le dispositif ne constituait pas un système d’intelligence artificielle « à haut risque » au sens du règlement européen sur l’IA (règlement UE 2024/1689).

Le Conseil d’État écarte cet argument :

même à supposer que le système ne relève pas de la catégorie des IA à haut risque, cela ne saurait pallier l’absence de base légale nationale autorisant un tel traitement.

La décision rappelle ainsi que :

  • le respect du RGPD,
  • l’existence de garanties techniques,
  • ou la qualification au regard de l’AI Act
    ne sauraient, à eux seuls, fonder la légalité d’un traitement algorithmique en matière de surveillance de l’espace public.

5. Portée et enseignements de la décision

Cette décision revêt une portée importante :

  • elle confirme une lecture stricte des compétences des collectivités territoriales en matière de vidéoprotection ;
  • elle consacre l’exigence d’un fondement législatif clair pour tout dispositif algorithmique de surveillance ;
  • elle renforce le rôle de la CNIL comme autorité de régulation des usages de l’IA dans l’espace public ;
  • elle anticipe les débats à venir sur l’articulation entre droit national, RGPD et AI Act.

En pratique, cette décision ferme la porte à toute généralisation locale de dispositifs de vidéoprotection algorithmique sans intervention préalable du législateur.

Vincent FAUCHOUX
Image par Jan van der Wolf via Pexels
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.