Non aux algorithmes !
Dans un arrêt du 30 janvier, le Conseil d’État a jugé que le traitement algorithmique des images issues des caméras de vidéosurveillance installées à l’entrée des écoles par la commune de Nice n’est pas autorisé par la loi actuelle. Bien que la vidéosurveillance sur la voie publique soit permise, le code de la sécurité intérieure n’autorise pas l’analyse systématique et automatisée des images via algorithmes.
En mai 2025, la Cnil a émis un avis défavorable sur le projet de Nice, qui visait à traiter algorithmiquement les flux vidéo aux abords des écoles pendant leurs horaires d’ouverture. La commune a contesté cet avis en saisissant le Conseil d’État pour en obtenir l’annulation.
Le dispositif en cause détecte en temps réel et en continu les véhicules stationnant irrégulièrement devant les écoles, afin d’alerter la police municipale. Il s’agit d’un traitement de données personnelles reposant sur une analyse automatisée des images.
Dans son arrêt, le Conseil d’État précise que l’article L. 251-2 du code de la sécurité intérieure autorise la vidéosurveillance des voies publiques, mais reste silencieux sur l’usage d’algorithmes pour une analyse systématique des images collectées dans ces espaces. Aucun autre texte législatif ne couvre une telle pratique.
Par conséquent, la Haute juridiction confirme la position de la Cnil, estimant qu’elle n’a commis aucune erreur de droit, et rejette le recours de Nice.
Cette décision souligne les limites actuelles du cadre légal face à l’essor des technologies d’IA en matière de sécurité publique. Elle invite à une évolution législative pour encadrer explicitement de tels outils, tout en protégeant les libertés fondamentales.
Photo d’illustration © Getty Images


