top of page

[VIDEOSURVEILLANCE ALGORITHMIQUE – JO 2024]

Dernière mise à jour : 5 mai 2024

[TECHNOLOGIES DE RECONNAISSANCE FACIALE, POSTURALE ET COMPORTEMENTALE – JO 2024 - VIE PRIVEE - LIBERTE INDIVIDUELLE - DISCRIMINATION]


🚨L’expérimentation des caméras de vidéosurveillance algorithmique a été votée et autorisée en France.


(Article 7 de la Loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 (« Loi n° 2023-380 »))


Certes, ces technologies offrent des avantages en matière de sécurité des individus et de l’ordre public. Cependant, elles risquent d'engendrer des problématiques liées à l’éthique, ainsi qu’à la protection des libertés individuelles et de respect de la vie privée.


⚖️ Les possibilités de reconnaissance facile et du recoupement avec des fichiers ont été écartés.


Les textes de la Loi n° 2023-380 prévoient que les images obtenues auront « pour unique objet de détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler ».


Les huit catégories d’évènements suivantes sont susceptibles de faire l’objet de détection par la vidéosurveillance automatisée par des algorithmes:


- Le non-respect du sens de circulation ;

- Le franchissement d’une zone interdite ;

- La présence ou l’utilisation d’une arme ou un départ de feu ;

- Un mouvement de foule ;

- Une personne au sol ; et

- Une densité trop importante ou un colis abandonné ;


sous réserve d’un arrêté préfectoral précisant la temporalité, la localisation et les motifs.


⚖️Certains craignent des biais statistiques, techniques ou de procédés susceptibles d’engendrer des discriminations injustifiées, soit « un traitement différencié appliqué à des personnes sur la base de critères injustifiés ». D’autres mettent en exergue les risques d’erreurs de construction humaine des algorithmes sur la base des données sélectionnées par une personne humaine, ou d’interprétation non-humaines pouvant préjudicier l’Homme.  

En réponse à cette crainte, le Comité national pilote d’éthique du numérique (« CNPEN ») propose, parmi d’autres, une utilisation avec précaution et discernement. Par ailleurs, il est suggéré que les systèmes, dès leur installation, portent « mention explicite de la présence potentielle de biais, en particulier à destination des opérateurs » (avis n°8 adopté le 20 novembre 2023, recommandations 5.4.1).   


⚠ Le dispositif expérimental fera l’objet d’une évaluation. Une décision sur sa pérennisation sera prise en tenant compte du respect de la vie privée et de son efficacité dans la prévention des troubles à l’ordre public.


Le 3 et 5 mars 2024, six caméras de vidéosurveillance algorithmique équipées du logiciel de la société Wintics ont fait l’objet d’un test de calibrage lors des concerts de Depeche Mode.


 
 
 

Comments


Mentions légales

© 2024 par Habbine Estelle KIM

bottom of page