« Les expérimentations servent à imposer insidieusement l’usage de cette technologie »
Pourquoi vous opposez-vous à la reconnaissance faciale ?
Cette technique déshumanisante fait de notre visage un objet servant à nous identifier partout. La CNILdemande depuis 2018 un débat national sur le sujet… en vain. Les expérimentations qui ont cours servent en réalité à en imposer insidieusement l’usage, sans l’accord de la population. De même, l’utilisation de la reconnaissance faciale à des fins ludiques, pour débloquer son portable ou encore dans le cadre d’Alicem, n’a qu’un objectif : habituer les gens à cette technologie. Dans le fond, leur intérêt réel est moindre.
Comment s’opposer à ces technologies si la population y consent ?
La question du consentement est majeure. Mais comment le recueillir quand ces technologies sont utilisées de manière large dans l’espace public ? Déjà, on constate qu’il est très rare de savoir quand commence et s’arrête précisément une zone vidéo-surveillée. Je comprends le besoin de sécurité, mais les caméras et la reconnaissance faciale ne garantissent pas la sécurité. Pire, cette dernière n’est pas fiable pour reconnaître d’éventuels malfaiteurs. La solution réside plutôt dans une présence humaine plus forte sur le terrain.
Comment vous opposez-vous aux expérimentations ?
Nous tentons tout d’abord de rester informés des projets d’installation, parfois réalisés en catimini. Puis nous nous appuyons sur la législation européenne – RGPD et directive « police-justice » – selon laquelle les données biométriques ne peuvent être utilisées que si il n’y a pas d’autres moyens. Cela nous a permis de faire arrêter l’expérimentation de la reconnaissance faciale dans deux lycées marseillais récemment. Mais les expérimentations sont de plus en plus nombreuses, et les Jeux olympiques de 2024 qui auront lieu en France font pression.
A Cannes et à Châtelet, un algorithme pour surveiller le port du masque.
En effet, le comité international des JO demande que le système de sécurité du pays accueillant soit au moins aussi performant que le précédent. Or le Japon, qui organise les prochains Jeux, utilisera très vraisemblablement la reconnaissance faciale… Nous sommes également vigilants aux algorithmes de reconnaissance d’émotions, testés dans certains transports en commun cannois, et utilisés à Marseille pour détecter des événements anormaux. Cette technologie pose problème pour les personnes autistes ou souffrant de tics, parfois agitées. N’entrant pas dans le cadre de l’algorithme, elles peuvent être identifiées comme ayant des « comportements suspects », et voir arriver une patrouille.
La crise du Covid a-t-elle donné lieu à des usages spécifiques de la reconnaissance faciale ?
La ville de Cannes et la station de métro parisienne Châtelet ont utilisé des logiciels pour vérifier automatiquement le port du masque. Des entreprises ont également installé des caméras thermiques pour surveiller la température des salariés. Ces usages ne sont pas à strictement parler de la reconnaissance faciale, mais ils manient les données biométriques du visage qui peuvent ensuite servir à identifier quelqu’un. De même, la préfecture de police de Paris a utilisé pendant le confinement des drones pour surveiller les regroupements, en enregistrant les images. Nous nous sommes opposés à cette pratique devant le Conseil d’Etat, et le juge a finalement interdit l’usage de ces drones au motif que l’on pouvait identifier les personnes à partir des images transmises.