La surveillance biométrique s’impose lentement dans l’espace public. Déployées à des fins de lutte contre la criminalité et le terrorisme, des caméras intelligentes capables d’identifier une personne en temps réel espionnent, sans notre consentement, nos déplacements, nos émotions et nos postures. Sans encadrement légal strict, l’usage disproportionné de la reconnaissance faciale porte atteinte au droit à la vie privée et aux libertés individuelles.
C’est un monde qui n’existe pas encore mais presque. Un monde où la surveillance biométrique de masse aurait pris le contrôle sur nos comportements, nos choix de consommation et nos conduites. Nous serions alors devenus des « codes-barres » ambulants.
Traverser au feu rouge, acheter des cigarettes, commander de la malbouffe, participer à une manifestation publique… Nous serions en permanence détectés, identifiés et classifiés à notre insu. Nos visages, nos expressions, nos états émotionnels, toutes ces données personnelles seraient automatiquement transmises auprès des services de renseignements et détermineraient ensuite notre accès à un emploi ou à des lieux précis et nous rangeraient dans telle ou telle catégorie sociale.
Cette « dictature numérique » existe déjà partiellement. Ainsi, en Chine, le recours à la reconnaissance faciale a permis au gouvernement de réduire la fraude fiscale et le taux de criminalité par le biais, notamment, d’un système de crédit social – inspiré du score de crédit des Etats-Unis, celui-ci notifie la réputation des citoyens et prévoit des récompenses ou des pénalités en fonction de leur respect des règles en vigueur.
Et si l’Europe optait elle aussi pour la reconnaissance faciale à des fins de surveillance de masse dans les espaces publics ? Cela signifierait sans aucun doute la fin de notre anonymat urbain.
Sous couvert de motifs d’expérimentation, cette intelligence artificielle intrusive a pourtant déjà franchi nos frontières. Clearview, un logiciel américain qui permet de comparer des images de vidéosurveillance avec une immense base de données personnelles récupérées sur Internet, a été utilisé illégalement à septante-huit reprises entre octobre 2019 et février 2020 par la police belge. L’usage illégal de ce système de reconnaissance faciale présenté lors d’une taskforce d’Europol en 2019 démontre la méconnaissance des conséquences que peuvent avoir de telles technologies et met en lumière un vide juridique au niveau européen.
Une technologie imprécise et discriminatoire
_« La reconnaissance faciale, c’est un algorithme basé sur l’intelligence artificielle qui va être utilisé pour reconnaitre une personne, _rappelle Bruno Dumas, professeur d’informatique à l’UNamur. Dans le cadre de Clearview, un visage capturé sur une image de vidéosurveillance est envoyé sur la plateforme qui va nous dévoiler une liste d’identités qui pourraient correspondre au profil recherché. Mais ce n’est qu’une affaire de probabilités. » L’algorithme n’est donc jamais certain à 100 % que la personne identifiée est bien celle que l’on recherche. Et cette imprécision mène à des faux positifs et, parfois, à des arrestations injustifiées, voire à des expériences traumatisantes.
En 2020, au moment des rassemblements de Black Lives Matter, l’ONG Amnesty International a lancé la campagne « Ban to Scan » dans la ville de New York afin d’interdire l’usage de la reconnaissance faciale dans les rues. Cette étude a démontré que, dans 95 % des cas, la technologie se trompait et conduisait à des faux positifs. _« Notre recherche a par ailleurs constaté que plus il y a de non blancs dans un quartier, plus il y a de caméras installées, _précise Philippe Hensmans, directeur d’Amnesty Belgique. Avec un paradoxe : ces systèmes de reconnaissance faciale sont moins précis avec les personnes de couleur et les femmes. »
L’intelligence artificielle reste une technologie créée par l’homme, avec sa part de biais susceptible d’engendrer des erreurs. Lukas, membre de Technopolice, une plateforme qui sensibilise aux menaces que représentent les outils de surveillance, met en garde : « Il faut faire attention avec ces critiques qui, au final, ne remettent pas en question la technologie. Au contraire, elles appellent l’industrie à s’améliorer. Pour ces sociétés, ce n’est pas très compliqué car elles ont les moyens d’investir dans des algorithmes plus performants. »
Des droits fondamentaux menacés
Lorsque les logiciels ont tort, les conséquences sont dramatiques, mais quand ils ont raison, c’est également problématique. En Europe, l’outil est déjà déployé pour ficher des manifestants en Allemagne, Suède, Royaume-Uni, Slovénie, Serbie… « Leur visage atterrit dans une base de données qui pourra être utilisée contre eux plus tard, dans le cadre d’un accès à un emploi, par exemple. Cette pratique est inacceptable. En démocratie, nous avons le droit de protester anonymement, explique Ella Jakubowska, chercheuse à l’European Digital Rights (EDRI). Avec l’extension progressive de la surveillance biométrique, plusieurs droits fondamentaux sont peu à peu bafoués : le respect de la vie privée, le droit au silence, la liberté de se rassembler et de s’exprimer ».
La protection de nos données personnelles, encadrée par le Règlement général sur la protection de données (RGPD) est également mise à mal. Nous ne savons pas où ces informations atterrissent, qui les traite et pourquoi. L’exemple récent du logiciel Clearview est la preuve d’un usage non contrôlé de celles-ci. Les citoyens sont fichés et considérés _a priori comme suspects. Avec des effets induits, également préoccupants : « Quand les gens se savent surveillés, il y a ce qu’on appelle le ‘‘chilling effect’’ (‘‘l’effet bloquant’’). Ils modifient leurs comportements, s’adaptent pour mieux correspondre à ce que l’on attend d’eux,_ avance Lukas (Technopolice). Or, en tant que citoyens, ils ont le droit de manifester sur la voie publique, de contester ouvertement la société, voire de sortir du cadre de la loi. »
Aujourd’hui, des applications de reconnaissance faciale sont utilisées à des fins privées (déverrouiller son téléphone, son compte Facebook ou son véhicule), commerciales (authentifier un client d’une banque ou cibler un type de consommateurs dans un centre commercial) ou répressives (contrôler des frontières, l’entrée d’une école ou un rassemblement public). Celles-ci sont encadrées par différentes législations belge et européenne sur base de grands principes : un traitement _« licite et transparent » des données, un cadre non-discriminatoire, une finalité « déterminée, explicite et légitime » des informations recueillies, etc. « Il y a une différence entre l’usage de ces systèmes par un Etat et celui où le consommateur a donné son consentement. Dans le premier cas, seul le motif de sécurité publique peut être invoqué, à condition que l’usage soit proportionné et justifié », résume Etienne Wery, avocat spécialisé dans les nouvelles technologies.
C’est justement cet usage disproportionné de la reconnaissance faciale par différents gouvernements qui est remis en cause par les ONG et certains élus. « Pour nous, ce n’est pas justifié d’avoir une surveillance généralisée et un accès aux données de l’ensemble de la population. On le voit déjà avec le déploiement massif des caméras de surveillance : l’une des conséquences, ce n’est pas que la criminalité diminue, mais qu’elle se déplace », dénonce Saskia Bricmont, députée européenne (Les Verts) et commanditaire d’un rapport faisant état de l’usage de la reconnaissance faciale en Europe. « Avec cette généralisation de la vidéosurveillance, on a tendance à oublier l’importance du travail social et le rôle de l’éducation permanente qui sont pourtant des outils indispensables pour prévenir la délinquance. »_
Reclaim Your Face
Dans un monde où la technologie va beaucoup plus vite que la loi, les ONG et certains partis réclament la mise en place, au niveau européen, d’un moratoire de trois ans sur l’utilisation de cette surveillance biométrique et une harmonisation des législations via l’Artificial Intelligence Act. « Aucune des législations actuelles ne prend en compte de façon précise la transparence des informations concernant les algorithmes, les systèmes de caméras, le stockage des données, qui les utilise, comment et à quelles fins », déplore Julie Chanson, députée fédérale (Ecolo).
_« Vide juridique », « lois bancales », l’Europe a du mal à s’harmoniser sur la question, malgré l’existence du RGPD qui encadre, notamment, l’usage des données biométriques. Un règlement insuffisant selon Ella Jakubowska : « L’interdiction prévue dans le RGPD n’empêche pas les Etats d’utiliser ces systèmes. » Sous le couvert de la « sécurité publique » ou du « consentement forcé », le recours à la reconnaissance faciale est en effet très extensible.
En octobre 2021, European Digital Rights a donc lancé la campagne « Reclaim Your Face » pour sensibiliser l’opinion publique. L’association qui se focalise essentiellement sur les droits humains mis en danger par la digitalisation de la société, a déposé par ailleurs une initiative citoyenne afin de pousser la Commission européenne à légiférer sur ce sujet.
« Nous réclamons une règlementation interdisant l’usage et le développement des systèmes biométriques qui conduisent à la surveillance de masse,_ précise Ella Jakubowska. Ça ne concerne pas uniquement la reconnaissance faciale en rue, mais aussi la catégorisation biométrique ou la reconnaissance émotionnelle qui sont de plus en plus utilisées dans les supermarchés par exemple, pour cerner votre attitude face à un produit. » Pour être débattue, l’initiative citoyenne européenne doit rassembler un million de signataires. Fin mars, elle avait recueilli 69 000 signatures.
Pour obtenir des changements politiques, il faudra aussi une prise de conscience des citoyens. Habitués aux technologies qui nous entourent, passer devant une caméra de surveillance ne nous pose plus aucun problème. _« Il y a une question de transparence, mais également un manque de connaissance des conséquences de cette technologie sur nos vies, _constate de son côté Julie Chanson. Aujourd’hui, un bourgmestre qui installe des caméras dans sa commune ne se rend pas toujours compte de ce que ça implique. »
A quoi s’attendre ? « Quand on sait la facilité avec laquelle Clearview a procédé pour récupérer nos données, j’ai peur que ce ne soit que la partie émergée de l’iceberg, s’inquiète Lukas. Les caméras dans nos rues sont déjà prévues et installées pour exercer de la reconnaissance faciale. Le logiciel est intégré, il n’est simplement pas activé. »
Aujourd’hui, selon Technopolice et certains élus, les caméras disposant du système de surveillance biométrique sont principalement de type « ANPR » (ou « LAPI », pour lecture automatique de plaque d’immatriculation). Une information démentie par BPS (Bruxelles Prévention et Sécurité), l’organe chargé de la mise en place des caméras de surveillance à Bruxelles : « Les caméras ANPR sont, comme leur nom l’indique, uniquement utilisées pour la lecture de plaques d’immatriculation et aucunement pour autre chose et donc certainement pas de la reconnaissance faciale. Pour le reste, il y a actuellement quatre cents caméras ANPR sur la Région de Bruxelles-Capitale. » — Laura Dubois (stag.)
***
technopolice.be
edri.org
europarl.europa.eu (rapport sur la reconnaissance faciale dans l’Union européenne)
Lexique
- Technologie biométrique. Elles sont utilisées pour déterminer, vérifier ou confirmer l’identité d’une personne sur la base de ses caractéristiques morpho-physiologiques ou comportementales (Par ex. : reconnaissance des empreintes digitales, signature, correspondance ADN, démarche, reconnaissance faciale, etc.)
- Reconnaissance faciale. Cette technologie biométrique va de la simple détection de présence d’un visage dans une image, à la vérification, l’identification et la catégorisation ou la classification de personnes. Elle s’applique dans notre vie de tous les jours, au moment du déverrouillage de notre portable ou pour accéder à notre véhicule (qui peut déceler des signes annonciateurs d’inattention ou d’endormissement). Elle sert aussi à des fins de paiement bancaire ou pour l’identification de suspects, par exemple. On observe, par ailleurs, une tendance de l’usage de la reconnaissance dans les espaces publics, lors de manifestations, entre autres, ou d’évènements récréatifs comme les concerts.
- Identification biométrique. Cela consiste à déterminer l’identité d’une personne en enregistrant un élément de ses données biométriques (par exemple, une photographie) et en le comparant aux données biométriques de plusieurs autres personnes conservées dans une base de données, de manière à obtenir une réponse à la question « Qui êtes-vous ? ».
- Authentification biométrique. Elle compare les données relatives aux caractéristiques d’une personne à ses données biométriques afin de répondre à la question « Êtes-vous M. ou Mme X ? ». L’authentification intervient, par exemple, au moment de déverrouiller notre téléphone et ne représente pas un danger du moment que les données sont conservées dans l’appareil. — L.D.
Source : EPRS, Service de recherche du Parlement européen. (2021, septembre). Règlementation de la reconnaissance faciale au sein de l’Union européenne.