L’intérêt des services de police pour la reconnaissance faciale de plus en plus dénoncé

Sécurité : De plus en plus d’experts préviennent que l’utilisation croissante de la technologie par les forces de l’ordre amorce une nouvelle vague de réactions négatives de la part de la société civile.

Les services de police mondiaux cultivent un intérêt croissant pour les algorithmes et les outils de reconnaissance faciale. S’il s’agit de faire respecter la loi, souvent sans supervision ni tests appropriés, il semble que cet intérêt provoque maintenant une nouvelle vague de réactions contre ces technologies.

Invité à s’exprimer devant les législateurs britanniques dans le cadre d’une enquête sur l’utilisation des algorithmes dans le maintien de l’ordre, un panel d’experts du monde entier a relevé que si le déploiement de nouvelles technologies dans les organismes chargés de l’application de la loi est en plein essor, il semble également provoquer une réaction croissante de la part de ceux qui seront les plus touchés par ces outils. « En ce qui concerne certaines technologies, nous avons commencé à voir des critiques et des réactions », explique Elizabeth Jo, professeure de droit à l’Université de Californie.

« Alors que les outils de police prédictive ont été adoptés par de nombreux services de police dans les années 2010 aux Etats-Unis, le retour de bâton commence à se faire ressentir », estime cette dernière. Au début de l’année, le gouvernement local du comté de King, dans l’Etat de Washington, a voté pour interdire à la Police locale d’utiliser la technologie de reconnaissance faciale, généralement utilisée pour retrouver des criminels recherchés en comparant les flux de caméras en direct des visages à une liste de surveillance prédéterminée.

Des technologies diverses et variées

La décision du comté de King a été décrite par les groupes de défense des droits comme le reflet d’un mouvement croissant à travers les Etats-Unis visant à interdire l’utilisation de la technologie de reconnaissance faciale par les forces de police. En Californie, les conseils municipaux d’Oakland, de San Francisco, d’Alameda et de Berkeley ont également adopté des interdictions de reconnaissance faciale, tandis que de nombreuses villes et communes du pays ont mis en œuvre des lois pour réglementer cette technologie. Le Vermont et la Virginie ont même adopté des lois à l’échelle de l’Etat pour interdire ou réglementer l’utilisation de la reconnaissance faciale par la Police.

Reste que la reconnaissance faciale n’est qu’une des nombreuses nouvelles technologies que les forces de l’ordre du monde entier ont adoptées ces dernières années. Des caméras corporelles aux systèmes de reconnaissance automatique des plaques minéralogiques, en passant par la généralisation des caméras de surveillance dans différentes villes du Royaume-Uni ou de l’Hexagone, jusqu’aux algorithmes de dépistage chargés de prédire le risque de récidive des jeunes délinquants en Nouvelle-Zélande, la dernière décennie a vu une explosion de l’utilisation des technologies émergentes dans les services de police.

Pour Elizabeth Jo, l’un des principaux facteurs en jeu est l’influence du secteur privé, qui développe souvent les outils utilisés par les policiers et qui a donc tout intérêt à ce que la technologie soit adoptée. Il y a quelques mois, Axon, l’un des principaux fabricants de produits technologiques destinés aux forces de l’ordre aux Etats-Unis, a annoncé un nouveau programme visant à équiper chaque agent de police du pays d’une caméra corporelle gratuite pour une période d’essai d’un an. La société affirme avoir déjà suscité l’intérêt de centaines de services de police.

Quand il y a un flou…

Seul hic ? Comme il n’y a pratiquement pas de règles en place au niveau national pour contrôler la diffusion de ces outils dans les services de police, explique Elizabeth Jo, une grande partie de l’adoption des nouvelles technologies n’est pas contrôlée. « En tant qu’Américain, je suppose que je dois me fier à la terrible analogie qui consiste à dire que nous sommes le Far West en ce qui concerne ces technologies, ce qui signifie qu’il y a eu une expérimentation pure et simple aux Etats-Unis en ce qui concerne de nombreux types de technologies différentes », relève-t-elle.

« Nous avons assisté à l’adoption de nombreux types de technologies dans tous les Etats-Unis, en quelque sorte au cas par cas. » Si l’essor de ces technologies doit beaucoup au fédéralisme du système américain, la question des technologies policières non supervisées est loin d’être spécifique aux Etats-Unis. Outre-Manche, un rapport récent a mis en évidence des problèmes similaires au sein des forces de police britanniques. Un comité sur les normes dans la vie publique a montré que les nouvelles technologies sont introduites dans les organismes chargés de l’application de la loi avec très peu de surveillance, et souvent sans processus clair pour évaluer, acquérir ou déployer les outils.

Résultat des courses : les algorithmes de la Police sont souvent utilisés avec peu de transparence, à tel point que les citoyens peuvent ne pas savoir qu’une technologie particulière est utilisée contre eux. Pour Rosamunde Elise Van Brakel, criminologue numérique à l’Université Vrije de Bruxelles, le tableau est similaire en Belgique. « En Belgique, la façon dont les marchés publics sont passés n’est pas très claire, il n’y a aucune transparence sur les règles, s’ils doivent respecter certaines étapes dans les marchés publics en ce qui concerne la Police », affirme Rosamunde Elise Van Brakel. « Tout est très flou et il n’y a aucune information publique à trouver sur la façon dont les décisions sont prises. »

Cascade de situations problématiques

Une situation problématique, tant les exemples de mauvaise utilisation de la technologie dans les services de police abondent. Au début de cette année, par exemple, la Police de Détroit, dans le Michigan, a été poursuivie par un homme qui avait été arrêté à tort après qu’un algorithme de reconnaissance faciale l’a pris pour un voleur à l’étalage. Les victimes des algorithmes défectueux de la Police sont susceptibles d’être issues de communautés historiquement discriminées : de multiples études menées par des instituts établis comme le MIT ou Harvard, par exemple, ont démontré que les plateformes de reconnaissance faciale ont particulièrement du mal à distinguer les visages des personnes à la peau foncée.

En 2017 au Royaume-Uni, par exemple, les policiers de Durham ont commencé à utiliser un algorithme appelé Harm Assessment Risk Tool (HART), qui prédisait le risque de récidive pour les individus qui avaient été arrêtés, en se basant sur les données de 104 000 personnes arrêtées dans la ville sur une période de cinq ans. Parmi les données utilisées par Hart figuraient l’âge, le sexe et le code postal des suspects ; et comme les informations géographiques sont susceptibles de refléter les communautés raciales, les décisions prises par HART étaient inévitablement biaisées à l’encontre de ces communautés.

A mesure que ces faux pas se multiplient, l’inquiétude des citoyens grandit. « Ce que nous commençons à voir, ce sont des cas individuels limités où des personnes faisant l’objet de poursuites pénales soulèvent des questions sur une technologie particulière, utilisée contre elles, et tentent de découvrir quelque chose sur la manière dont cette technologie est utilisée », indique Elizabeth Jo.

Des précédents fâcheux

L’année dernière, un citoyen britannique nommé Ed Bridges a gagné un procès contre la Police du sud du Pays de Galles, après s’être plaint d’avoir été filmé sans son consentement par un fourgon de reconnaissance faciale. Le tribunal a estimé que l’utilisation de la reconnaissance faciale en direct violait le droit à la vie privée, les lois sur la protection des données et les lois sur l’égalité, et que des règles plus strictes étaient nécessaires pour gérer le déploiement des technologies de reconnaissance faciale.

L’affaire Bridges a directement conduit à une nouvelle rédaction des règles relatives aux caméras de surveillance dans le pays, qui a été publiée au début de l’année. La législation mise à jour fournit de nouvelles orientations sur l’utilisation de la reconnaissance faciale en direct, notamment sur la base des leçons tirées suite au fiasco de l’affaire Bridges. Pour Rosamunde Elise Van Brakel, cette nouvelle prise de conscience des technologies de surveillance est liée à la pandémie de Covid-19 et à la profusion d’outils numériques que les gouvernements ont développés pour faire face à la crise, allant des applis de recherche de contacts aux passeports vaccinaux.

La pandémie de Covid-19 réveille l’opinion

« Le débat public a vraiment démarré avec la pandémie », relève cette dernière. « Les citoyens se sentent heureux si les technologies sont utilisées de manière ciblée, dans le cadre de la lutte contre le terrorisme ou le crime organisé. Mais maintenant, avec la pandémie, les technologies se concentrent sur l’ensemble de la population, et les gens remettent en question le gouvernement. Et nous constatons qu’il y a une nette perte de confiance dans le gouvernement. »

En France, le gouvernement a testé un logiciel de reconnaissance faciale dans une station de métro à Paris, avec six caméras qui pouvaient identifier les passagers qui n’avaient pas porté de masque. A peine une semaine après le début de l’expérience, la CNIL, l’agence française de protection des données, a mis fin à l’essai, condamnant la nature intrusive de la technologie, et les caméras ont été retirées. Autre signe de changement à venir, la Commission européenne a récemment publié un projet de règlement sur l’utilisation de l’intelligence artificielle, qui prévoit l’interdiction de certaines formes de reconnaissance faciale par les forces de l’ordre.

Reste à savoir s’il est trop optimiste de penser que des règles existeront bientôt pour garder le contrôle sur l’utilisation des algorithmes par les services de police. Les citoyens et les groupes de la société civile font entendre leur voix, et il est peu probable qu’ils se calment.

Source : ZDNet.com

Catégories