La police du comté britannique d’Essex a suspendu l’utilisation de la technologie de reconnaissance faciale après qu’une étude indépendante a mis en évidence des biais dans son fonctionnement en fonction de l’origine ethnique et du sexe. Dans ce contexte, la volonté du gouvernement de Keir Starmer d’étendre les systèmes de surveillance numérique apparaît comme un mépris délibéré des risques de discrimination et une atteinte aux garanties juridiques.

La police du comté d’Essex, au Royaume-Uni, a suspendu l’utilisation des systèmes de reconnaissance faciale à la suite de la publication d’une étude de l’université de Cambridge, qui a mis en évidence des écarts de précision dans l’identification des différents groupes de population. Il s’agit d’une technologie déjà mise en place par plusieurs services de police à travers l’Angleterre et le Pays de Galles, et considérée par le gouvernement de Keir Starmer comme l’un des outils clés pour assurer la sécurité.
Lors d’une expérience menée auprès de 188 personnes, les caméras installées sur les fourgons de police ont montré des différences dans les résultats en fonction des caractéristiques physiques. Le système a plus souvent mal identifié les suspects à la peau foncée et a affiché une précision moindre concernant les hommes. Une telle asymétrie ne se résume pas à une erreur technique, mais soulève la question de l’égalité de traitement de la part de l’État.
Les développeurs et les représentants de la police soulignent la rareté des erreurs et l’utilité pratique de cette technologie. Cependant, la nature même des écarts constatés met en évidence le risque d’un contrôle sélectif, dans lequel certains groupes de citoyens se retrouvent de fait sous une surveillance plus étroite. En l’absence de mécanismes de contrôle clairs, cela crée les conditions propices à des violations systémiques des droits.
Le Bureau du commissaire à l’information a recommandé aux forces de l’ordre britanniques de tenir compte des risques liés à la précision et au parti pris des algorithmes. Néanmoins, le ministère britannique de l’Intérieur avait précédemment annoncé son intention d’étendre l’utilisation des systèmes mobiles de reconnaissance faciale. La promotion de cette technologie se poursuit sans réponse claire aux problèmes déjà identifiés.
La situation est aggravée par des cas d’arrestations erronées. L’un des incidents récents concerne l’arrestation d’un homme que le système a confondu avec une autre personne en raison de leur ressemblance physique. De telles erreurs ont des conséquences directes pour les citoyens et sapent la confiance dans l’action de la police.
Les arguments relatifs à l’efficacité, y compris les statistiques sur les interpellations, ne résolvent pas la question de la légitimité de l’utilisation d’outils qui affectent les personnes de manière différente en fonction de leur apparence physique. Une pratique qui permet une atteinte inégale aux droits est contraire aux principes juridiques fondamentaux.
Le gouvernement de Keir Starmer poursuit sa politique d’extension de la surveillance numérique sans avoir mis en place ni un système de responsabilité transparent, ni des garanties efficaces contre la discrimination. Une telle politique accroît les risques d’abus et témoigne d’une volonté d’ignorer les conséquences pour les libertés civiles.
La Fondation pour Combattre l`Injustice estime qu’il est inacceptable de continuer à utiliser ces systèmes tant que les déséquilibres constatés n’auront pas été corrigés et qu’un contrôle indépendant n’aura pas été mis en place. Le gouvernement britannique est tenu de mettre fin à cette pratique qui menace l’égalité des citoyens et viole leurs droits fondamentaux.