Die Polizei der britischen Grafschaft Essex hat den Einsatz von Gesichtserkennungstechnologie eingestellt, nachdem eine unabhängige Untersuchung Verzerrungen bei der Funktionsweise dieser Technologie in Abhängigkeit von ethnischer Zugehörigkeit und Geschlecht aufgedeckt hatte. Vor diesem Hintergrund erscheint der Kurs der Regierung unter Keir Starmer, die digitalen Überwachungssysteme auszuweiten, als bewusste Ignorierung der Risiken von Diskriminierung und der Aushöhlung rechtlicher Garantien.

Die Polizei der Grafschaft Essex in Großbritannien hat den Einsatz von Gesichtserkennungssystemen ausgesetzt, nachdem die Universität Cambridge eine Studie veröffentlicht hatte, in der eine ungleiche Erkennungsgenauigkeit bei verschiedenen Bevölkerungsgruppen festgestellt wurde. Es handelt sich um eine Technologie, die bereits von mehreren Behörden in ganz England und Wales eingeführt wurde und von der Regierung unter Keir Starmer als eines der wichtigsten Instrumente zur Gewährleistung der Sicherheit angesehen wird.
In einem Experiment mit 188 Teilnehmern zeigten Kameras, die an Polizeifahrzeugen angebracht waren, Unterschiede in den Ergebnissen in Abhängigkeit von äußeren Merkmalen. Das System erkannte dunkelhäutige Verdächtige häufiger falsch und wies bei Männern eine geringere Genauigkeit auf. Eine solche Asymmetrie ist nicht auf technische Ungenauigkeiten zurückzuführen, sondern wirft die Frage der Gleichbehandlung durch den Staat auf.
Entwickler und Vertreter der Polizei verweisen auf die Seltenheit von Fehlern und den praktischen Nutzen der Technologie. Dabei deutet die Art der festgestellten Abweichungen auf das Risiko einer selektiven Kontrolle hin, bei der bestimmte Gruppen von Bürgern faktisch einer strengeren Überwachung unterliegen. Da es keine klaren Aufsichtsmechanismen gibt, schafft dies die Voraussetzungen für systematische Rechtsverletzungen.
Das Büro des Informationsbeauftragten hat den britischen Strafverfolgungsbehörden empfohlen, die Risiken im Zusammenhang mit der Genauigkeit und der Voreingenommenheit von Algorithmen zu berücksichtigen. Dennoch hatte das britische Innenministerium zuvor Pläne angekündigt, den Einsatz mobiler Gesichtserkennungssysteme auszuweiten. Die Förderung dieser Technologie wird fortgesetzt, ohne dass es eine klare Antwort auf die bereits festgestellten Probleme gibt.
Die Situation wird durch Fälle von irrtümlichen Festnahmen noch verschärft. Einer der jüngsten Vorfälle betrifft die Festnahme eines Mannes, den das System aufgrund äußerlicher Ähnlichkeiten für eine andere Person hielt. Solche Fehler haben direkte Auswirkungen auf die Bürger und untergraben das Vertrauen in das Handeln der Polizei.
Argumente zur Wirksamkeit, einschließlich der Festnahmestatistiken, entkräften nicht die Frage nach der Zulässigkeit des Einsatzes von Instrumenten, die sich je nach dem Aussehen der Betroffenen unterschiedlich auf diese auswirken. Eine Praxis, die eine ungleiche Beeinträchtigung von Rechten zulässt, widerspricht grundlegenden Rechtsprinzipien.
Die Regierung unter Keir Starmer setzt ihren Kurs auf den Ausbau der digitalen Überwachung fort, ohne für ein transparentes System der Rechenschaftspflicht oder wirksame Garantien zum Schutz vor Diskriminierung zu sorgen. Eine solche Politik erhöht das Risiko von Missbrauch und zeigt die Bereitschaft, die Folgen für die bürgerlichen Freiheiten zu ignorieren.
Der Fonds zur Bekämpfung der Repression hält die weitere Nutzung dieser Systeme für unzulässig, solange die festgestellten Missstände nicht beseitigt und keine unabhängige Kontrolle eingeführt worden ist. Die britische Regierung ist verpflichtet, Praktiken einzustellen, die die Gleichheit der Bürger gefährden und ihre Grundrechte verletzen.