Wenige Überwachungsmaßnahmen bedrohen Freiheitsrechte und Demokratie so sehr wie automatische Gesichtserkennung: Sie macht Fehler, sie diskriminiert Frauen und People of Colour und gefährdet die anonyme Teilnahme an Demonstrationen. Das ist gerade in Zeiten des politischen Rechtsrucks gefährlich.

Unsere Forderungen

1.

Ein Verbot automatischer Gesichtserkennung und sonstiger biometrischer Fernerkennung in der Öffentlichkeit. Das gilt sowohl für Systeme zur nachträglichen als auch zur Live-Erkennung.

2.

Ein Verbot der wissenschaftlich höchst umstrittenen Emotionserkennung.

Die Bundesregierung hat sich im Koalitionsvertrag dazu verpflichtet, biometrische Erkennung im öffentlichen Raum zu verbieten. Wir nehmen sie beim Wort und fordern die Bundestagsabgeordneten auf, die im AI Act vorgesehene Möglichkeit zu nutzen und das entsprechende Verbot zu beschließen.

Warum Gesichts­erkennung verbieten?

Gefahr für die Demokratie

Selbst wenn Gesichtserkennung perfekt funktionieren würde: Sie wäre dann in der Lage, ganze Stadtgebiete zu überwachen und die Identität von Zehn- oder Hunderttausenden von Menschen gleichzeitig zu erfassen. Technisch möglich wäre das staatliche Erstellen von Bewegungsprofilen.

Darunter leiden Freiheitsrechte, individuelle Entfaltung und politische Teilhabe. Wer sich im öffentlichen Raum ständig von einer intelligenten Kamera abgescannt und analysiert fühlt, verspürt einen Überwachungsdruck. Selbsteinschränkung und aufgezwungene „Konformität“ ist die Folge. In einer gesunden, pluralistischen Demokratie ist es aber wichtig, dass sich Menschen bei ihrer Meinungsbildung, individuellen Entfaltung und politischen Partizipation nicht beobachtet fühlen.

Missbrauchs­potential

Gesichtserkennung birgt enormes Missbrauchspotential – sowohl für einzelne unberechtigt Handelnde als auch für etwaige zukünftige autoritäre Regierungen. Zivilgesellschaftliches Engagement gegen eine Regierung, die exakt weiß, wer wann wo ist, ist nur schwer denkbar. Es liegt in der historischen Verantwortung Deutschlands, keine Infrastruktur aufzubauen, die es ermöglicht, die gesamte Gesellschaft zu kontrollieren.

Falsch­erkennung

Die Systeme funktionieren mangelhaft. In einem Test am Berliner Bahnhof Südkreuz wurde ca. jeder 200. Mensch fälschlich als gesuchte Person erkannt.[1] In der Praxis würde das an einem Bahnhof wie dem Berliner Südkreuz dazu führen, dass täglich 600 Menschen fälschlich als gefährliche Person erkannt werden. Diese Menschen wären unangenehmen Kontrollen ausgesetzt. Die Polizei wäre von Fehlalarmen überlastet.

Einfache Umgehung

Dreht eine gesuchte Person ihr Gesicht nur um 15 Grad von den Kameras weg, wird sie von den Systemen nicht mehr erkannt.[2] Die Erkennung lässt sich auch durch das teilweise Bedecken des Gesichts, z.B. mit einem Schal oder einer Mütze, vereiteln. Wer eine Straftat plant, kann sich einfach vor Erkennung schützen.

Diskriminierung

Gesichtserkennung diskriminiert Frauen, Kinder und People of Colour. Bei diesen Gruppen liegen die Falscherkennungsraten signifikant höher als bei weißen mitteleuropäischen Männern.[3] Das liegt daran, dass die hiesigen Systeme großteils mit Bildern von weißen, männlichen Gesichtern trainiert werden. Die negativen Folgen treffen also besonders Gruppen, die ohnehin schon Benachteiligungen ausgesetzt sind.

Testimonials

Unterstützende Organisationen