Biometrische Gesichtserkennung im öffentlichen Raum verspricht spektakuläre Fahndungsergebnisse. Noch schlägt sie zu häufig Alarm.

Supercomputer werten in Echtzeit die Live-Videos aus Hunderttausenden Kameras aus. Die Kameras sind überall. Man sieht sie an Straßen und Kreuzungen, an privaten Gebäuden, Verwaltungen, Schulen und Bahnhöfen. Die Idee: eine Komplettüberwachung des öffentlichen Raums und die Identifizierung gesuchter Personen. Zu diesem Zweck gleichen die Rechner durch Gesichtserkennung die in ihren Systemen hinterlegten Fotos mit den Echtzeitaufnahmen ab. Sobald ein Treffer vorliegt, kann die Polizei einschreiten. So funktioniert das derzeit in China aufgebaute Überwachungssystem.

Die Gesichtserkennung ist einer ihrer wichtigsten Bausteine, dazu kommt die digitale Sozialkontrolle mit einem Punktesystem. Die Gesichtserkennung scheint zu funktionieren, es gibt ungezählte Erfolgsmeldungen der Behörden. Die spektakulärste war im April 2017 die Verhaftung eines Mannes inmitten eines Konzerts mit 50.000 Menschen im südostchinesischen Nanchang. Als die Polizei den Verdächtigen aus der Menge zog, war er „bleich und schockiert“. Er wäre niemals zu dem Konzert gegangen, wenn er gewusst hätte, dass die Polizei ihn so einfach identifizieren könne, sagte er.

Das Gleiche hätte ihm jedoch auch in der westlichen Welt passieren können. Im Mai 2018 gab Taylor Swift im kalifornischen Pasadena ein Konzert im Rose-Bowl-Stadion das 90.000 Plätze hat. Kameras erfassten die Gesichter aller Konzertbesucher und glichen sie mit einer Datenbank ab, in der Stalker der Sängerin gespeichert sind. In den Vereinigten Staaten ist die Maßnahme legal, Konzerte sind private Veranstaltungen. Ohnehin werden bei Konzerten und Sportveranstaltungen immer öfter Kameras installiert, um die Besucher zu filmen, zu identifizieren und deren Daten über Musikgeschmack und Freundeskreise mit anderen Informationen zu verknüpfen.

Wenn in Deutschland ein privater Veranstalter Konzertbesucher filmen wollte, müsste er zuvor die Einwilligung aller Betroffenen einholen. Doch die Strafverfolgungsbehörden, Polizei und Kriminalämter setzen natürlich schon lange Gesichtserkennungssysteme zur Identifizierung von Straftätern ein, in den deutschen Datenbanken befinden sich angeblich Bilder von 3,5 Millionen bekannten Personen. In einem spektakulären einjährigen Feldversuch am Berliner Bahnhof Südkreuz wurde die Gesichtserkennung in der Öffentlichkeit getestet. Vom August 2017 an wurden drei verschiedene biometrische Erkennungssysteme geprüft. An dem Versuch nahmen im ersten Halbjahr 312 und im zweiten Halbjahr 201 Pendler freiwillig teil. Sie wurden vorab fotografiert, trugen einen Sender bei sich, und die Software musste die Anwesenheit der Testpersonen melden. In der ersten Testphase erreichten die drei Systeme zusammen eine durchschnittliche Trefferrate von 68 Prozent, in der zweiten stieg sie auf 82 Prozent, weil zusätzlich bis zu fünf Fotos pro Pendler in die Fahndungsliste eingespeist wurden.

Deutsche Überwachungstechnik nicht ausgereift

Nicht nur, dass die Trefferrate gering blieb, auch das zweite biometrische Problem, dass jemand unverdächtig ist und fälschlich als verdächtig klassifiziert wird, blieb in diesem Versuch ungelöst. Die Falschakzeptanzrate lag in der ersten Testphase bei 0,67 Prozent, in der zweiten bei 0,34 Prozent. Das bedeutet: Wird der Bahnhof täglich von 100.000 Menschen besucht, schlägt das System bei 340 bis 670 Personen Alarm, obwohl diese unverdächtig sind.

Damit ist die in Deutschland erprobte Technik wohl noch nicht so weit wie die chinesische. Das Bundesinnenministerium wertete indes das Pilotprojekt als Erfolg. Das grundsätzliche Problem besteht darin, dass die Suche nach etwas Seltenem, etwa einem Terroristen, selbst mit zuverlässiger Technik dazu führt, dass mehr als 99 Prozent aller Alarme Fehlalarme sind. Wohl auch deswegen dreht sich der Einsatz von Gesichtserkennung in eine andere Richtung. Während im Südkreuz-Experiment die Daten von Unbeteiligten sofort wieder gelöscht wurden, wird nun mit der fortwährenden dauerhaften Speicherung von „Gesichtsabdrücken“ experimentiert.

Zum Beispiel hat die Hamburger Polizei rund 32.000 Video- und Bilddateien automatisch auswerten lassen, um Straftaten im Zusammenhang mit dem G-20-Gipfel im Juli 2017 aufzuklären. Das Material stammt aus verschiedenen Quellen: Polizeikameras, Überwachungsaufnahmen aus S-Bahnen und Handyvideos, die Bürger über ein Hinweisportal hochluden. Der Umfang der Daten liegt bei rund 100 Terabyte, und wie der Hamburger Datenschutzbeauftragte Johannes Caspar erklärt, werden daraus „Gesichtstemplates“ erstellt, Gesichts-ID, mit deren Hilfe es möglich sei, „Bewegungen, das Verhalten und die sozialen Kontakte einer Person über mehrere Tage im überwachten Bereich in Hamburg zu verfolgen.“ So lasse sich rekonstruieren, an welchen Veranstaltungen jemand teilgenommen habe, welche Läden und Restaurants er besucht habe. Man könne im Nachhinein ein lückenloses Bewegungsprofil über einen längeren Zeitraum erzeugen, Aufnahmen von Unbeteiligten werden über lange Zeiträume gespeichert.

Gerichtsstreit um Verwendung erhobener Daten

Caspar bestreitet, dass die Ermächtigung der Polizei zur Videoüberwachung auch bedeute, dass die Polizei eine biometrische Verarbeitung der erhobenen Daten vornehmen dürfe. Im Dezember ordnete er an, dass die Polizei die biometrische Referenzdatenbank mit den Gesichtsabdrücken löschen müsse. Hamburgs Innensenator widersetzte sich, nun landet der Sachverhalt vor Gericht. Mit der Neufassung des Personalausweisgesetzes im Juli 2017 wurden jedoch die Personalausweis- und Passbehörden in Deutschland ohnehin verpflichtet, einen „automatisierten Lichtbildabruf“ durch Polizei, Ermittlungsbehörden, Steuerfahndungsdienste, Zoll und Geheimdienste „zur Erfüllung ihrer Aufgaben“ zu gewährleisten. Kritiker befürchten, dass damit die Grundlage für eine nationale Biometriedatenbank gelegt wurde.

Der frühere Bundesdatenschutzbeauftragte Peter Schaar sagte, es sei damit zu rechnen, dass die umfassenden Abrufmöglichkeiten dazu verwendet werden, im Rahmen der intelligenten Videoüberwachung alle Menschen zu identifizieren, die sich im öffentlichen Raum aufhielten. Allerdings hat das Bundesverfassungsgericht eine solche Rasterfahndung mit massenhafter Datenübermittlung nur dann als zulässig erklärt, wenn eine konkrete Gefahr für hochrangige Rechtsgüter besteht, wenn der Bestand oder die Sicherheit des Bundes oder eines Landes oder Menschenleben bedroht sind. Anfang Februar wurde vom Bundesverfassungsgericht schon das automatische Einscannen von Autokennzeichen, unabhängig davon, ob die Kontrolle zu einem Treffer führt, als verfassungswidrig erklärt. Der Grundsatz der Verhältnismäßigkeit sei nicht gewahrt.

In Amerika und anderen Ländern ist der Einsatz von Gesichtserkennung für die Polizei gang und gäbe. Zum Einsatz kommt unter anderem die Amazon-Software Rekognition, die eine Dienstleistung auf der Amazon-Cloud-Plattform ist. Der Hersteller spricht von einer „Gesichtserkennung in Echtzeit über mehrere zehn Millionen Gesichter und mit der Suche von bis zu 100 Gesichtern in anspruchsvollen, überfüllten Fotos“. In Moskau sollen alle 170.000 Überwachungskameras sukzessive um eine biometrische Auswertung ergänzt werden. In England ist die Videoüberwachung mit Gesichtserkennung bei nahezu allen Großveranstaltungen üblich. Bei den Olympischen Spielen 2020 in Japan werden alle Athleten beim Betreten der Wettkampfstätten biometrisch identifiziert. Nahezu täglich gibt es neue Meldungen, aber auch Warnungen wie etwa die von Microsoft, dass Gesichtserkennung Fragen aufwerfe, die den Schutz grundlegender Menschenrechte berührten wie die Privatsphäre und die freie Meinungsäußerung. Microsoft fordert eine staatliche Regulierung der Technik und die Entwicklung von Vorschriften für den Einsatz.

Facebook und Google sind Vorreiter

Dass Gesichtserkennung einen solchen Siegeszug antritt, ist an erster Stelle neuen Verfahren der Mustererkennung geschuldet. Erste simple Ansätze der Technik setzten auf eine zweidimensionale geometrische Vermessung der Gesichtsmerkmale wie Augen, Nase, Mund und bestimmten Position, Abstand und Lage. Mit neuronalen Netzen und verbesserter Hardware wurden diese merkmalbasierten Verfahren abgelöst. Die dahinterstehende mathematisch-naturwissenschaftliche Grundlage ist hochkomplex, und mit als Erste haben Facebook und Google die Verfahren vorangetrieben.

Facebook startete 2014 mit seinem Netzwerk Deep Face, das die beteiligten Forscher mit vier Millionen Gesichtsfotos trainierten. Deep Face konnte alsbald in 97,35 Prozent der Fälle erkennen, ob zwei Fotos ein und denselben Menschen zeigen. Wenig später gab Google bekannt, dass sein neuronales Netz namens Face Net sogar eine Trefferrate von 99,63 Prozent erziele. Mit Sonnenbrille, Hut und Schal kann man sich übrigens vor einer biometrischen Gesichtserkennung nicht schützen, allein die Erkennungsrate sinkt. Nur die Komplettverhüllung und Vermummung dürfte einen gewissen Schutz bieten. Eine weitere List besteht darin, spezielle Brillen zu verwenden, die auf einem breiten Rand mit flächigen Gesichtsbereichen anderer Personen bedruckt sind oder deren Gläser besondere Muster aufgedruckt haben. Das bringt die Biometrie zum Stolpern.

Die Gesichtserkennung, die ein Smartphone bei der Entsperrung verwendet, arbeitet ähnlich, muss sich aber nur mit einem einzigen befugten Nutzer auseinandersetzen. Wer Face ID oder Ähnliches einsetzt, achte darauf, dass die erfassten biometrischen Daten und das mathematische Abbild des Gesichts im Gerät verbleiben und weder an den Hersteller noch in die Cloud geschickt werden. Dergleichen sichert zum Beispiel Apple mit seiner Secure Enclave für die iPhones zu. Das Gesicht ist einerseits ungeschützt für jedermann zu sehen und gehört andererseits zum Persönlichsten des Menschen. Nach der biometrischen Gesichtserkennung und der Erstellung von Gesichtsabdrücken wird die nächste Stufe der Forschung die Vermessung der Gefühle im menschlichen Antlitz sein. Das Unternehmen Affectiva, das aus dem Media Lab des Massachusetts Institute of Technology hervorgegangen ist, sammelt Emotionsdaten. Es will Millionen Gesichter bereits erfasst haben, und das zugehörige Mimikprogramm wird derzeit eingesetzt, um zum Beispiel die Wirkung von Werbung auf Testpersonen zu messen. Was führt zum Lächeln, was langweilt die Zuschauer? Unternehmen wie Coca-Cola und Unilever sowie die Filmindustrie nutzen die Software schon.