Wem gehört Dein Gesicht? Wozu Gesichtserkennungstechnologie imstande ist

Automatische Gesichtserkennung gerät vermehrt in den Fokus der Öffentlichkeit. In Form von Beauty-Filtern oder einer Spielerei namens “FaceApp” befindet sich die Technologie auf Mobilgeräten Hunderter Millionen Menschen.

Auf der Plattform Facebook ist es sogar möglich, mit Hilfe von Gesichtserkennung Personen auf Fotos zu identifizieren. Jetzt hat der Meta-Konzern (ehemals Facebook) überraschend angekündigt, diese Funktion seiner Dienste einzustellen. In der offiziellen Erklärung von Meta heißt es dazu:

“But the many specific instances where facial recognition can be helpful need to be weighed against growing concerns about the use of this technology as a whole. There are many concerns about the place of facial recognition technology in society, and regulators are still in the process of providing a clear set of rules governing its use. Amid this ongoing uncertainty, we believe that limiting the use of facial recognition to a narrow set of use cases is appropriate.”

“Die vielen verschiedenen Situationen, in denen Gesichtserkennung hilfreich sein kann, müssen gegen die zunehmenden Bedenken gegenüber der Technologie als solche abgewogen werden. Es gibt viele Befürchtungen über den Stand der Gesichtserkennungstechnologie in der Gesellschaft und die regulierenden Kontrollinstanzen bemühen sich weiterhin, eindeutige Richtlinien auszuarbeiten, ihre Verwendung zu regulieren. Inmitten dieser bestehenden Unsicherheit glauben wir, dass es angemessen ist, den Einsatz der Gesichtserkennungssoftware auf eine geringe Auswahl an Anwendungsmöglichkeiten einzuschränken.”

In Hamburg, wo das Unternehmen seinen deutschen Sitz hat, begrüßt der Beauftragte für Datenschutz und Informationsfreiheit Thomas Fuchs dieses Vorhaben. Man habe „die Einführung der Gesichtserkennung bei Facebook für das Markieren von Fotos von Anfang an kritisiert“. Zudem teilt uns Fuchs mit: „[…] Künftig auf die biometrische Gesichtserkennung in seinem sozialen Netzwerk zu verzichten […] ist aus Sicht des Datenschutzes eine gute und längst überfällige Entwicklung.“

Was zunächst nach Einsicht in die Bedenken der Nutzer*innen aussieht, hat jedoch vermutlich einen ganz anderen Hintergrund. Der US-Staat Illinois hatte den Konzern zu einer Strafzahlung von 500.000.000 US-Dollar aufgefordert, denn dort ist das Sammeln solcher Daten nicht zulässig. Auch der Hamburgische Datenschutzbeauftragte konfrontierte das Unternehmen in der Vergangenheit mit datenschutzrechtlichen Bedingungen. „Facebook war jedoch nicht bereit, auf unsere Anforderungen einzugehen“, kritisiert Fuchs. Schließlich wurde in Hamburg per Verordnung die Durchsetzung besserer Maßnahmen veranlasst.

Auch die europäische Datenschutzgrundverordnung trug dazu bei, dass Facebooks Nutzer*innen zunächst einwilligen mussten, um Zugang zur Funktion zu erhalten. Dem kamen laut Meta ein Drittel der Nutzer*innen nach. Das entspricht einem Datensatz von über einer Milliarde Gesichtsmerkmalen, der bald gelöscht wird.

Wie funktionieren die Programme?

Gesichtserkennungssoftware vergleicht nämlich nicht einfach Fotos. Sie arbeitet mit mathematischen Modellierungen. Zum Beispiel werden der Abstand zwischen den Augen einer Person, die Krümmung der Wangen oder die Breite der Nase erfasst. Dadurch wird es möglich, ein dreidimensionales Abbild eines Gesichtes zu erstellen. Unabhängig vom Winkel und den Lichtverhältnissen, in denen eine Person abgebildet ist, kann ihr Gesicht so mit denen aus einer Datenbank abgeglichen werden. Ähnlich wie im Ausschlussverfahren wird nach Übereinstimmungen gesucht, die dann mit unterschiedlicher Wahrscheinlichkeit zur gesuchten Person passen.

Dass dabei Fehler passieren, zeigt sich vor allem bei der Anwendung im Bereich der Strafverfolgung. Bei Spektrum.de findet sich die Auswertung eines Tests des US-Amerikanischen National Institute of Standards of Technology aus dem Jahr 2014. Manche Algorithmen, die auch von Behörden eingesetzt werden, lieferten bei mehr als zehn Prozent der Versuche ein falsches Ergebnis. Besonders problematisch: Wie unter anderem die Menschenrechtsorganisation Amnesty International feststellte, sind Menschen dunkler Hautfarbe auffällig oft von Fehleinschätzungen betroffen. Ebenso werden Frauen häufiger falsch identifiziert als Männer.

Erschreckend präzise

Im selben Zeitraum veröffentlichte Facebook ein Paper namens “DeepFace”. Mittlerweile wurde die Seite jedoch gelöscht. Forschende beschreiben dort eine Methode, mit über 97-prozentiger Wahrscheinlichkeit Personen anhand ihrer Gesichter zu identifizieren. Das ist annähernd so gut, wie es Menschen gelingt. Auf dieser Grundlage äußerte die Chefin des IT-Start-Ups Parity gegenüber der Washington Post, dass “Facebook unzweifelhaft über das fortschrittlichste System zur Gesichtserkennung” verfüge. Wegen der schieren Datenmengen,  die Tech-Giganten wie Facebook, Apple oder Google auswerten, können Gesichtserkennungssysteme tatsächlich recht zuverlässig arbeiten. “Es hängt von der Qualität und Menge der verfügbaren Daten ab, 97 Prozent Genauigkeit sind da durchaus realistisch”, so die Einschätzung von Stefan Schneegaß. Er ist Professor an der Universität Duisburg-Essen und forscht unter anderem auf dem Gebiet der Usable Security & Privacy.

Amit Chowdhry vom Forbes Magazine und Eric Markowitz von Vocativ weisen darauf hin, dass der Algorithmus, den Facebook verwendet, sogar bessere Ergebnisse liefere als der des FBI. Dabei hat die Sicherheitsbehörde über Jahre rund 1,2 Milliarden Dollar in die Entwicklung ihres Systems investiert. Überhaupt scheint großes finanzielles Interesse an derartiger Technologie zu bestehen. Das international agierende Marktforschungsunternehmen “Allied Market Research” beziffert das Marktpotenzial für nächstes Jahr auf bis zu zehn Milliarden US-Dollar.

Gefahr von außerhalb

Das wundert nicht, sind Einsatzmöglichkeiten für Gesichtserkennung doch zahlreich. Auch Meta weiß darum und will so künftig nicht vollends auf solche Technologien verzichten. Zur Entschlüsselung von Geräten und Dateien wird die Methode weiterhin angeboten, ist beim Guardian nachzulesen. Darüber hinaus finden Algorithmen mittlerweile auch in der Medizin Anwendung. Eine größere Bedeutung misst Schneegaß jedoch der Fähigkeit solcher Programme zu, menschliche Gesichter zuzuordnen: „Im medizinischen Kontext wird Gesichtserkennung nicht allzu viel angewendet, die Bilder können vermutlich zur Früherkennung von Krankheitsbildern beitragen. Man kann die Technologie aber vielseitig einsetzen und gerade zur Wiedererkennung von Personen ist das äußerst nützlich.”

Ein gesellschaftliches Problem ergibt sich daraus noch nicht. Der Wissenschaftler merkt dazu an, dass die Technologie trotz ihres Potenzials unter sicheren Umständen angewendet werden muss. „Es geht vielmehr darum, dafür zu sorgen, dass die Technologie nicht zur Überwachung oder für politische Zwecke eingesetzt wird.” Dieser Gedanke bereitet Datenschützer*innen seit jeher Sorgen. Und das ist nicht ganz unbegründet.

Denn Unternehmen wie Facebook setzen ihre Algorithmen nicht nur zu den vorgesehenen Zwecken ein. In die Entwicklung werden oft weitere Akteure eingebunden, diese können gar von den Datenbanken Gebrauch machen. Nutzerdaten können so auch schnell in falsche Hände geraten. Wie die Financial Times berichtete, führte die Beteiligung chinesischer Firmen dazu, dass Microsoft 2019 die eigens zusammengetragenen Bilddaten aus der bis dato größten, frei zugänglichen Datenbank löschte. Doch auf die Daten, die bei Facebook hochgeladen werden, besteht weiterhin Zugriff. Die Gefahr, dass die Bilder von Personen woanders genutzt werden, ist also immer noch nicht gebannt.

Beitragsbild: Foto von Szabo Viktor via Unsplash 

Ein Beitrag von
Mehr von Joel Nickus
KURT – Das Magazin: Identifizierung mit Dortmund, Comics und Karneval
In einer Studie hat sich unter anderem TU-Professor Hartmut Holzmüller mit der...
Mehr
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert