USA: Aus DNA rekonstruiertes Porträt für automatische Gesichtserkennung benutzt

Seit Jahren generiert ein Unternehmen für die US-Polizei angebliche Porträts von Verdächtigen aus Genspuren. Was damit gemacht wird, ist wenig überraschend.

In Pocket speichern vorlesen Druckansicht 85 Kommentare lesen
Gesicht aus Nullen und Einsen

(Bild: LuckyStep/Shutterstock.com)

Lesezeit: 3 Min.

Ein Polizist in den USA hat das auf Basis einer Genanalyse generierte Porträt einer Person durch ein System zur automatischen Gesichtserkennung geschickt. Das berichtet das US-Magazin Wired und beruft sich auf geleakte Daten aus Polizeidatenbanken. Es sei der erste bekannt gewordene Fall, in dem die beiden viel kritisierten Technologien derart kombiniert wurden, ereignet habe sich das schon 2020. Mit der Einspeisung des generierten Porträts in das System hat der nicht namentlich genannte Ermittler demnach lediglich gegen Nutzungsbedingungen verstoßen, eine Kontrolle gebe es aber nicht. Der Bericht legt nahe, dass es sich nicht um einen Einzelfall handeln dürfte und ruft teils haarsträubende Beispiele für die Nutzung automatischer Gesichtserkennung in Erinnerung.

In dem konkreten Fall geht es laut Wired um einen ungeklärten Mordfall aus dem Jahr 1990. In einem Park im kalifornischen Berkeley wurde damals die Leiche einer Frau gefunden, die vor ihrer Ermordung missbraucht worden war. 27 Jahre später hätten Ermittler am Tatort gefunden DNA-Spuren an ein Unternehmen geschickt, das behauptet, daraus eine Rekonstruktion des Gesichts der zugehörigen Person erstellen zu können. Mit dem Bild wurde die Öffentlichkeit erfolglos um Hinweise gebeten, obwohl es Zweifel daran gibt, dass die Rekonstruktion überhaupt eine Ähnlichkeit mit dem mutmaßlichen Mörder hat. Trotzdem habe ein Ermittler das Bild drei Jahre später in ein System zur automatischen Gesichtserkennung gegeben – wohl ebenfalls ohne Ergebnis.

Das Vorgehen zeige, wie Strafverfolgungsbehörden verschiedene Technologien ohne Aufsicht vermischen und in nicht vorhergesehenen Weisen kombinieren können, zitiert Wired Experten. Nicht unabhängig überprüfte Verfahren würden auf Basis nicht nachvollziehbarer Kriterien angewandt, um Verdächtige zu identifizieren. So behauptet das Unternehmen, das das Porträt erstellt hat, dass die eigene Technik lediglich die Farbe von Haaren, Augen, Haut sowie die Menge der Sommersprossen und die allgemeine Form des Gesichts ermitteln könne. Selbst das sei aber nie unabhängig bestätigt worden. Trotzdem generiert es eine Art Foto. Anfangs habe Parabon NanoLabs dessen Nutzung für automatische Gesichtserkennung nicht verboten, das aber in den Nutzungsbedingungen nachgeholt.

Wired zitiert mehrere Vertreter von Strafverfolgungsbehörden, die die Nutzung solcher generierter Porträts für automatische Gesichtserkennung nicht ausschließen. Gleichzeitig warnt die Bürgerrechtsorganisation EFF (Electronic Frontier Foundation) vor den Risiken, dass auf diesem Weg die falschen Personen in Verdacht geraten könnten. Der Vorfall und die Einstellung der Strafverfolger weise auf ein komplett falsches Verständnis dafür hin, wie groß die Fehlerrate bei Gesichtserkennung ist. Weil die Technik, aber auch die zur Erstellung der Porträts jeweils auf KI-Technik basiert, sei in beiden Fällen überhaupt nicht klar, wie die Ergebnisse überhaupt zustande kommen, zitiert Wired eine Expertin.

In den USA werden immer wieder Fälle von falschen Verdächtigungen auf Basis automatischer Gesichtserkennung publik. Laut einer aktuellen Analyse sind etwa beim FBI nur 5 von 200 Personen, die die Technik einsetzen, darin geschult. Welche haarsträubenden Folgen der leichtfertige Umgang damit hat, zeigen Medienberichte regelmäßig. In einem 2019 publik gewordenen Fall war der New Yorker Polizei gar ein Verdächtiger beschrieben worden, der Woody Harrelson ähnlich gesehen haben soll. Daraufhin sei ein Bild des bekannten Schauspielers für die automatische Gesichtserkennung genutzt worden. Eine so ermittelte Person sei schließlich auch verhaftet worden, hat The Verge damals berichtet.

(mho)