KI-Videoüberwachung in Londoner U-Bahn zur Erkennung von Straftaten in Echtzeit

Londoner U-Bahnbetreiber hat KI-Videoüberwachung getestet, um Waffen, Schwarzfahrer oder gefährdete Personen in Echtzeit zu entdecken. Die KI lag oft daneben.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen

(Bild: Scharfsinn/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Frank Schräer

Der Betreiber der Londoner U-Bahn hat die Videoüberwachung tausender Personen täglich von Künstlicher Intelligenz (KI) auf auffälliges Verhalten untersuchen lassen, um etwa Straftaten oder unsichere Situationen zu erkennen. Transport for London (TfL) hat dafür die bestehenden Überwachungskameras mit Machine-Learning-Software kombiniert. So sollten Waffen und Schwarzfahrer entdeckt werden, aber auch aggressives Verhalten oder wenn die Gefahr besteht, dass Personen auf die Gleise stürzen. In solchen Fällen wurde das Personal unmittelbar informiert.

TfL betreibt das Netz der Busse und U-Bahnen in der britischen Hauptstadt und hat das KI-System von Oktober 2022 bis Ende September 2023 an einer U-Bahnstation namens Willesden Green getestet. Diese Station zählte vor der Coronapandemie rund 25.000 Besucher täglich. Es war das erste Mal, dass die Transportgesellschaft KI mit Live-Videoüberwachung kombiniert hat und Mitarbeiter dabei entsprechend benachrichtigt wurden. Laut Unterlagen, die dem Magazin Wired vorliegen, wurden innerhalb des Testzeitraums von fast einem Jahr mehr als 44.000 Alarme ausgelöst, wobei das Personal in 19.000 Fällen in Echtzeit informiert wurde. Die restlichen 25.000 Fälle wurden zu Analysezwecken gespeichert.

Das KI-System sollte vor allem kriminelles und unsoziales Verhalten erkennen, aber wurde auch darauf trainiert, Rollstühle und Kinderwagen, Raucher und Personen zu erkennen, die unbefugte Bereiche betreten oder sich zu nahe am Rand des Bahnsteigs befinden. In Deutschland gab es ähnliche Ansätze bereits 2019, als Randalierer im Zug per Aggressionserkennung durch KI erkannt werden sollten.

Die KI in London war alles andere als unfehlbar, wie die Dokumente zeigen. So wurden Kinder, die ihren Eltern durch die Ticketschranken folgen, als potenzielle Schwarzfahrer identifiziert, und das System machte keine Unterscheidung zwischen einem zusammengeklappten und einem normalen Fahrrad. Nur letzteres darf nicht in die U-Bahn mitgenommen werden. Die Polizei unterstützte den Test und Beamte, die bei geschlossener Station eine Machete und eine Schusswaffe offen trugen, sollten die KI auf die Erkennung von Waffen trainieren. Im Rahmen des Tests wurden allerdings keine Alarme wegen Waffen ausgelöst.

Das Training zeigte aber Lücken. Laut TfL-Bericht war die gewünschte Aggressionserkennung nicht erfolgreich, weil nicht ausreichend Daten für das Training der Künstlichen Intelligenz zur Verfügung standen. So wurden Alarme ausgelöst, wenn jemand die Arme nach oben streckt, was die Dokumente als "häufiges Verhalten im Zusammenhang mit aggressiven Handlungen" bezeichnen. Dies hat die KI während der Testphase in lediglich 66 Fällen potenziell aggressivem Verhalten festgestellt.

Zudem wurden Alarme ausgelöst, weil ein- und aussteigende Zugführer als Personen identifiziert wurden, die sich in unbefugten Bereichen befinden. Auch habe Sonnenlicht die KI-Auswertung der Videoüberwachung beeinträchtigt, wenn es direkt in die rund 20 Jahre alten Kameras scheint. Willesden Green ist eine oberirdische Station der London Underground. Besser erkannt wurden Schwarzfahrer. Die KI habe laut Bericht in 26.000 Fällen Alarm ausgelöst, weil jemand ohne Fahrschein fahren wollte.

Datenschutzexperten stellen allerdings die Genauigkeit der Algorithmen zur Objekterkennung infrage. Sie warnen auch davor, dass eine solche KI-Videoüberwachung in Zukunft ausgeweitet werden könnte, etwa auf Gesichtserkennung. Die TfL versichert, dass während der Testphase alle Gesichter aufgenommener Personen verwischt und die Daten maximal 14 Tage vorgehalten wurden. Sechs Monate nach Beginn des Tests beschloss die TfL jedoch, die Gesichter potenzieller Schwarzfahrer wieder erkennbar zu machen und bewahrte diese Daten länger auf.

(fds)