New York: KI-Chatbot rät zum Rechtsbruch – und darf online bleiben

New Yorks "MyCity Chatbot" soll Unternehmen helfen, die Bürokratie zu meistern. Diverse generierte Antworten stimmen aber nicht. Trotzdem bleibt er online.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Skyline von New York mit untergehender Sonne

(Bild: dibrova/Shutterstock.com)

Lesezeit: 2 Min.

Die Stadt New York lässt einen KI-Chatbot online, obwohl der gesetzeswidrige Ratschläge gegeben hat. Das berichtet die Nachrichtenagentur AP unter Berufung auf Eric Adams, den Bürgermeister von New York City. Der habe zwar eingestanden, dass die Technik "in einigen Bereichen falsch" liege. Nur die Furchtsamen würden vor solchen Problem weglaufen, habe der Politiker erklärt. Stattdessen könnten Nutzer und Nutzerinnen dank der Freigabe der fehlerhaften Software mögliche Fehler selbst finden und bei der Verbesserung helfen. Auch weil der "MyCity Chatbot" von einer staatlichen Stelle angeboten wird, gibt es an dem Vorgehen aber heftige Kritik. Eine Computerwissenschaftlerin nennt es gegenüber der Nachrichtenagentur "rücksichtslos und unverantwortlich".

Publik gemacht hat die Probleme vergangene Woche das US-Magazin The Markup. Den Berichten zufolge gibt der KI-Chatbot zum Beispiel die Behauptung aus, dass Restaurants Käse für den Verzehr anbieten können, der von Ratten angeknabbert wurde. Man müsse lediglich den Umfang des Schadens prüfen und die Kundschaft informieren, heißt es demnach wahrheitswidrig. Außerdem habe die Technik Antworten ausgegeben, denen zufolge Angestellte entlassen werden dürfen, die sich über sexuelle Belästigung beschweren, die eine Schwangerschaft verheimlicht haben oder sich weigern, ihre Dreadlocks abzuschneiden. Wer die Ratschläge befolgt, würde in allen Fällen gegen gesetzliche Vorgaben verstoßen, erklärt AP.

Es handle sich um die Freigabe einer Software, die nicht geprüft sei und ohne Aufsicht angeboten werde, fasst Julia Stoyanovich von der Universität New York das Vorgehen zusammen: "Es ist klar, dass sie nicht vorhaben, das Verantwortungsvolle zu tun." Zwar handelt es sich nicht um den ersten Fall, in dem ein Chatbot falsche Angaben macht, erst im Februar war Air Canada wegen eines ähnlichen Falls zur Zahlung einer Rückerstattung verpflichtet worden. Hier gehe es aber um eine staatliche Stelle, ergänzt Jevin West von der Universität Washington. Regierungen würde ein ganz anderes Vertrauen entgegengebracht. Die Verantwortlichen müssten sich darüber im Klaren sein, welche Folgen es hätte, wenn jemand den Angaben folgen und in Schwierigkeiten geraten würde.

(mho)