Sicherheits-Budget und Meldepflicht: KI-Experten fordern weltweite Standards

Geoffrey Hinton, Yoshua Bengio und weitere fordern in einem Aufruf weltweite Standards für KI-Systeme – und mehr Geld für deren Sicherheit.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 4 Min.

Einige der bekanntesten KI-Experten der Welt warnen in einem gemeinsamen Aufruf vor den Gefahren von Künstlicher Intelligenz (KI) und fordern klare Richtlinien für die Entwicklung solcher Systeme. Sie fordern etwa, mehr Geld für die Sicherheit auszugeben, aber auch eine Art weltweite Aufsichtsbehörde ist in ihren Augen vonnöten. Dass so etwas möglich ist, zeigten etwa Abkommen in den Bereichen Finanzsysteme und Nuklearenergie.

Rund ein Drittel des KI-Budgets sollen Unternehmen, die KI-Systeme anbieten, in die Erforschung der Sicherheit stecken müssen, fordern Geoffrey Hinton, Yoshua Bengio, Andrew Yao, Dawn Song und weitere Mitstreiter in ihrem Paper mit dem Titel "Managing AI Risks in an Era of Rapid Progress". Grundsätzlich sorgen sich die Autoren, dass Unternehmen nicht ausreichend in die Pflicht genommen würden. Sie vergleichen das mit der Industrie, die Abfälle in Flüsse kippt, um Kosten zu sparen. Mit dem dreckigen Wasser müsste die Gesellschaft genauso umgehen, wie sie mit durch KI entstandenen Problemen klarkommen müsse, wenn es an Regulierung fehlt.

Die Autoren, die zu den "Godfathers of AI" gezählt werden, fordern eine Registrierungspflicht für KI-Modelle. Ähnliches sieht auch der AI Act vor, der derzeit von der EU ausgearbeitet wird. Demnach sollen Systeme, die Risiken bergen, vor der Zulassung geprüft und zertifiziert werden. Für Vorfälle oder Störfälle sollte es laut der KI-Experten eine Meldepflicht geben, auch ein Monitoring für die Nutzung von sogenannten Supercomputern sehen sie vor. Regulierungsbehörden weltweit sollten gemeinsame Sicherheitsstandards für verschieden leistungsfähige Modelle entwickeln.

Rechtlich sehen die Unterzeichner ebenfalls die Unternehmen in der Pflicht. Sie sollten bei entstandenen Schäden – zumindest denen, die absehbar waren – zur Rechenschaft gezogen werden können. Solange es keine Regulierung gibt, erwarten die Autoren Sicherheitsmaßnahmen von den Anbietern von KI-Systemen. Diese sollten sich überlegen, was sie machen, wenn bestimmte rote Linien überschritten würden.

"KI könnte die Technologie sein, die dieses Jahrhundert prägt. Während die KI-Fähigkeiten schnell voranschreiten, hinken Regierungen und die Sicherheit hinterher." Wir müssten uns neu orientieren, um KI sinnvoll nutzen zu können und eine Katastrophe abzuwenden. "Es gibt einen verantwortungsvollen Weg, wenn wir die Weisheit haben, ihn zu ergreifen", heißt es abschließend.

Der Aufruf ist nicht der Erste, den eine Reihe von KI-Experten veröffentlicht haben. Zuvor warnten Forscher wie Bengio und Hinton, der ehemals bei Google für KI zuständig war, dass KI so gefährlich wie ein Atomkrieg oder eine Pandemie werden könne. "Die Verringerung des Risikos, dass uns KI auslöscht, sollte weltweit mit der Priorität angegangen werden, die anderen Risiken von gesellschaftlicher Bedeutung wie Pandemien und Atomkrieg entgegengebracht wird", lautet die vollständige Stellungnahme, die im Sommer rausging.

Hinton ist einer Bewegung zuzuordnen, die als "Effektiver Altruismus" bezeichnet wird. Dabei geht es um die Frage einer "existenziellen Bedrohung" der Menschheit durch sogenannte Xrisks ("existential risks"). Ziel des Effektiven Altruismus ist, möglichst vielen zu helfen. Grundprämisse ist jedoch, dass nicht allen geholfen werden kann, deshalb sollte man möglichst viel Geld verdienen, um auch möglichst vielen damit zu helfen. Geldverdienen ist das oberste Ziel.

Kritik gab es an Hinton auch, weil er Timnit Gebru nicht unterstützte, als diese von Google gekündigt wurde. Hintergrund war ein Streit um ein wissenschaftliches Paper zu KI. Der Aufsatz ist betitelt mit "Die Gefahren von stochastischen Papageien: Können Sprachmodelle zu groß sein?"

Einen anderen offenen Brief haben Tech-Schwergewichte wie Elon Musk und Steve Wozniak im Sommer unterschrieben. Sie forderten einen Stopp bei der Entwicklung von KI-Systemen. Kurz darauf gründete Musk sein KI-Unternehmen xAI.

(emw)