KI als "großer Filter"? – Warnung vor existenzieller Gefahr für die Menschheit

In Teilen der Forschung wird gerätselt, warum wir einfach keine Hinweise auf außerirdische Zivilisationen finden. Ein renommierter Astronom zeigt nun auf KI.

In Pocket speichern vorlesen Druckansicht 531 Kommentare lesen
Sonnenaufgang hinter der Erde

(Bild: muratart/Shutterstock.com)

Lesezeit: 4 Min.

Dass die Entwicklung von KI-Technik in die Entwicklung einer "Künstlichen Superintelligenz" mündet, die biologische Zivilisationen zerstört, könnte eine Art Naturgesetz sein und erklären, warum wir bislang keine Außerirdischen entdeckt haben. Das jedenfalls meint der britische Astronom Michael Garrett, der das Jodrell Bank Centre for Astrophysics an der Universität Manchester leitet. In einem jetzt publizierten Forschungsartikel schreibt er, dass die rasche Weiterentwicklung von KI-Technik eine "gewaltige Herausforderung für das Überleben und die Langlebigkeit" technologischer Zivilisationen darstelle. Die Geschwindigkeit sei ohne historisches Vorbild und es bestehe die Möglichkeit, dass sich biologische Lebensformen damit zwangsläufig immer selbst auslöschen. Ihnen könnten dann jeweils nur wenige hundert Jahre für eine Kommunikation mit anderen Zivilisationen bleiben, was erklären würde, warum wir bislang niemanden gefunden haben.

Garrett nennt es eines der größten Rätsel der Astronomie, dass wir seit mehr als 60 Jahren keine Spur einer anderen technologischen Zivilisation entdeckt haben. Dabei sollten die nicht zu verhindern sein, wenn sich mögliche Außerirdische ähnlich entwickeln wie wir. Die Menschheit etwa sendet – größtenteils unabsichtlich – die unterschiedlichsten Signale ins All. Diese "große Stille" sei ein Paradox, wenn man sich vor Augen führe, dass wir immer mehr Hinweise darauf finden, dass es im Universum viele Orte geben sollte, an denen sich erdähnliches Leben entwickeln könnte. Um das zu erklären, sei unter anderem das Konzept eines "großen Filters" eingeführt worden, also irgendeiner Art von Grenze oder Barriere, die für intelligentes Leben eine zu große Herausforderung darstellt und dafür sorgt, dass die meisten Zivilisationen gewissermaßen scheitern. In seiner Arbeit widmet er sich der Frage, ob KI-Technik dieser "große Filter" sein könnte.

Schon bevor KI-Systeme "superintelligent" und potenziell autonom werden, sei es wahrscheinlich, dass die Technologie von Fraktionen innerhalb biologischer Zivilisation als Waffe benutzt wird, um einen Vorteil zu erreichen, schreibt Garrett. Die Geschwindigkeit, mit der die Technik Entscheidungen treffen könne, habe dann das Potenzial, Konflikte in unvorhergesehener Weise zu eskalieren. Am Ende könnte durch die Integration von KI in Waffensysteme ein katastrophaler Zwischenfall heraufbeschworen werden, beispielsweise ein thermonuklearer Krieg. Der dürfte den Untergang der biologischen Zivilisation, aber auch der KI zur Folge haben. Selbst wenn das nicht passiert, hält Garrett es für wahrscheinlich, dass eine "Künstliche Superintelligenz" irgendwann nicht mehr auf biologische Zivilisationen angewiesen ist und diese absichtlich auslöschen könnte. Insgesamt hält er Lebewesen für eindeutig im Nachteil.

In dem Forschungsartikel, der im Fachmagazin Acta Astronautica veröffentlicht wurde, listet Garrett zwei Gegenmaßnahmen auf. Zum einen müssten Zivilisationen wie die Menschheit alles daran setzen, multiplanetar zu werden, um die existenzielle Bedrohung zu verringern. Nur mit Ablegern auf anderen Himmelskörpern könnte eine technologische Zivilisation es überleben, wenn ihre Heimat zerstört wird. Gleichzeitig erkennt er aber auch an, dass wir für Fortschritte bei der Besiedlung anderer Himmelskörper darauf angewiesen sein könnten, dass KI-Technik bei der Entwicklung der dafür nötigen Technologie hilft. Deshalb fordert er eine zeitnahe und effektive Implementierung internationaler Vorschriften für KI-Systeme, die die Gefahren minimiert und es ermöglicht, von den Vorteilen zu profitieren. Was wir jetzt entscheiden, könnte über das Schicksal unserer Zivilisation entscheiden. "Das Fortbestehen von intelligentem und bewusstem Leben im Universum" könnte davon abhängen, behauptet er.

Der renommierte Astronom reiht sich mit der Arbeit in die Reihe jener ein, die vor den Gefahren von KI warnen und schlimmste Szenarien für möglich halten. Der Physiker Stephen Hawking hat beispielsweise schon 2016 auf Gefahren durch KI hingewiesen, gewohnt drastischer hat sich der US-Milliardär Elon Musk mehrfach geäußert. Der arbeitet gleichzeitig auch explizit an dem Ziel, die Menschheit multiplanetar zu machen. Ob KI aber wirklich so gefährlich werden kann, darüber streiten sich Experten und Expertinnen jedoch, viele halten die dramatischen Warnungen auch für übertrieben. Gleichzeitig gibt es auch verschiedene andere Erklärungsversuche dafür, dass wir bislang noch keine außerirdische Zivilisation entdeckt haben. So könnte die Menschheit einfach besonders früh dran sein oder andere Zivilisationen verhalten sich absichtlich ganz ruhig, um keine Aufmerksamkeit auf sich zu ziehen und sich dadurch in Gefahr zu bringen.

(mho)