zurück zum Artikel

Künstliche Allgemeine Intelligenz: Wissen, was wahr ist

Will Douglas Heaven

(Bild: picture alliance/PantherMedia)

Könnte der Traum von einer denkenden, menschenähnlichen Maschine wirklich wahr werden? Die Frage wird derzeit heftiger denn je diskutiert.

Ben Goertzel hat schon immer etwas größer gedacht: Vor gut zwanzig Jahren gründete der KI-Forscher ein Startup namens Webmind. Es war Teil des sogenannten Dot-Com-Booms – als Investoren alles finanzierten, was auch nur im Entferntesten mit Computern und dem Internet zu tun hatte. Doch selbst für diese wilde Zeit waren die Ziele von Webmind ehrgeizig: Goertzel wollte das digitale Abbild vom Gehirn eines Babys erschaffen und es ins Internet hochladen.

Wiederveröffentlichung

Anlässlich der Spekulationen um OpenAIs möglichen Durchbruch auf dem Gebiet der künstlichen, allgemeinen Intelligenz veröffentlichen wir diesen Artikel frei zugänglich. Der Text erschien ursprünglich in Ausgabe 2/2021 von MIT Technology Review. [1]

Dort wäre es seiner Meinung nach zu einem vollständig entwickelten, sich selbst bewussten und weitaus intelligenteren Wesen herangewachsen als ein Mensch. "Wir stehen am Rande eines Übergangs, der in seiner Bedeutung dem Aufkommen der Intelligenz oder der Entstehung der Sprache gleichkommt", sagte er 1998 dem Christian Science Monitor.

Webmind versuchte sich zu finanzieren, indem es nebenbei ein Tool zur Vorhersage des Verhaltens der Finanzmärkte baute, aber der größere Traum ging nie in Erfüllung. Nachdem das Unternehmen 20 Millionen Dollar verbrannt hatte, wurde Webmind aus seinen Büros an der Südspitze Manhattans vertrieben und stellte die Bezahlung seiner Mitarbeiter ein. Im Jahr 2001 meldete das Unternehmen Konkurs an.

Doch Goertzel gab nicht auf. Einige Jahre nach der Pleite von Webmind prägte er 2007 einen Begriff, der die KI-Forscher bis heute spaltet: "Künstliche Allgemeine Intelligenz" – englisch "Artificial General Intelligence", kurz AGI, ist ein Synonym für all das, was den KIs bis dahin – und auch heute immer noch – fehlte: Die Fähigkeit zu verallgemeinern, zu abstrahieren und Zusammenhänge wirklich zu verstehen. Diese AGI, verkündete Goertzel, müsse das Ziel der KI-Forschung werden.

Denn ein Computer kann zwar einfache logische Folgerungen ziehen wie: Wenn aus Argument A folgt, dass Argument B wahr ist und aus B folgt, dass C wahr ist, dann muss aus A ebenfalls folgen, dass C wahr ist. Doch A, B und C sind für die Software nur beliebige, austauschbare Symbole. Um in der realen Welt zurecht zu kommen, müsste eine Künstliche Intelligenz [2] lernen, wahre Aussagen über die Welt von unwahren zu unterscheiden – wie ein kleines Kind, das sich entwickelt.

Der KI-Forscher Ben Goertzel hat den Begriff „Artificial General Intelligence“ geprägt. Er ist überzeugt davon, dass Maschinen übermenschliche Fähigkeiten entwickeln können. Hier ist er im Jahr 2009 zu sehen.

(Bild: Raj Dye / Wikipedia / cc-by-3.0 [3])

"Wenn man von AGI sprach, bedeutete das, dass die bisherige KI-Forschung gescheitert war, sagt Joanna Bryson, KI-Forscherin an der Hertie School in Berlin: "Es war die Vorstellung, dass es Leute gibt, die nur dieses langweilige Zeug machen, wie maschinelles Sehen, aber wir hier drüben – und ich war damals eine von ihnen – versuchen immer noch, die menschliche Intelligenz zu verstehen", sagt sie. "Starke KI, kognitive Wissenschaft, AGI – das waren unsere verschiedenen Arten zu sagen: ‚Ihr habt es vermasselt; wir machen weiter.‘"

Ein normales KI-System, so die Vorstellung, wäre bald nur noch ein Stück Software – langweiliges Zeug. Auf der anderen Seite steht AGI als Stellvertreter für eine KI, von der wir nur noch nicht herausgefunden haben, wie wir sie bauen können. Mit anderen Worten: So etwas wie der heilige Gral der KI-Forschung – eine leuchtende Vision mit wunderbaren Fähigkeiten, die immer außer Reichweite bleibt.

Doch die Idee überzeugte nicht alle. Andrew Ng beispielsweise, ehemaliger Leiter der KI-Abteilung bei Baidu und Mitbegründer von Google Brain schreibt zu diesem Thema nur: „Lassen wir den AGI-Quatsch und widmen wir uns lieber den dringenden Problemen.“ Und Julian Togelius, ein KI-Forscher an der New York University sagt: „Der Glaube an AGI ist wie der Glaube an Magie. Es ist eine Art, das rationale Denken aufzugeben und Hoffnung auf und Angst vor etwas auszudrücken, das man nicht verstehen kann.“ Unter dem Hashtag #noAGI auf Twitter melden sich viele KI-Größen zu Wort, darunter auch Yann LeCun, der Chef-KI-Wissenschaftler von Facebook, der 2018 mit dem Turing Award ausgezeichnet wurde.

Aber mit den jüngsten Erfolgen der KI, vom Brettspiel-Champion AlphaZero bis zum überzeugenden Fake-Text-Generator GPT-3, hat sich das Interesse an AGI erhöht. „Wenn man in den frühen 2000er Jahren über AGI sprach, stand man mit den anderen Verrückten am Rand“, sagt Shane Legg, einer der Mitbegründer von Deepmind, der mit Ben Goertzel schon bei Webmind zusammengearbeitet hat. Aber die Dinge ändern sich. „Einige Leute fühlen sich damit unwohl, aber es kommt“.

AlphaGo von Deepmind hat allein gelernt, den stärksten menschlichen Go-Spieler zu schlagen. Dennoch bleibt die Intelligenz der Software allein auf spezielle Brettspiele begrenzt.

(Bild: DeepMInd / Screenshot)

Legg spricht über AGI als eine Art Universal-Werkzeug – eine Maschine, die viele verschiedene Probleme löst, ohne dass für jede zusätzliche Herausforderung eine neue entwickelt werden muss. „Das wäre ein wahr gewordener Traum.“

Traum hin, Traum her: Wie könnte so eine Künstliche Allgemeine Intelligenz in der Praxis aussehen? Sie als „menschenähnlich“ zu bezeichnen, ist gleichzeitig vage und zu spezifisch. Der Mensch ist das beste Beispiel für allgemeine Intelligenz, das wir haben, aber er ist auch hoch spezialisiert. Ein kurzer Blick auf das vielfältige Universum der tierischen Intelligenz – von der kollektiven Kognition der Ameisen über die Problemlösungsfähigkeiten von Krähen oder Kraken bis hin zu der für uns leichter erkennbaren, aber immer noch fremdartigen Intelligenz von Schimpansen – zeigt, dass es viele Möglichkeiten gibt, Intelligenz zu realisieren.

Was also ist Intelligenz? Nach der Pleite von Webmind arbeitete Legg gemeinsam mit Marcus Hutter an der Universität von Lugano in der Schweiz an einer Doktorarbeit mit dem Titel „Machine Super Intelligence“. Hutter (der jetzt auch bei DeepMind arbeitet) entwickelte eine mathematische Definition von Intelligenz, die nur durch die Gesetze der Physik begrenzt ist. Die beiden veröffentlichten eine Gleichung für das, was sie universelle Intelligenz nannten. Legg beschreibt sie als ein Maß für die Fähigkeit, Ziele in einer Vielzahl von Umgebungen zu erreichen. Bei DeepMind setzt Legg diese theoretische Arbeit in praktische Demonstrationen um. Er beginnt mit KIs, die bestimmte Ziele in bestimmten Umgebungen erreichen, von Spielen bis zur Proteinfaltung.

Doch der knifflige Teil bleibt noch offen: Die Verknüpfung mehrerer Fähigkeiten miteinander. Deep Learning [4] ist der allgemeinste Ansatz, solche Verknüpfungen herzustellen. AlphaZero verwendete denselben Algorithmus, um Go, Shogi [5] (ein schachähnliches Spiel aus Japan) und Schach zu lernen. Das Atari57-System von DeepMind nutzte ebenfalls Deep Learning, um jedes Atari-Videospiel zu meistern. Der Haken ist: Die KIs können immer nur eine Sache auf einmal lernen – nachdem AlphaZero Schach gemeistert hat, muss es Shogi von Grund auf neu lernen.

Legg bezeichnet diese Art von Allgemeinheit als „Ein-Algorithmus“, die sich grundsätzlich von der „Ein-Gehirn“-Generalität des Menschen unterscheidet. Die Ein-Algorithmus-Allgemeinheit sei sehr nützlich, aber nicht so interessant wie die Ein-Gehirn-Allgemeinheit, sagt er: „Sie und ich müssen unsere Gehirne nicht umschalten; wir setzen keine Schachgehirne ein, um eine Partie Schach zu spielen.“

Der Schritt vom Ein-Algorithmus zum Ein-Gehirn ist eine der größten offenen Herausforderungen in der KI. Es gibt eine lange Liste von Ansätzen, die dabei helfen könnten, dieses Multi-Tool zu entwickeln.

Transfer-Lernen zielt beispielsweise darauf ab, dass KIs Teile ihres Trainings für eine Aufgabe, wie Schach spielen, auf eine andere, wie Go spielen, übertragen können. So lernen Menschen. Forscher wie Turing-Preisträger Yoshua Bengio argumentieren, dass es einfacher wäre, das Training von einer Aufgabe auf eine andere zu übertragen, wenn eine KI über eine Art Fundament an gesundem Menschenverstand verfügen würde. Und ein wichtiger Teil des gesunden Menschenverstands ist das Verständnis von Ursache und Wirkung.

Eine weitere Fraktion an KI-Forschern setzt auf Lernoptimierer. Dies sind Werkzeuge, die verwendet werden können, um die Art und Weise, wie KIs lernen, zu formen und sie zu einem effizienteren Training anzuleiten. Jüngste Arbeiten zeigen, dass diese Tools sich gegenseitig trainieren können – was bedeutet, dass eine KI verwendet wird, um andere zu trainieren.

Deepmind lässt sich zusätzlich vom biologischen Gehirn inspirieren. Deepmind-Gründer Demis Hassabis [6] glaubt, dass Intelligenz in menschlichen Gehirnen zum Teil aus der Interaktion zwischen dem Hippocampus und dem Kortex entsteht. Diese Idee führte zu DeepMinds Atari-Spiele zockender KI, die einen vom Hippocampus inspirierten Algorithmus namens DNC (differential neural computer) verwendet. Er kombiniert ein neuronales Netzwerk mit einer Art Gedächtniskomponente.

So divers sie wirken – letztlich laufen alle Ansätze eine AGI zu entwickeln auf zwei große Denkschulen hinaus. Die eine besagt, dass, wenn man die Algorithmen richtig hinbekommt, man sie in jeder beliebigen kognitiven Architektur anordnen kann. Die andere Schule sagt, wenn die kognitive Architektur stimmt, kann man die Algorithmen fast wie nachträgliche Gedanken einfügen. „Mein persönliches Gefühl sagt mir, dass es etwas zwischen den beiden ist“, sagt Legg. Doch wann und ob sich so etwas jemals realisieren lässt, ist völlig unklar.

Da die Herausforderung jahrzehntelang unterschätzt wurde, wagen nur wenige Experten eine Prognose, wann und ob AGI kommen wird. Selbst Goertzel will sich nicht auf einen konkreten Zeitplan festlegen, obwohl er eher früher als später sagen würde. Es besteht kein Zweifel daran, dass die rasanten Fortschritte im Deep Learning – und insbesondere GPT-3 – durch die Nachahmung menschlicher Fähigkeiten die Erwartungen in die Höhe getrieben haben. Aber Nachahmung ist eben noch keine Intelligenz.

Schaufensterpuppe Sophia: Ben Goertzel war zwischenzeitlich Forschungsleiter von Hanson Robotics, dem Hersteller des Androiden „Sophia“. Der Roboter ist darauf ausgelegt, möglichst intelligent zu wirken – und bekam reichlich mediale Aufmerksamkeit. Goertzel gibt aber mittlerweile zu, dass Sophia ein „Theaterroboter“ ist.

(Bild: Hanson Robotics)

Kritiker werfen dem AGI-Lager deshalb vor, unrealistische Erwartungen zu schüren, gestützt auf Effekthascherei und übertriebene Behauptungen. Ein Vorwurf, der nicht völlig von der Hand zu weisen ist. War Goertzel doch beispielsweise von 2014 bis 2018 Chefwissenschaftler bei Hanson Robotics, einer Firma aus Hongkong, die 2016 den sprechenden humanoiden Roboter Sophia [7] vorstellte. Sophia brachte Goertzel Schlagzeilen auf der ganzen Welt ein. Doch selbst er gibt zu, dass es sich lediglich um einen „Theater-Roboter“ und nicht um eine echte KI gehandelt hat.

Allerdings räumen selbst die härtesten AGI-Skeptiker ein, dass die Debatte die Forschenden zwingt, über die Richtung ihres Forschungsfeldes nachzudenken, statt sich nur auf die nächsten spektakulären Benchmark-Ergebnisse zu konzentrieren. Ohne Beweise auf beiden Seiten, ob AGI realisierbar ist oder nicht, wird die Debatte jedoch zu einer reinen Glaubensfrage. „Es fühlt sich an wie die Argumente in der mittelalterlichen Philosophie darüber, ob eine unendliche Anzahl von Engeln auf einen Stecknadelkopf passen“, sagt Togelius. „Es macht keinen Sinn; es sind nur Worte.“

(jle [8])


URL dieses Artikels:
https://www.heise.de/-5058948

Links in diesem Artikel:
[1] https://www.heise.de/select/tr/2021/2
[2] https://www.heise.de/thema/Kuenstliche-Intelligenz
[3] https://creativecommons.org/licenses/by/3.0/
[4] https://www.heise.de/thema/Deep-Learning
[5] https://www.heise.de/news/Kuenstliche-Intelligenz-AlphaZero-meistert-Schach-Shogi-und-Go-3911703.html
[6] https://www.heise.de/hintergrund/Googles-Intelligenz-Designer-3132471.html
[7] https://www.heise.de/news/Philip-K-Dick-und-Sophia-antworten-Roboter-halten-Prressekonferenz-ab-4580491.html
[8] mailto:jle@heise.de