Esther Dyson: "KI ist, was wir nicht verstehen"

Eine Zukunft ohne KI? Keine Chance, sagt the Tech-Investorin, Autorin und Internetpolitikerin Esther Dyson, "aber vergesst die Babys nicht".

In Pocket speichern vorlesen Druckansicht 31 Kommentare lesen
Künstliche Intelligenz, KI

(Bild: Gerd Altmann, gemeinfrei)

Lesezeit: 6 Min.
Von
  • Monika Ermert

Als Strategien für den Umgang mit KI empfiehlt Ester Dyson, ein besseres Verständnis und eine bessere Regulierung von abhängig machenden Geschäftsmodellen. Aufi der diesjährigen Digital-Live-Design-Konferenz in München rief die Internetpionierin dazu auf, über das Training geliebter KIs nicht das Training von Babys zu vergessen. heise online hat nachgefragt.

heise online: KI dominiert die Konferenzprogramme, die DLD macht keine Ausnahme. Was ist ihre Arbeitsdefinition?

Esther Dyson: Die beste Arbeitsdefinition lautet ‘KI ist, was wir noch nicht so richtig verstehen’. Den Dingen, die wir verstehen, geben wir andere Namen wie Transformer oder Large Language Model (LLM), oder noch vorher, logische Systeme. Ein bisschen ist es mit KI wie mit menschlicher Intelligenz. Es gibt so viele Spielarten. Man kann mathematisch denken, die Fähigkeit haben, Kausalität zu erkennen. Ein LLM versteht beispielsweise Metaphern, mit denen wir spielen, nicht.

Wo ziehen Sie Grenzen zwischen KI und Dingen wie Bilderkennung, automatische Übersetzung oder dem guten alten Internet der Dinge?

Oder von Robotern. Ich glaube, KI ist eine Geschäftsidee, die Hochkonjunktur hat. Alle reden davon. Wer seinen Profit steigern will oder Menschen dazu bringen will, etwas zu glauben, verkündet, dass man nur Kontrolle über die Leute braucht, die KI kontrollieren.

Laut DLD Gründerin Steffy Czery kam von Ihnen der Vorschlag, das Thema zu diskutieren "Investieren wir nicht in KI, sondern in unsere Kinder"…

Mein ursprünglicher Titel lautete: "Wir sollten nicht so viel Aufhebens um das Training unserer KIs machen. Trainieren wir unsere Babys.” Im Panel ging es vor allem um formale Bildung. Ich will eher davor ansetzen. Wie lernen wir von unseren Eltern, die Welt zu erkennen und über sie nachzudenken. Kurz gesagt müssen wir die Kids aufnahmebereit machen für eine gute Bildung.

Ist KI ein guter Lehrer?

Ja, aber Menschen brauchen auch menschliche Trainer. Kinder müssen ihre eigenen und die Motivationen andere verstehen lernen. Sie müssen vertrauensvolle Skeptiker sein. Die Fähigkeit, einerseits zu verstehen und sich sicher zu fühlen und andererseits zu fragen, warum erzählt mir jemand etwas? Was will er wirklich und auch, warum höre ich dieser Person zu, die mich unglücklich macht – das ist ein sehr hilfreiches Werkzeug.

Wenn wir kritische Urteilskraft verlieren, riskieren wir dann, etwa beim Softwaredesign, dass ein Coder nicht mehr weiß, warum das von ihm genutzte KI-System ihm ein Stück Software in einer bestimmten Weise geschrieben hat?

Esther Dyson: Ja, genau da müssen wir aufpassen. In neun von zehn Fällen laufen wir Gefahr, dass jemand etwas dahingehend optimiert, mir etwas besser verkaufen zu können, ohne sich dabei Gedanken über den möglichen Schaden zu machen.

Wie entgeht man der Abhängigkeit von einer Maschine, die für mich Code produziert?

Das ist es, was die Leute lernen müssen. Sie müssen sich ihre gesunde Skepsis bewahren, die Ergebnisse überprüfen und gefährliche Geschäftsmodelle verbieten, wohlgemerkt nicht den Code. Die Rolle, die der Code spielt, ist nicht so klar. Man muss auf die Ergebnisse schauen.

Wie sieht Ihr Worst Case Szenario für eine KI geschwängerte Zukunft aus?

Dass KI ein fortschreitendes Chaos bringt, mehr und mehr Menschen sich unzulänglich fühlen, immer misstrauischer werden und anfangen, sich in KIs zu verlieben, wie im Film ‘Her’. Ich habe gerade erst mit einem Google Ingenieur gesprochen, der davon erzählte, wie Leute anfangen, sich in ihre KIs zu verlieben. Er sagte, das sei gut, denn es mache sie glücklich. So etwas erschreckt mich zutiefst. Deine KI braucht dich nicht, das ist keine zweiseitige Beziehung. Unsere Gesellschaft zerbricht, nicht zuletzt, weil so viele Menschen immer unglücklicher werden und psychologische Probleme haben. In den USA nimmt das rasant zu, besonders bei Mädchen und Jungen. Selbst wenn die Umwelt in Ordnung gebracht werden kann, bleibt ein gewaltiger Schaden für die Menschheit. Ich bin keinesfalls gegen KI oder deren Einsatz. Aber ich bin auf jeden Fall dagegen, dass damit Geschäftsmodelle und politische Modelle gestärkt werden, die genuin auf Raub abzielen.

Sollte das reguliert werden?

Das müssen wir. Aber der Fokus muss, wie schon gesagt, auf den Geschäftsmodellen liegen, darauf, welche Effekte sie haben und welche Ziele sie verfolgen. Wir müssen Unternehmen, Alkohol oder Tiktok regulieren, da wo wir sehen, dass zu viele Menschen Schaden nehmen. Wir könnten KI einsetzen, um Korrelationen zwischen Geschäftsmodellen und Effekten bei Kunden herzustellen. Mir ist egal, ob man den Befund mittels KI erhebt oder Arbeiter auf den Philippinen das machen, wenn Kunden psychische Probleme bekommen, müssen wir die entsprechenden Angebote regulieren.

Geschäftsmodelle zu regulieren, das klingt so un-amerikanisch. Sind Sie ein Fan des EU AI Act, obwohl ja Start-Ups wie Aleph Alpha gerade bei der DLD warnten, dass damit Kapazität von der Innovation in Richtung Compliance umgelenkt werden könnte?

Das ist, als würden wir sagen, Anschnallgurte sind zu teuer. Wenn man die Kosten betrachtet, nichts zu tun, ist das einfach eine Ausrede. Den EU AI Act kenne ich nicht gut genug, um ihn zu kommentieren.

Wenn sie von KI-Auditing sprechen, wer soll die machen? Neue Institutionen, Behörden?

Wir brauchen die Regierungen. Zugleich ist es eine kollektive Aufgabe für uns alle. Ich glaube nicht, dass wir neue KI-Aufsichtsbehörden brauchen. Wir haben doch Behörden, die für Gesundheitsfragen, für Umweltfragen, für Nahrungsprodukte und viele andere Dinge zuständig sind. Wir müssen die dazu bringen, dass sie auch KI basierte Geschäftsmodelle und deren gesellschaftliche Effekte in den Blick nehmen.

Heißt das, dass Verstehen und Innovation – das mit dem Halluzinieren – rein menschlich bleibt?

Für den Moment ja. Wenn irgendwann etwas kommt, das elektronisch ist, und besser als menschliche Wesen, will ich kein menschlicher Chauvinist sein. Aber dafür brauchen wir ein neues Interview.

(emw)