Software boykottieren: KI-Experte Gary Marcus ruft User zum Handeln auf

Der emeritierte NYU-Professor Marcus ist bekannt für seine Online-Wortgefechte mit KI-Größen wie Yann LeCun. Marcus geht es vor allem um Urheberrechtsfragen.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen
KI-Forscher Gary Marcus​

KI-Forscher Gary Marcus.

(Bild: privat)

Lesezeit: 7 Min.
Von
  • Melissa Heikkilä

Der KI-Experte Gary Marcus steht vor dem Postamt auf Granville Island in Vancouver und ist leicht zu erkennen. Er trägt Neon-Turnschuhe in der Farbe "Koralle" und eine blaue Arcteryx-Jacke. Ich selbst bin wegen einer Familienangelegenheit in der Stadt, Marcus lebt seit 2018 hier in British Columbia, nachdem er 20 Jahre lang in New York City gewohnt hatte. "Ich finde es einfach paradiesisch hier", sagt er, während ich ihn auf seinem täglichen Spaziergang um Granville Island herum und am nahe gelegenen Stand von Kitsilano begleite. Natürlich geht es bei unserem Spaziergang um den aktuellen Stand der Künstlichen Intelligenz.

"Ich bin deprimiert über die aktuelle Situation", sagt er. "Als ich mich für dieses Fachgebiet entschied, ging es doch nicht darum, die Einnahmen der Künstler zu den Großkonzernen umzuleiten." Ich nehme einen großen Schluck von meinem tiefschwarzen Kaffee und wir laufen los. Marcus, emeritierter Professor an der New York University, war lange prominenter KI-Forscher und Kognitionswissenschaftler, mittlerweile kennt man ihn vor allem durch seine lautstarke Positionierung gegen Deep Learning und andere moderne Techniken der Künstlichen Intelligenz. Er hat viele Freunde – und viele Feinde. Sein öffentlicher Schlagabtausch mit anderen KI-Giganten wie Yann LeCun (Meta) oder Geoffrey Hinton (Ex-Google) gilt als legendär. "Alle Versuche, mich zu sozialisieren, sind gescheitert", scherzt er.

Die Woche, in der wir uns treffen, war voller großer KI-Neuigkeiten. Die Google-Tochter DeepMind hatte die nächste Generation ihres leistungsstarken KI-Modells Gemini auf den Markt gebracht, das besser mit großen Mengen an Videos, Texten und Bildern arbeiten können soll. OpenAI wiederum brachte ein beeindruckendes neues generatives Videomodell namens Sora heraus, das eine kurze Textbeschreibung in einen detailreichen hochauflösenden Filmclip von bis zu einer Minute Länge verwandeln kann. Die KI-Videogenerierung gibt es schon länger, doch Sora scheint das Niveau noch einmal stark zu steigern.

Die X-Timeline war überschwemmt mit beeindruckenden Clips, die Menschen mit der Software erstellt hatten. OpenAI behauptete außerdem, dass die Forschungsergebnisse darauf hindeuten, dass die Skalierung von Videogenerierungsmodellen wie Sora "ein vielversprechender Weg zum Aufbau von Allzweck-Simulatoren unserer physischen Welt" sei.

Aber – Überraschung – Marcus ist weniger beeindruckt. "Wenn man sich [die Videos] eine Sekunde lang ansieht, denkt man: 'Wow, das ist ja erstaunlich'. Wenn man aber genau hinsieht, erkennt man, dass [das Modell] immer noch keinen gesunden Menschenverstand hat." In einigen Videos stimmt die Physik nicht, Tiere und Menschen tauchen spontan auf und verschwinden wieder. Manchmal fliegen Dinge einfach rückwärts.

Für Marcus ist die Technik zudem ein weiteres Beispiel für das ausbeuterische Geschäftsmodell von Technologieunternehmen. Viele Künstler und Schriftsteller und auch Medien wie die New York Times haben KI-Firmen verklagt, weil sie der Meinung sind, dass deren Praxis, wahllos Daten aus dem Internet abzugreifen, um ihre Modelle zu trainieren, geistiges Eigentum verletzt. Urheberrechtsfragen sind für Marcus dementsprechend ein wichtiges Thema. Es ist ihm selbst in einer Forschungsarbeit gelungen, beliebte KI-Bildgeneratoren dazu zu bringen, Szenen aus Marvel-Filmen oder von bekannten Figuren wie den Minions, Sonic the Hedgehog und Star Wars zu erzeugen. Er setzt sich daher für klarere Regeln ein, welche Inhalte in KI-Modelle einfließen dürfen und welche nicht.

"Die Videogenerierung sollte nicht auf urheberrechtlich geschütztem Material basieren, das ohne Zustimmung aufgenommen wurde. Und auch nicht in undurchsichtigen Systemen, bei denen wir nicht verstehen, was überhaupt vor sich geht", sagt er. "Das sollte nicht legal sein. Das ist eine Frage der Ethik."

Wir halten an einer Stelle mit schöner Aussicht an. Wir sehen die Stadt, die hohen Berge British Columbias, den Strand. Sonnenstrahlen fallen auf den Gipfel eines Berges auf der anderen Seite der Bucht. Wir könnten gefühlt nicht weiter vom Silicon Valley entfernt sein, dem Epizentrum des heutigen KI-Booms. "Ich bin kein religiöser Mensch, aber dieser Ausblick überwältigt mich immer wieder", sagt Marcus. Doch trotz der himmlischen Ruhe in der Natur nutzt Marcus auf solchen Spaziergängen oft sein Mobiltelefon, um auf X gegen die Machtstrukturen im Silicon Valley zu wettern. Im Moment, sagt er, sieht er sich als Aktivist.

Als ich ihn frage, was ihn motiviert, antwortet er ohne ein Zögern: "Die Leute, die KI betreiben, kümmern sich nicht wirklich um das, was man als verantwortungsvolle KI bezeichnet. Die Folgen für die Gesellschaft könnten schwerwiegend sein."

Ende letzten Jahres hat er ein Buch mit dem Titel "Taming Silicon Valley" ("Die Zähmung des Silicon Valley") geschrieben, das im Herbst erscheinen wird. Es ist sein Manifest, wie KI reguliert werden sollte, gleichzeitig auch ein Aufruf zum Handeln. "Wir müssen die Öffentlichkeit in den Kampf einbeziehen, um die KI-Unternehmen dazu zu bringen, sich verantwortungsvoll zu verhalten", sagt er. Es gebe eine Reihe von Maßnahmen, die die Menschen ergreifen können, vom Boykott einiger Softwareprodukte bis hin zur Wahl von Politikern, die sich an einer ethischen Technologiepolitik orientieren.

Direkte Maßnahmen und eine konkrete KI-Politik seien dringend erforderlich, weil wir uns in einem sehr engen Zeitfenster befänden, in dem wir die Dinge in der KI noch in Ordnung bringen können. Das Risiko bestehe darin, dass wir die gleichen Fehler machen, die der Staat bei den sozialen Medien gemacht hat. "Was wir [dort] gesehen haben, ist nur eine Vorspeise dessen, was noch passieren wird", sagt er. Etwa 12.000 Schritte später sind Marcus und ich zurück am Public Market auf Granville Island. Ich habe großen Hunger und Marcus zeigt mir einen Laden, in dem es gute Bagels gibt. Wir bestellen beide Lachs mit Frischkäse, essen draußen in der Sonne und verabschieden uns dann.

Später am Tag des Interviews wird Marcus noch eine Reihe von X-Postings über Sora absenden. Er habe genügend Beweise gesehen. "Sora ist fantastisch, aber es ähnelt eher einem Morphing und Splicing als einem echten Weg zum physikalischen Denken, das wir für eine Allgemeine Künstliche Intelligenz brauchen würden", schreibt er. Es seien mehr Fehler im System zu erwarten, wenn mehr Nutzer Zugang erhalten. "Vieles davon wird nur schwer zu beheben sein." Sagen wir also nicht, Marcus hätte uns nicht gewarnt.

(jle)