AI Index 2023: Über die Hälfte des globalen KI-Wagniskapitals stammt aus den USA

Der aktuelle Bericht aus Stanford zeigt weltweite KI-Trends auf: Corporate Funding führt zu einer Konzentration der KI-Entwicklung – Unis haben das Nachsehen.

In Pocket speichern vorlesen Druckansicht
Titelbild "Artificial Intelligence Index Report 2023" mit Logo Stanford University Human-Centered Artificial Intelligence

(Bild: Stanford University HAI)

Lesezeit: 15 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Der von der Stanford University herausgegebene AI Index Report 2023 deckt eine besonders dynamische Phase der Entwicklung Künstlicher Intelligenz (KI, englisch AI) ab: Im vergangenen Jahr sind generative große KI-Systeme zur Synthese von Text, Bild, Klang, Programmiercode und gesprochener Sprache beinahe im Monatstakt erschienen. Bemerkenswert ist, dass private Investitionen in KI-Projekte im gleichen Zeitraum erstmals seit zehn Jahren zurückgegangen sind, und zwar deutlich – um rund 27 Prozent.

Auffällig ist zugleich, dass die KI-Entwicklung zunehmend von den Handlungen einer überschaubaren Gruppe finanzkräftiger Player aus dem privaten Techniksektor bestimmt wird, während andere gesellschaftliche Akteure, die die breitere Bevölkerung repräsentieren, sowie öffentlich finanzierte Forschungseinrichtungen die laufende Entwicklung derzeit offenbar kaum mitgestalten können. Eine Konzentration der KI-Entwicklung in den Händen von Big Tech zeichnet sich ab, da die Entwicklung neuer, größerer Machine-Learning-Modelle ausgesprochen kostspielig ist.

Bei privaten Investitionen in KI-Start-ups bringen US-Investoren den Löwenanteil auf (über die Hälfte aller weltweit getätigten privaten Investitionen gehen auf US-Kapital zurück), gefolgt von China (etwa ein Viertel der US-Investitionen). Privatinvestoren aus den USA investieren etwa zwanzig mal soviel wie in Deutschland an Privatkapital für die KI-Entwicklung aufgebracht wird. Das Ungleichgewicht im öffentlichen und staatsnahen Bereich ist dabei noch nicht berücksichtigt.

Der AI Index Report ist ein Referenzwerk für die kritische Auseinandersetzung mit der KI-Entwicklung weltweit.Die diesjährige Ausgabe enthält laut Vorwort mehr von den Herausgebern selbst erhobene Daten und Quellenanalysen als bislang. Ein Ziel der Herausgeber ist es, mit dem AI Index "eine besonders glaubwürdige Quelle" für Daten und Einblicke zu Künstlicher Intelligenz bereitzustellen. Neue Kapitel behandeln KI im Bildungswesen sowie AI Public Opinion (Meinungstrends). Auch KI-Gesetzgebung ist in der aktuellen Ausgabe stärker gewichtet: Der AI Index hat seinen Beobachtungsradius von zuvor 25 Ländern auf 127 Länder erweitert.

Die Grundlage der aktuellen Auswertung ist eine für 2022 erhobene Datenbasis. Hinter dem Bericht steht eine interdisziplinäre Gruppe aus Wirtschaft und Forschung – einige einschränkende Hinweise zur weltweiten Aussagekraft folgen am Artikelende. Der Anspruch der Herausgeber ist, durch empirische Daten die Öffentlichkeit in die Lage zu versetzen, die Durchdringung des Alltags und der Wirtschaft durch KI kritisch zu begleiten.

Der neuen Generation von KI-Technik, die gerade dabei ist, sich in Wirtschaft und Alltag zu etablieren, wird das Potenzial disruptiver Veränderungen zugeschrieben. Die sechste Ausgabe des seit 2018 jährlich erscheinenden Berichts bietet auf 386 Seiten neue Auswertungen zu Foundation Models, deren geopolitischer Bedeutung und Trainingskosten sowie den Auswirkungen von KI-Systemen auf die Umwelt. "Foundation Model" ist ein von Forschern der Universität Stanford geprägter Begriff. Damit sind große Sprachmodelle (LLM) und KI-Modelle mit multimodalen Fähigkeiten gemeint wie ChatGPT, Stable Diffusion, Whisper und DALL·E 2.

Insgesamt gliedert sich der Bericht in acht Kapitel zu den Themen Forschung und Entwicklung, technische Leistung, technische KI-Ethik, Wirtschaft, Bildung, Verwaltung und Staatswesen, Diversität sowie öffentliche Meinung. Die verwendeten öffentlichen Daten sind im Bericht verlinkt, und ein Anhang bietet weiteres Material. Der Stanford-Bericht steckt randvoll mit interessanten Informationen, Einsichten, und Daten aus verschiedenen Erhebungen, aber auch aus Umfragen, die die AI-Index-Gruppe selbst durchgeführt hat. Aufschlussreich sind auch Angaben zu den Trainingskosten verschiedener Modelle, die teils nicht ohne Weiteres im Internet auffindbar sind.

  1. Private Tech-Unternehmen überholen Unis beim Entwickeln neuer ML-Modelle
  2. Leistungssättigung bei den Vergleichswerten, Foundation Models brauchen neue Benchmarks
  3. Umweltbilanz: KI ist zugleich umweltfreundlich und umweltschädlich
  4. Wissenschaft: KI-Modelle beschleunigen naturwissenschaftlichen Fortschritt
  5. Missbrauch von KI-Modellen etwa durch Deepfake nimmt stark zu (26-fach seit 2012)
  6. Arbeitsmarkt: steigende Nachfrage nach professionellen KI-Kenntnissen (USA)
  7. Private Investitionen in KI sind 2022 um fast 27 Prozent gesunken
  8. Unternehmen, die KI bereits einsetzen, profitieren wirtschaftlich deutlich
  9. Politiker zeigen zunehmend Interesse an KI, Gesetzgebung thematisiert KI
  10. Public Opinion zu KI: Chinesen am aufgeschlossensten, Franzosen besonders kritisch

(1) Laut dem Bericht hat die Technikindustrie die akademische Forschung beim Output von Machine-Learning-Modellen inzwischen deutlich überholt. So verzeichnet der AI Index für 2022 insgesamt 32 "bedeutende ML-Modelle" kommerzieller Anbieter gegenüber dreien mit akademischem Ursprung. Bis 2014 seien die meisten bedeutenden Fortschritte in dem Bereich noch aus universitärer Forschung hervorgegangen. Um zeitgemäße (State-of-the-Art-) KI-Systeme zu bauen, sind immer größere Datenmengen, Rechenkraft und Geldmittel erforderlich. Nicht gewinnorientierte Projekte, Crowdsourcing und akademischer Bereich haben zunehmend das Nachsehen.

Unter anderem musste die Stanford University selbst wenige Tage nach der Präsentation ihres LLM Alpaca die Demo des Open-Source-Modells, das die Forscher für kleines Geld erstellt hatten, mangels Resourcen offline nehmen. Es blieb beim Proof of Concept, und dieser neigte zu Halluzinationen. Ein positives Gegenbeispiel wäre Stable Diffusion, dessen Nukleus aus akademischer Forschung der ComputerVision Group an der Universität Heidelberg (später LMU München) mit weiteren Partnern hervorgegangen ist. Welche Kriterien die Herausgeber im Blick hatten, die für sie ein KI-Modell "bedeutsam" (significant) machen, wäre Stoff für eine eigene Diskussion und lässt sich im AI Index nachschlagen.

Top Ten der Institutionen weltweit, gereiht nach der Anzahl ihrer KI-Publikationen (2010-21): Die Chinesische Akademie der Wissenschaften führt konstant und mit weitem Abstand (5099 Publikationen im Jahr 2021). Erst auf Platz 10 folgt mit dem MIT eine nicht-chinesische Institution (1745 Publikationen im Jahr 2021).

(Bild: AI Index 2023 (Stanford))

(2) Bei der Performance haben die neuen Modelle offenbar ein Plateau erreicht; der Bericht spricht von einer Leistungssättigung (Performance saturation) bei den traditionellen Vergleichswerten. Zwar lieferen neue KI-Systeme weiterhin herausragende Ergebnisse, allerdings seien die jährlichen Verbesserungen marginal. Neue Benchmarking-Serien wie BIG-bench von Google und das in Stanford entwickelte HELM zum ganzheitlichen Vergleich großer Sprachmodelle (Holistic Evaluation of Language Models) werden vorgestellt.

(3) Zentral ist auch die Einsicht, dass KI der Umwelt zugleich helfe und schade. So habe der Trainingslauf des Open-Source-Modells BLOOM 2022 so viel CO2 ausgestoßen wie 25 Flugreisende auf einem Flug von New York nach San Francisco. Neue Modelle wie BCOOLER zeigten dafür, dass sich mit KI der Energieverbrauch ebenfalls optimieren lasse. Neue Architekturen wie Sparsity, bei denen nicht mehr das gesamte künstliche neuronale Netzwerk für jeden Input aktiviert wird, bringen mehr Effizienz und reduzieren den Energieverbrauch. Googles PaLM ist ein Beispiel dafür, Nvidia nutzt Reinforcement Learning zum Verbessern des Chip-Designs.

Ambivalenzen verzeichnet der AI Index auch in weiteren Bereichen: (4) KI beschleunige den wissenschaftlichen Fortschritt, habe bei der Wasserstofffusion unterstützt, die Matrixmultiplikation effizienter gemacht und helfe dabei, neue Antikörper in der Impfstoffforschung zu entwickeln. So hat etwa DeepMind 2022 mit Deep Reinforcement Learning einen Algorithmus entdeckt, auf den noch kein Mensch gekommen war: Das KI-System AlphaTensor soll die Matrixmultiplikation signifikant beschleunigen. (5) Auf der anderen Seite steige zugleich der Missbrauch von KI rapide an – seit 2012 um das 26-fache. Der Bericht beruft sich dabei auf das unabhängige, quelloffene AIAAIC-Repository, das Vorfälle des ethischen Missbrauchs von KI dokumentiert.

Die Datenbank verzeichnet ein breites Spektrum an Themen, von Deepfakes Prominenter mittels Midjourney über tödliche Tesla-Unfälle bis hin zu betrügerischen Dating-Algorithmen, ethischen Problemen bei ChatGPT und missglückter Gesichtserkennung. Einer der kritischsten Vorfälle 2022 war ein Deepfake-Video, das eine gefälschte Kapitulationsbotschaft des ukrainischen Präsidenten Selenski verbreitete und die Bevölkerung sowie Unterstützer demotivieren sowie Verwirrung stiften sollte.

Parameteranzahl und die Anzahl von Gleitkommazahlberechnungen bedeutsamer ML-Systeme nach Sektoren, 1950 bis 2022: Dunkelblau steht für Universitäten und akademischen Bereich, violett für die Industrie, grünblau für Kooperationen zwischen beiden, hellblau für Nonprofit, rosa für Forschungskollektive. Die zunehmende Bedeutung der Industrie (und der materiellen Ressourcen) bei der Größe von Machine-Learning-Modellen wird hier klar sichtbar.

(Bild: AI Index 2023 (Stanford))

(6) Für den Arbeitsmarkt scheint der AI Index sich exklusiv auf die USA zu beziehen: KI-bezogene Fachkenntnisse seien in allen US-amerikanischen Branchen, für die Daten vorliegen, gefragt; die Nachfrage steige. Landwirtschaft, Forstwirtschaft, Fischerei und Jagd haben die Herausgeber offenbar ausgeklammert. Der Bericht zieht die Anzahl KI-bezogener Stellenausschreibungen heran, die 2022 um 0,2 Prozentpunkte auf 1,9 Prozent aller ausgewerteten Stellen zugelegt haben.

(7) Die weltweiten Ausgaben für private Investitionen in KI-Startups lagen 2022 bei 91,9 Milliarden US-Dollar (rund 85 Milliarden Euro). Das entspreche einem Rückgang um 26,7 Prozent gegenüber dem Vorjahr. Die USA führen dabei mit 47 Milliarden Dollar weit vor der Volksrepublik China (13 MIlliarden Dollar). Deutschland liegt auf Platz 7 (2,35 Miliarden Dollar).

Erstmals seit zehn Jahren sind die privaten Investitionen in KI somit zurückgegangen. Trotz des Rückgangs hätten die KI-Investitionen über die vergangenen zehn Jahre hinweg insgesamt deutlich zugelegt, und seien 2022 18mal höher gewesen als 2023. Zählt man auch Übernahmen und Fusionen sowie Investitionen in etablierte Unternehmen hinzu, sind 2022 fast 190 Milliarden Dollar investiert worden – zwölf mal so viel wie 2013.

(8) Bemerkenswert ist, dass der Anteil an Unternehmen, die KI neu einführen, zurückgegangen ist. Demgegenüber sind aber solche Unternehmen, die KI bereits einsetzen, laut Report auf dem Vormarsch. Wer KI eingeführt hat, berichtet den Herausgebern zufolge von Kostensenkungen und Umsatzsteigerungen. Auch hier kommt es auf den Betrachtungszeitraum an: Der Anteil an Unternehmen, die KI 2022 einsetzten, hat sich im Vergleich zu 2017 (dem ersten vom AI Index erfassten Jahr) verdoppelt und offenbar ein Plateau zwischen 50 und 60 Prozent erreicht, wie aus Surveydaten von McKinsey hervorgeht.

Links: Autoren großer Sprachmodelle nach Ländern, 2019–22 – Rechts: Geschätzte Trainingskosten ausgewählter großer Sprachmodelle und multimodaler Modelle, 2019–22

(Bild: AI Index 2023 (Stanford))

(9) Politische Entscheidungsträgerinnen und -entscheidungsträger interessieren sich zunehmend für KI. So ergab eine Analyse der Gesetzgebungsdaten zu KI aus 127 Ländern, dass sich im Jahr 2022 37 Gesetzesentwürfe mit KI befassten – im Jahr 2016 war es lediglich ein einziger Gesetzesentwurf. Eine Auswertung der parlamentarischen Aufzeichnungen aus 81 Ländern belegt laut AI Index, dass das Thema KI inzwischen 6,5 mal so oft vorkomme wie im Jahr 2016.

(10) Bei der öffentlichen Meinung zu neuer Technik, KI-Produkten und -Services schneiden autoritär geführte Länder auffällig positiv ab, was Anschlussfragen zur Erhebungspraxis aufwirft, und ob hier ein repräsentativer Teil der Bevölkerung zu Wort gekommen ist, nach welchen Kriterien die Befragten ausgewählt wurden und inwiefern sie sich frei äußern durften. So schrieben 78 Prozent der chinesischen Teilnehmer einer IPSOS-Befragung KI-Produkten positive Attribute zu, ähnlich wie Umfrageteilnehmer aus Saudi-Arabien (76 Prozent). Auch für Indien waren die Rückmeldungen positiver (71 Prozent) als für die Vereinigten Staaten von Amerika, deren Befragte nur zu 35 Prozent der Aussage zustimmten, dass Produkte und Services, die KI nutzen, mehr Vor- als Nachteile aufweisen.

Öffentliche Meinung: Zustimmung zur Aussage "Produkte und Dienstleistungen, die KI einsetzen, haben mehr Vor- als Nachteile", Aufschlüsselung nach Ländern – In China, Saudi-Arabien und Indien war die Zustimmung besonders hoch (71 bis 78 Prozent), in Frankreich, Kanada, den Niederlanden, USA und Deutschland verhältnismäßig niedrig (31 bis 37 Prozent).

(Bild: AI Index 2023 (Stanford) – IPSOS-Survey 2022)

Der jährliche KI-Bericht des Instituts für menschenzentrierte KI (Institute for Human-Centered Artificial Intelligence, kurz HAI) der Stanford University in Kalifornien gilt als eine der maßgeblichen Quellen zur globalen KI-Entwicklung. Eine interdisziplinäre Gruppe aus akademischen Institutionen und Wirtschaft erstellt ihn gemeinsam – so sind auch Forscher von Anthropic und Hugging Face daran beteiligt. Der AI Index Report trackt, sammelt, kondensiert und visualisiert Daten mit Bezug zu Künstlicher Intelligenz (KI). Dem Steering Committee gehören renommierte KI-Forscher wie Erik Brynjolfsson (Stanford University) und Jack Clark (Anthropic) an.

Die Herausgeber wenden sich an Führungskräfte, denen der Bericht eine Datengrundlage für Entscheidungen bieten soll. Der AI Index Report gilt als unabhängige Quelle zum Stand der internationalen KI-Entwicklung, allerdings weist er ausgeprägteren Bezug zur US-amerikanischen Wirtschaft und den dortigen sozialen, wirtschaftlichen und gesellschaftlichen Verhältnissen auf. Zielgruppe sind primär Entscheidungsträger, die für ihre Organisationen, Unternehmen und in der Politik Orientierung zum Stand der Künstlichen Intelligenz suchen.

Im Zentrum des Reports steht laut Herausgebern eine verantwortungsvolle, ethisch vertretbare und menschenzentrierte Entwicklung von KI. Für den AI Index arbeiten sie mit verschiedenen Organisationen zusammen, etwa mit dem Center for Security and Emerging Technology (Georgetown University), Linkedin, Netbase Quid, Lightcast und McKinsey. Google, OpenAI, die Non-Profit-Organisation Open Philanthropy und die National Science Foundation (NSF) mit Sitz im US-Bundesstaat Virginia zählen zu den Partnern. Letzteres ist eine seit 1950 bestehende unabhängige US-Behörde, deren Aufgabe die finanzielle Unterstützung von Forschung und Bildung "auf allen Feldern der Wissenschaften mit Ausnahme der Medizin" ist.

Relevante Machine-Learning-Systeme nach Ländern, 2002-2022 (quantitativ): weiß (null), dunkelblau (1-10), blaugrün (11-20), hellgrün (21-60) und gelbgrün (61-255). Deutschland, Frankreich und die Schweiz befinden sich im blaugrünen Bereich mit jeweils 11 bis 20 als bedeutsam eingestuften ML-Modellen. Kanada, Großbritannien und China verfügen über 21 bis 60 als bedeutsam gerwertete Modelle. Die USA nehmen mit offenbar 255 solchen Modellen eine Sonderstellung ein. Auffällig ist, dass der gesamte afrikanische Kontinent weiß geblieben ist, obwohl es in zahlreichen afrikanischen Ländern ambitionierte KI-Initiativen gibt.

(Bild: AI Index 2023 (Stanford))

Allein die NSF verfügt über ein jährliches Budget von über acht Milliarden US-Dollar (Angabe für 2020) und stellt in den USA ein Fünftel der öffentlichen Zuschüsse für Grundlagenforschung an den Universitäten. In einigen Fächern wie Mathematik und Informatik stellt die NSF die Hauptquelle für Drittmittel dar, und sie fördert jährlich rund 10.000 Forschungsprojekte. OpenAI ist ein maßgeblich von Microsoft finanziertes ehemaliges Start-up, das seit 2019 gewinnorientiert arbeitet und mit ChatGPT und GPT-4, API-Zugang und Plug-ins zurzeit den globalen Markt für kommerzielle KI-Anwendungen dominiert.

Die US-amerikanische Wettbewerbs- und Verbraucherschutzbehörde FTC wurde von der unabhängigen Forscherorganisation CAIDP (Center for AI and Digital Policy) Ende März 2023 aufgefordert, gegen OpenAI wegen Verstößen gegen das US-Handelsrecht und den Verbraucherschutz bei der Einführung seiner Produkte am US-Markt zu ermitteln. Zur gleichen Zeit ließ Italien den ChatGPT-Zugang landesweit sperren wegen mutmaßlicher Verstöße gegen europäischen Datenschutz sowie mangelnder Altersbeschränkung.

Zwar wurden bei verschiedenen Umfragen Menschen in unterschiedlichen Ländern und Regionen wie China, Saudi-Arabien, Indien und Europa befragt und Daten zu den verschiedenen Weltregionen verglichen. Mit Blick auf die Partnerorganisationen und Sponsoren des AI Index Report liegt ein praktischer Schwerpunkt allerdings auf US-Institutionen und -Unternehmen. Dies gilt es beim Durchgehen des Berichts und dem Übertragen etwa auf europäische Verhältnisse im Hinterkopf zu behalten. Insbesondere, wenn der Report als Grundlage für wirtschaftliche Entscheidungen dienen sollte. Beim raschen Überfliegen fiel auf, dass außer Stable Diffusion offenbar keine europäischen Foundation Models berücksichtigt wurden. Dabei weist der ebenfalls in Stanford vom Center of Research on Foundation Models (CRFM) entwickelte HELM-Vergleich (Holistic Evaluation of Language Models) in seiner aktuellen Ausgabe ein breiteres Spektrum grundlegender Machine-Learning-Modelle auf, als der AI Index 2023 berücksichtigt hat – teils auch aus Europa.

Unklar wirkt etwa die Zuweisung von Innovationen an die Länder ihrer Autoren: Sind Nationalitäten gemeint oder der Hauptwohnsitz? Würde die Entwicklung eines ausgewanderten deutschen Ingenieurs als US-Innovation zählen? Was ist mit Projekten, die über mehrere Länder verteilt aufgestellt sind? Dass der gesamte Kontinent Afrika bar jeglicher als bedeutungsvoll eingestufter KI-Modelle sein soll, rüttelt auf, könnte aber auch auf einen Bias in der Datenbasis hinweisen – denn es gibt zahlreiche afrikanische KI-Initiativen und Strategien und eine nennenswerte Graswurzel-KI-Bewegung in den Ländern Afrikas. Was "bedeutungsvoll" ist, könnte in anderen Teilen der Welt durchaus anders gesehen werden als im Rahmen einer durch die US-Brille erstellten Untersuchung.

Zum Einstieg eignet sich die nach Kapiteln sortierte Zusammenfassung ab Seite 11. Jedem Kapitel ist ein navigierbares Inhaltsverzeichnis vorangestellt. Der vollständige Bericht lässt sich im Internet einsehen.

Update

Abschnitt zu Europa und Afrika ergänzt.

(sih)