Gigantische KI-Chip-Pläne: Spekulation, Größenwahn oder Irrsinn? – Eine Analyse

OpenAI-CEO Altman will angeblich Billionen Dollar in die Halbleiterbranche stecken, um mehr KI-Chips zu fertigen. Das wird eher nichts, meint Christof Windeck.​

In Pocket speichern vorlesen Druckansicht 70 Kommentare lesen

(Bild: Tatiana Shepeleva/Shutterstock.com)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Der Chef der KI-Firma OpenAI schmiedet mit Investoren angeblich gewaltige Pläne, um die Produktion von KI-Chips anzukurbeln. Diese Spekulationen hat das Wall Street Journal (WSJ) ohne konkrete Angabe von Quellen veröffentlicht. Es ist aber fraglich, ob sich diese angebliche Idee zur Umgestaltung der Halbleiterbranche umsetzen lässt.

Ein Kommentar von Christof Windeck

Christof Windeck ist leitender Redakteur im Hardware-Ressort von c’t. Der Elektrotechniker schreibt seit 1999 über Prozessoren, PC-Komponenten, Server, Rechenzentren, Embedded Systems, Firmware und Security. Christof Windeck (Kürzel ciw) betreut auch die c’t-Kolume Bit-Rauschen und den zugehörigen Podcast.

Die vergleichsweise junge KI-Branche jagt zwar von einem Erfolg zum Nächsten. So richtig viel Geld verdienen dabei aber bisher nur relativ wenige Firmen. Und das sind interessanterweise oft nicht die Entwickler oder Anbieter von gigantischen KI-Modellen, die Sprache, Bilder, Videos, Musik oder Gesundheitsdaten verarbeiten. Sondern es sind Hardwarefirmen wie Nvidia oder auch Broadcom, die Chips für KI-Computer herstellen. Das hat schon manchen Vergleich mit den Goldrausch-Episoden im 19. Jahrhundert heraufbeschworen: Damals verdienten nur sehr wenige Glücksritter an den eigentlichen Goldfunden. Das viel bessere Geschäft machten die Verkäufer von Schaufeln, Werkzeugen und Verpflegung.

Doch beim neuen KI-Goldrausch ist klar: Der eigentliche Clou ist die Software, nicht die Hardware. Zwar gibt es eine Wechselbeziehung: Ohne die enormen Fortschritte der Chips bei Rechenleistung und Effizienz wäre der KI-Boom nicht passiert, das gilt vor allem für sehr große Modelle. Aber ohne immer weiter verfeinerte KI-Software wäre bei KI gar nichts passiert.

Die untereinander hart konkurrierenden Anbieter großer KI-Modelle haben ein gemeinsames Problem und das heißt Nvidia. Denn seit einigen Jahren wird ein erheblicher Teil vor allem der Riesenmodelle auf den Rechenbeschleunigern Nvidia A100 "Ampere" und H100 "Hopper" trainiert. Erst seit wenigen Wochen scheint AMD mit der Instinct MI300X einen ernsthaften Konkurrenten liefern zu können. Andere Ansätze wie Amazon Trainium und die Cerebras Wafer Scale Engine WSE-2 heben nicht so recht ab oder eignen sich nicht so gut für lukrative KI-Modelle.

In der Praxis bilden Nvidia-Karten einen Flaschenhals für aufstrebende KI-Firmen. Nur wer genügend Beschleuniger ergattern kann – ob selbst gekauft oder in der Cloud gebucht – kann neue Modelle frühzeitig trainieren und sich einen Vorteil verschaffen.

Weil es bisher zu wenige attraktive Alternativen zu Nvidia-Chips gibt, bestimmt letztlich Nvidia, welche KI-Firma bessere Chancen bekommt. Nvidia beteuert zwar, man lasse so viele der neuesten Chips produzieren und montieren wie nur irgend möglich. Doch es reicht bisher nicht, meinen viele Experten.

Die Knappheit an Rechenbeschleunigern für AI-Training droht das Wachstum an KI-Anwendungen zu bremsen. Denn viele KI-Modelle sind bisher nicht reif genug für den breiten Einsatz. Wenn man sie aber nicht schnell genug trainieren kann, dann lassen sich Versprechungen über "bald" deutlich tollere Modelle nicht erfüllen. Daran könnten Risikoinvestitionen scheitern.

Ein konkretes Beispiel liefert der ChatGPT-Entwickler OpenAI. Der schmückt sich mit allerlei Superlativen wie einem gigantischen geschätzten Börsenwert von bis zu 90 Milliarden US-Dollar für eine 800-Menschen-Firma. Auch will OpenAI eine der wenigen Firmen sein, die innerhalb von nur zehn Jahren nach Gründung mehr als 1 Milliarde US-Dollar Umsatz schafft.

Doch die Sache hat einen schweren Haken: OpenAI verdient noch lange kein Geld. Denn die Entwicklung und der Betrieb großer KI-Modelle verschlingen viele Milliarden an Gehältern, Hardwareinvestitionen und Energiekosten oder Cloudmieten.

Wenn aber keine Chance besteht, rasch an viel mehr Rechenleistung zu kommen, steht so manches KI-Geschäftsmodell auf der Kippe. Denn Geld verdienen will man ja erst in der Zukunft – aktuell fährt man riesige Verluste ein. Das sind folglich hochspekulative Investitionen.

Laut den vom Wall Street Journal veröffentlichten Spekulationen spricht OpenAI-CEO Sam Altman nun unter anderem mit der arabischen Investitionsfirma G42, um gewaltige Summen für eine Umwälzung der Hableiterfertigungsbranche einzuwerben. Anscheinend ist das Ziel, die Fertigungskapazitäten enorm zu erweitern und vermutlich auch die Fertigungskosten zu senken.

Die Zahlen, um die es geht, haben mit der heutigen Realität der Chipbranche nichts zu tun. Denn die ist zwar essenziell für viele Bereiche unseres täglichen Lebens, setzte aber im Jahr 2023 "nur" rund 535 Milliarden US-Dollar weltweit um. Das ist nur ein Bruchteil dessen, was beispielsweise weltweit mit Pkws umgesetzt wird (rund 1,8 Billionen US-Dollar). Viele andere Branchen sind deutlich größer.

Das WSJ kolportiert aber unter Berufung auf "informierte Personen" (people familiar with the matter), Altman spreche über 5 bis 7 Billionen US-Dollar (5 to 7 trillion USD). Das WSJ selbst zitiert den erfahrenen Halbleiter-Analysten Stacy Rasgon, der diese Zahlen für wahnsinnig hoch hält. Selbst über viele Jahre laufenden Investitionsprogramme wie das von Korea von über 400 Milliarden US-Dollar wirken dagegen winzig.

Noch einmal zur Erinnerung: Wir diskutieren hier nur Spekulationen. Aber falls daran ein Fünkchen Wahrheit ist, schimmert dabei Glaube durch, dass man mit beliebig viel Geld auch beliebige Ziele erreichen kann. Das ist in Wirklichkeit aber eher nicht so oder es dauert zumindest sehr lange.

Denn der Chipbranche fehlt nicht nur Geld, um deutlich schneller zu wachsen. Es fehlt auch an Energie für Chipfabriken, an geeigneten Bauplätzen, an Infrastruktur, an Materialien für die Produktion sowie vor allem an Fachleuten. Derzeit gibt es nur die drei Firmen TSMC, Samsung und Intel, die Strukturbreiten unterhalb von rund 5 Nanometern fertigen können oder das bald beherrschen wollen. Alle drei hängen bei manchen Maschinen an jeweils einzelnen Zulieferern, bekanntestes Beispiel sind Lithografiesysteme von ASML.

Daran ist ausgerechnet der kolportierte Gesprächspartner von Sam Altman schon einmal gescheitert. Denn G42 gehört zum staatlichen Fonds Mubadala der Vereinigten Arabischen Emirate. Und Mubadala kaufte seinerzeit AMD die Chipfertigung ab, um Globalfoundries aufzubauen. Eines der Ziele war auch eine arabische Chip-Fab – Energie und Geld wäre dort ja genug vorhanden, so der Gedanke. Doch die Pläne verliefen im Sande. Einige Beobachter schätzten damals, dass schlichtweg Fachleute fehlten.

Nur der Vollständigkeit halber: G42 investiert derzeit auch gemeinsam mit Cerebras in ein weltweites Netz von KI-Supercomputern namens Condor Galaxy.

Ein weiterer Punkt kommt in diesen Überlegungen nicht vor, obwohl er auf der Hand liegt: Es geht auch bei der KI-Hardware zu einem großen Teil um Software. Denn Nvidia liegt nicht zufällig so weit in Führung und scheffelt damit Milliarden. Vielmehr pflegt Nvidia seit fast 17 Jahren die Programmierschnittstelle (API) CUDA. Wie kein anderes Unternehmen in diesem Bereich hat es Nvidia geschafft, nicht nur die eigenen Chips zu optimieren (die bekanntlich bei Auftragsfertigern wie TSMC und Samsung vom Band laufen), sondern auch die API und die Chips optimal aneinander anzupassen.

Es ist wahrscheinlich ein Irrglaube, dass man in wenigen Jahren einen anderen Chip entwickeln und fertigen lassen kann, der auch nur annähernd die praktisch nutzbare Performance liefert wie ein jahrzehntelang fortentwickeltes Produkt. Auch AMD arbeitet nun schon seit 2011 an seiner damals Heterogeneous System Architecture (HSA) genannten Vision, die nur sehr, sehr langsam reifte.

Mehrere Projekte zur Entwicklung konkurrierender KI-Trainingsbeschleuniger scheiterten. Das 2021 hochgejubelte Projekt Tesla Dojo scheint etwa zwei Jahre in der Versenkung verschwunden zu sein – erst im Sommer 2023 begann die Konstruktion.

Und damit wären wir beim wichtigsten Punkt: Der Aufbau einer Art "besseren Chipindustrie" würde Jahrzehnte dauern – Zeit, die OpenAI und Sam Altman nicht haben. Denn nicht nur die KI-Modelle wachsen rasend schnell, sondern auch die damit verbundenen Kosten.

Was sollen dann also die Spekulationen um Billioneninvestitionen? Wird vielleicht andersherum ein Schuh daraus, nämlich, dass der vermeintlich bevorstehende KI-Durchbruch doch noch recht weit entfernt ist, weil erst noch viel stärkere Chips erfunden werden müssen?

(ciw)