Der KI-Boom verbrachte seine frühen Jahre damit, wie Software zu agieren: schnell, schwerelos, unendlich skalierbar und völlig immun gegen die Gesetze der Zeitplanung. In letzter Zeit verhält sich der KI-Boom jedoch eher wie Infrastruktur – die Art, die Genehmigungen, Strom, Beton und jemanden benötigt, der bereit ist, die schwierige Phase zwischen „versprochen“ und „profitabel“ zu finanzieren.
Am Wochenende gab es zwei Schlagzeilen – zwei Hinweise.
In Taiwan trat Nvidia-CEO Jensen Huang öffentlich mit dem Versprechen auf, dass sein Unternehmen „eine große Menge Geld“ in OpenAI investieren werde – „wahrscheinlich die größte Investition, die wir je getätigt haben“. Gleichzeitig stellte er klar, dass der seit letztem Herbst kursierende Blockbuster-Betrag von 100 Milliarden US-Dollar nicht als wörtlicher Scheck zu verstehen sei. Während der Markt noch analysierte, was das bedeuten könnte, empfahl eine Notiz von Wedbush am Montagmorgen den Investoren, „den Wald vor lauter Bäumen zu sehen“ und bezeichnete dieses Hin und Her als „Mini-Seifenoper“.
Fast wie auf Kommando legte Oracle einen Plan vor, im Jahr 2026 zwischen 45 und 50 Milliarden US-Dollar aufzubringen – eine Mischung aus Eigenkapital, eigenkapitalgebundenen Instrumenten und Anleihen – um weiterhin die cloud-Kapazitäten zu schaffen, die von einer Kundenliste vertraglich gefordert werden, die sich liest wie das Who-is-Who des KI-Wettrüstens (OpenAI, AMD, xAI, Meta, TikTok und, ja, Nvidia). Während die Aktien zur Mittagszeit etwa 2 % im Plus lagen, legt Oracle die KI-Ängste des Marktes offen auf den Tisch: Aktienkurs 50 % unter dem Höchststand des Vorjahres, rund 450 Milliarden Marktkapitalisierung ausgelöscht, Investoren fokussiert auf die Frage, was nötig ist, um Rechenzentren (und signifikantes Umsatzwachstum) rechtzeitig zu liefern und anhaltende Zweifel, ob OpenAI überhaupt zahlen kann.
Entscheidend ist, dass es bei den Geschichten zu Nvidia und Oracle nicht um „KI ist die Zukunft“ geht. Es geht darum: „KI ist teuer und irgendjemand muss dafür bezahlen.“
Stellt man diese beiden Geschichten zusammen, argumentieren sie plötzlich über dasselbe: einen Boom, der beginnt, seine eigenen Grenzen einzupreisen. KI wird zum Kapitalmarkt-Trade, bei dem nicht nur die mit den besten Modellen gewinnen, sondern auch die, die den Ausbau weiter finanzieren können, ohne die Bilanz (oder das Stromnetz) zu sprengen. Zusammen zeigen sie auf Einschränkungen, denen Demos egal sind: die Kapitalkosten, das Ausbautempo und die Toleranz des Marktes für Geld, das immer wieder bei denselben wenigen Akteuren landet.
Seit Monaten klingt die kursierende OpenAI-Zahl wie ein einziger, filmreifer Akt: 100 Milliarden US-Dollar, ausgesprochen, als wäre es eine Überweisung und kein mehrjähriges Bauprojekt. Am Wochenende machte Huang das, was CEOs tun, wenn eine Zahl zu laut wird: Er machte daraus wieder einen Prozess. Er sagte Reportern in Taipeh, die vorgeschlagene 100-Milliarden-Dollar-Investition sei „nie eine Verpflichtung“ gewesen, und beschrieb OpenAIs Anfrage als Einladung, „bis zu 100 Milliarden Dollar“ zu investieren, wobei Nvidia „Schritt für Schritt“ vorgehe.
Das ist eine Umdeutung. Huang sagte auch, Nvidia werde „auf jeden Fall“ an der aktuellen Finanzierungsrunde von OpenAI teilnehmen und dass es sich um „eine riesige Investition“ handeln werde. Aber diese Lücke – die größte überhaupt, aber nicht die Zahl – macht aus der Schlagzeile „Nvidia finanziert OpenAI“ etwas viel Finanzialisierteres: gestufte Verpflichtungen, Optionen und die Art von Unklarheit, die jedem erlaubt, weiter zu verhandeln.
Nvidia hat diese Phase im Kapitalismus in der besten Position verbracht: unentbehrlich, allgegenwärtig und weitgehend unbeeinflusst davon, welches Modell den Talentwettbewerb gewinnt. Wählen Sie Ihren Champion, bauen Sie Ihren Chatbot, benennen Sie Ihre Produktsuite um, erklären Sie den Sieg. Nvidias Chips tauchen trotzdem immer wieder als Fixkosten auf. Das ist die Traumposition in einem Hype-Zyklus: Verkaufen Sie die Inputs, vermeiden Sie Marktrisiken, kassieren Sie die Gebühren. Diese Haltung funktioniert, weil die Begrenzung moderner KI die Rechenleistung war – und Rechenleistung bedeutete Nvidia-Chips in Serverracks, die jemand anderem gehören.
Eine große Investition in OpenAI macht Nvidia vom Waffenlieferanten zu etwas, das eher einem strategischen Förderer ähnelt – zumindest in der öffentlichen Wahrnehmung – und diese Wahrnehmung zählt, weil die anderen Giganten in diesem Rennen zunehmend versuchen, Nvidia über die Zeit entbehrlich zu machen. Die Unternehmen, die Spitzenmodelle bauen, wollen Hebel. Die Unternehmen, die für Spitzenmodelle zahlen, wollen Rabatte. Die Unternehmen, die mit Spitzenmodellen konkurrieren wollen, wollen Alternativen.
Die wichtigsten Kunden im KI-Zeitalter sind die, die versuchen, das Standard-Interface zur Intelligenz zu werden – Plattformen und Labore, deren Investitionspläne am Ende alle anderen beeinflussen. OpenAI ist eines davon. Die größten Inputkosten sind Rechenleistung. Das Produkt ist Intelligence-as-a-Service. Der Vorsprung hängt davon ab, niemals das Unternehmen zu sein, dem im falschen Moment die Kapazität ausgeht.
Warum sollte Nvidia also investieren?
Ein Grund ist einfach: So wird die Nachfrage abgesichert. Wenn die Ausgaben eines Kunden in Rechenzentren gemessen werden, wird seine Fähigkeit, weiter Geld zu beschaffen, Teil der Umsatzprognose. Ein gut kapitalisiertes OpenAI verbraucht weiterhin Rechenleistung im industriellen Maßstab. Es hält die Nachfrage breit und dringend genug, um den weiteren Ausbau zu rechtfertigen – Rechenzentren, Netzwerke, Stromabkommen, das gesamte teure Ökosystem um „Das nächste Modell braucht mehr“. Es verhindert auch, dass die sichtbarste KI-Marke plötzlich zum kostenbewussten Kunden wird.
Große Käufer werden zu Kostensparern, sobald der Markt nach Gewinnen statt nach Versprechen fragt. Eine Investition ist ein Weg, die Wachstumsstory vor der Kostenstory zu halten.
OpenAI ist ein Vorzeigekäufer der Rechenleistung, die Nvidia verkauft – direkt und über Cloud-Mittelsmänner – und Nvidia hat jedes Interesse, den größten Ausgeber im Ökosystem liquide und ambitioniert zu halten. Die Absichtserklärung vom September sollte OpenAI beim Bau von Rechenzentren mit mindestens 10 Gigawatt Kapazität helfen, ausgestattet mit Nvidia-Chips, was das Prädikat „Investor“ stark nach Nachfrageabsicherung klingen lässt. (Der Deal verzögerte sich Medienberichten zufolge nach internen Bedenken bei Nvidia.) Deshalb kreist der Markt immer wieder um das Wort „zirkulär“, wenn diese Deals aufkommen – nicht, weil jemand glaubt, die Chips seien unecht, sondern weil die Finanzierung wirkt, als würde sie im selben kleinen Sonnensystem aus Unternehmen kreisen, die jeweils die Umsatzstory des anderen gerade so warmhalten, bis die nächste Investitionsrechnung fällig wird.
Jeder große KI-Akteur hat einen Anreiz, die Abhängigkeit von Nvidia im Laufe der Zeit zu verringern – durch Diversifizierung der Lieferanten, Bau eigener Chips oder das Neudesign von Workloads, damit der teure Weg nicht der einzige bleibt. Alphabet treibt seit Langem eigene Tensor Processing Units voran, von Google als speziell entwickelte KI-Beschleuniger für Training und Inferenz beschrieben. Amazon Web Services vermarktet eigene Trainium- und Inferentia-Chips für Trainings- und Inferenzaufgaben. Microsoft baut mit Maia eine eigene KI-Beschleuniger-Linie für Azure.
Auch wenn diese Alternativen Nvidia an der Spitze nicht vollständig ersetzen können, sind sie bereit, zu glaubwürdigen Verhandlungschips zu werden. Wenn der Lieferant auch den Kunden finanziert, fragen Investoren, ob Nachfrage wirklich Nachfrage ist – oder verdeckte Absicherung. Huangs jüngste Botschaften – „riesig“, aber nicht so riesig – halten die strategische Absicht am Leben, während sie die Story wieder einhegen.
Das Update von Oracle ist das andere Ende derselben Leitung. Wenn Nvidias Problem darin besteht, die Nachfrage zu finanzieren, besteht Oracles Problem darin, diese Nachfrage in Gebäude zu verwandeln, ohne dass die Bilanz zum Feindbild wird.
Oracle gab an, 2026 zwischen 45 und 50 Milliarden US-Dollar für den Ausbau der Cloud-Infrastruktur aufzubringen, wobei etwa die Hälfte aus Eigenkapital oder eigenkapitalgebundenen Emissionen stammen soll – darunter Pflichtwandelanleihen und ein At-the-Market-Equity-Programm von bis zu 20 Milliarden – und der Rest aus unbesicherten vorrangigen Anleihen zu Jahresbeginn. Diese Mischung ist ein Indiz: Eigenkapital tut weh, vor allem, wenn der Aktienkurs gelitten hat. Trotzdem setzt man darauf, wenn Anleiheinvestoren und Ratingagenturen sehen sollen, dass man sich nicht durch einen endlosen Bauplan verschuldet.
Das ist ein Statement zur Kapitalstruktur, das Oracle möchte, dass Kreditmärkte, Ratingagenturen und Aktionäre als „Wir verschulden uns nicht ins Verderben“ interpretieren.
Der Skeptizismus gegenüber Oracles KI-Offensive drehte sich nie um die Frage „Gibt es Nachfrage?“, sondern immer um „Wie viele Bilanzen braucht das?“ Oracle steht wegen steigender Verschuldung und der Abhängigkeit von wenigen KI-lastigen Kunden unter verstärkter Beobachtung. Ende letzten Jahres stiegen die Kosten für die Absicherung von Oracles Schulden auf ein Fünfjahreshoch, und Anleihegläubiger reichten im Januar eine Klage wegen der Offenlegung der Finanzierungsbedarfe ein. Deshalb macht Oracle nun das, was der Markt implizit gefordert hat: einen Finanzierungsfahrplan vorlegen und Investoren herausfordern, ihn zu bewerten.
Die ersten Rückmeldungen von Analysten waren Erleichterung, gemischt mit ernüchternder Mathematik. Guggenheim Securities sagte, der Plan sende „eine klare Botschaft an Anleiheinvestoren und Ratingagenturen“ bezüglich des Investment-Grade-Ratings; Barclays meinte, die Kombination aus zusätzlichem Eigenkapital und Pflichtwandelanleihe solle die Schuldenmärkte beruhigen und die Bilanz stärken; Jefferies sagte, der Plan „erkauft Zeit“, warnte aber vor kurzfristigem Margendruck und wies darauf hin, dass der Free Cashflow voraussichtlich erst im Geschäftsjahr 2029 positiv werde. Das ist das offensichtliche Zeitproblem: Der Boom ist immer noch in der Bauphase – und bauen ist teuer.
Selbst die „Keine Panik“-Version dieser Geschichte erfordert noch Jahre Geduld – und sehr wahrscheinlich Verwässerung.
Setzt man Nvidias OpenAI-Neuausrichtung neben Oracles Kapitalplan, wird die Geschichte klarer: Die Ausgaben sind sofort, die Monetarisierung erfolgt langsamer und ist schwerer, im Quartalsrhythmus zu belegen.
Die Notiz von Wedbush am Montag betrachtete die Updates von Nvidia und Oracle als Schritte zur Entspannung der Sorgen um Zirkularität und eine „too big to fail“-Erzählung rund um OpenAI. Das trifft, weil es die Angst unter dem Trade einfängt: eine Schleife, in der sich die gleichen Unternehmen gegenseitig finanzieren, beliefern und Kapazitäten vermieten, bis ein Glied langsamer wird – ein verspätetes Rechenzentrum, ein engerer Kreditmarkt, ein Kunde, der beschließt, die Ausgaben zu optimieren.
Die historischen Vergleiche sind zwar ungenau, aber in gewisser Hinsicht nützlich. Große Infrastrukturzyklen brechen selten, weil die Technologie unecht ist. Sie scheitern, weil die Ausgaben den Zeitplan überholen, der Infrastruktur in nachhaltige Cashflows verwandelt. Zu früh zu sein kann eine Zeitlang dasselbe sein wie falsch zu liegen. KI braucht keinen dramatischen Kollaps, um „ihre Grenzen zu finden“. Es reicht, wenn Kapital teuer bleibt, der Bau langsam vorangeht und die Käufer anfangen, auf die Kosten zu achten, statt mit ihren Budgets zu prahlen. Nvidia versucht, die wichtigsten Nachfrage-Motoren so reich zu halten, dass sie weiterlaufen können. Oracle versucht, die Gebäude zu finanzieren, die die Nachfrage real machen, ohne dass die Finanzierung zur ganzen Geschichte wird.
Eine Zeitlang wurde diese Geschichte in Benchmarks und Produktlaunches geschrieben. Jetzt wird sie in Term Sheets, Anleihekalendern und der Mathematik des Kalenders geschrieben, wie lange es dauert, bis aus einer Bestellung eine betriebsbereite Datenhalle wird. So sieht ein Boom aus, wenn er auf die Teile des Kapitalismus trifft, denen es egal ist, wie schlau dein Modell ist – sondern nur, ob jemand noch bereit ist, dafür zu zahlen.