Ilya Sutskever, Mitbegründer und leitender Wissenschaftler von OpenAI, spricht am 5. Juni 2023 an der Universität Tel Aviv in Tel Aviv. | Bildnachweis: JACK GUEZ/AFP / Getty Images Wir befinden uns in einem einzigartigen Moment für KI-Unternehmen, die ihr eigenes Foundation Model entwickeln.
Erstens gibt es eine ganze Generation von Branchenveteranen, die sich bei großen Tech-Unternehmen einen Namen gemacht haben und nun ihren eigenen Weg gehen. Ebenso gibt es legendäre Forscher mit enormer Erfahrung, aber unklaren kommerziellen Ambitionen. Es besteht eine klare Chance, dass zumindest einige dieser neuen Labore zu Giganten in der Größe von OpenAI werden, aber es gibt auch Raum dafür, dass sie interessante Forschung betreiben, ohne sich allzu viele Gedanken über die Kommerzialisierung zu machen.
Das Endergebnis? Es wird zunehmend schwierig zu erkennen, wer tatsächlich versucht, Geld zu verdienen.
Um die Dinge zu vereinfachen, schlage ich eine Art gleitende Skala für jedes Unternehmen vor, das ein Foundation Model entwickelt. Es ist eine Skala mit fünf Stufen, bei der es nicht darauf ankommt, ob tatsächlich Geld verdient wird – sondern nur, ob man es versucht. Die Idee dahinter ist, Ehrgeiz zu messen, nicht Erfolg.
Sie können es sich folgendermaßen vorstellen:
Die großen Namen befinden sich alle auf Stufe 5: OpenAI, Anthropic, Gemini und so weiter. Die Skala wird mit der neuen Generation von Laboren, die jetzt starten, mit großen Träumen, aber schwerer erkennbaren Ambitionen, interessanter.
Entscheidend ist, dass die Personen in diesen Laboren im Allgemeinen frei wählen können, auf welcher Stufe sie sich bewegen möchten. Es gibt derzeit so viel Geld im KI-Bereich, dass niemand nach einem Geschäftsplan fragt. Selbst wenn das Labor nur ein Forschungsprojekt ist, sind Investoren glücklich, dabei zu sein. Wenn Sie nicht besonders motiviert sind, Milliardär zu werden, könnten Sie auf Stufe 2 ein glücklicheres Leben führen als auf Stufe 5.
Probleme entstehen, weil es nicht immer klar ist, wo ein KI-Labor auf der Skala einzuordnen ist – und ein Großteil des aktuellen Dramas in der KI-Branche resultiert aus dieser Verwirrung. Viel der Besorgnis über den Wandel von OpenAI von einer gemeinnützigen zu einer gewinnorientierten Organisation entstand, weil das Labor jahrelang auf Stufe 1 war und dann fast über Nacht auf Stufe 5 sprang. Andererseits könnte man argumentieren, dass Metas frühe KI-Forschung fest auf Stufe 2 war, obwohl das Unternehmen eigentlich Stufe 4 anstrebte.
Vor diesem Hintergrund folgt hier ein kurzer Überblick über vier der größten aktuellen KI-Labore und wie sie auf der Skala einzuordnen sind.
Humans& war die große KI-Nachricht dieser Woche und Teil der Inspiration für die Entwicklung dieser Skala. Die Gründer haben eine überzeugende Vision für die nächste Generation von KI-Modellen, bei denen Skalierungsgesetze zugunsten von Kommunikations- und Koordinationstools in den Hintergrund treten.
Trotz aller begeisterten Berichterstattung hat sich Humans& zurückhaltend dazu geäußert, wie sich dies in tatsächlich monetarisierbare Produkte übersetzt. Es scheint, dass das Team tatsächlich Produkte entwickeln möchte; man will sich jedoch nicht auf etwas Konkretes festlegen. Das Konkreteste, was sie bisher gesagt haben, ist, dass sie eine Art KI-Tool für den Arbeitsplatz entwickeln wollen, das Produkte wie Slack, Jira und Google Docs ersetzt, aber auch grundlegend neu definiert, wie diese Tools funktionieren. Arbeitsplatzsoftware für eine post-software Arbeitswelt!
Es ist mein Job, zu verstehen, was das bedeutet, und ich bin bei dem letzten Teil immer noch ziemlich verwirrt. Aber es ist gerade konkret genug, um sie auf Stufe 3 einzuordnen.
Das hier ist wirklich schwer einzuordnen! Im Allgemeinen, wenn eine ehemalige CTO und Projektleiterin von ChatGPT eine Seed-Runde über 2 Milliarden Dollar einwirbt, muss man davon ausgehen, dass es einen ziemlich klaren Fahrplan gibt. Mira Murati erscheint mir nicht als jemand, der ohne Plan einsteigt, deshalb hätte ich zu Beginn von 2026 TML auf Stufe 4 einsortiert.
Aber dann kamen die letzten zwei Wochen. Der Weggang von CTO und Mitgründer Barret Zoph sorgte für die meisten Schlagzeilen, unter anderem aufgrund besonderer Umstände. Doch mindestens fünf weitere Mitarbeitende verließen mit Zoph das Unternehmen, viele mit Verweis auf Bedenken hinsichtlich der Ausrichtung. Bereits nach einem Jahr arbeitet fast die Hälfte des Gründungsteams von TML nicht mehr dort. Eine Lesart wäre, dass man dachte, einen soliden Plan zu haben, um ein weltklasse KI-Labor zu werden, aber feststellte, dass der Plan doch nicht so solide war. Oder anders gesagt: Sie wollten ein Labor auf Stufe 4, erkannten aber, dass sie eher auf Stufe 2 oder 3 waren.
Es gibt noch nicht genügend Beweise für eine Herabstufung, aber es ist knapp davor.
Fei-Fei Li ist einer der angesehensten Namen in der KI-Forschung, bekannt vor allem für die Einführung der ImageNet-Challenge, die moderne Deep-Learning-Techniken ins Rollen brachte. Sie hat derzeit einen von Sequoia gestifteten Lehrstuhl an der Stanford University inne, wo sie zwei verschiedene KI-Labore mitleitet. Ich erspare Ihnen eine Aufzählung aller Ehrungen und Akademiemitgliedschaften, aber es genügt zu sagen: Wenn sie wollte, könnte sie den Rest ihres Lebens damit verbringen, Preise entgegenzunehmen und zu hören, wie großartig sie ist. Ihr Buch ist übrigens auch ziemlich gut!
Als Li also im Jahr 2024 bekannt gab, 230 Millionen Dollar für ein Spatial-AI-Unternehmen namens World Labs eingesammelt zu haben, könnte man meinen, dass man sich auf Stufe 2 oder darunter bewegt.
Aber das ist über ein Jahr her – eine lange Zeit in der KI-Welt. Inzwischen hat World Labs sowohl ein vollständiges Weltgenerierungsmodell als auch ein darauf basierendes kommerzielles Produkt veröffentlicht. Im gleichen Zeitraum gab es deutliche Anzeichen für Nachfrage im Bereich Weltmodellierung sowohl aus der Videospiel- als auch aus der Spezialeffektbranche – und keines der großen Labore hat etwas Vergleichbares entwickelt. Das sieht stark nach einem Unternehmen auf Stufe 4 aus, das vielleicht bald auf Stufe 5 aufsteigt.
Safe Superintelligence (oder SSI), gegründet vom ehemaligen OpenAI-Chef-Wissenschaftler Ilya Sutskever, scheint ein klassisches Beispiel für ein Startup auf Stufe 1 zu sein. Sutskever hat große Anstrengungen unternommen, um SSI von kommerziellem Druck abzuschirmen, bis hin dazu, ein Übernahmeangebot von Meta abzulehnen. Es gibt keine Produktzyklen und – abgesehen vom noch in Entwicklung befindlichen superintelligenten Foundation Model – scheint es überhaupt kein Produkt zu geben. Mit diesem Pitch hat er 3 Milliarden Dollar eingesammelt! Sutskever war schon immer mehr an der Wissenschaft der KI interessiert als am Geschäft, und alles deutet darauf hin, dass es sich im Kern um ein wirklich wissenschaftliches Projekt handelt.
Dennoch bewegt sich die KI-Welt schnell – und es wäre töricht, SSI völlig aus dem kommerziellen Bereich auszuschließen. In seinem jüngsten Auftritt bei Dwarkesh nannte Sutskever zwei Gründe, warum SSI sich neu ausrichten könnte: entweder „wenn sich herausstellt, dass die Zeithorizonte lang sind, was möglich ist“, oder weil „es von großem Wert ist, wenn die beste und leistungsfähigste KI in der Welt einen Einfluss hat“. Mit anderen Worten: Wenn die Forschung entweder sehr gut oder sehr schlecht läuft, könnten wir erleben, dass SSI auf der Skala schnell einige Stufen nach oben springt.