Ich habe mal wieder etwas von Ed Zitron gelesen. Erneut zum Thema OpenAI. Laut Ed wird die Blase OpenAI und generative AI platzen, und Auswirkungen auf die ganze Tech Industrie haben. Entschuldige bitte den etwas reißerischen Titel.

Ich habe mit Hilfe von ChatGPT (wie meta 🫣) das Ganze mal hinterfragt und wollte kurz meine Schlüsse teilen. Und warum das gut für Apple 🍎 sein könnte.

Der Artikel von Ed lautet „OpenAI Is A Systemic Risk To The Tech Industry“.

Kurze Zusammenfassung, falls du das nicht lesen willst. Es ist recht lang.

OpenAI hat kürzlich eine Finanzierungsrunde über 40 Milliarden US-Dollar angekündigt, von denen bisher nur 10 Milliarden eingegangen sind. Die restlichen 30 Milliarden sollen bis Ende 2025 folgen, sind jedoch an Bedingungen geknüpft, darunter die Umwandlung von OpenAI in ein gewinnorientiertes Unternehmen. SoftBank plant, 20 Milliarden beizusteuern, allerdings teilweise durch Kredite finanziert, was die Stabilität der Zusagen infrage stellt.

Mit einem geschätzten Jahresumsatz von 4 Milliarden US-Dollar im Jahr 2024 wird OpenAI mit dem 75-Fachen seines Umsatzes bewertet – eine Bewertung, die Zitron als überzogen und spekulativ einstuft.

Außerdem stellt Ed noch dar, wie OpenAI jedes Jahr 40 Milliarden benötigt um überleben zu können. Und SoftBank, der Hauptinvestor muss sich schon sehr strecken, einmalig die 40Mrd. bereitzustellen. (Details dazu im Artikel).

Hier jetzt ChatGPTs Kommentar und Analyse.

Zitrons Analyse wirkt überspitzt, trifft aber in den Kernaussagen ins Schwarze:
• Kosten & Skalierung: Richtig: OpenAI hat hohe variable Kosten pro Nutzer (v. a. bei GPT-4) und ist nicht natürlich skalierbar. Die Monetarisierung über ChatGPT Plus reicht nicht aus, um die Betriebskosten zu decken.
• Finanzierungsrisiko: Korrekt: OpenAI hängt stark von externer Finanzierung (v. a. Microsoft) ab. Ohne diese Subventionen wäre das aktuelle Modell nicht tragfähig.
• Sicherheitsbedenken: Ernstzunehmend: Verkürzte Prüfphasen bei neuen Modellen wurden mehrfach intern kritisiert. Der Zielkonflikt zwischen „schnell liefern“ und „sicher entwickeln“ ist real.
• Systemische Gefahr: Etwas übertrieben: OpenAI ist wichtig, aber nicht alleiniger Pfeiler der KI-Branche. Es gibt Alternativen und Diversifizierung.

Kurzfazit: Zitrons Analyse ist polemisch, aber inhaltlich weitgehend fundiert – besonders, was Wirtschaftlichkeit und Sicherheitsrisiken betrifft.

Spätestens Ende 2026 sollte sichtbar sein, dass die Blase platzt. Oder sie ist dann bereits geplatzt. Wir werden es sehen. Aus dem Artikel wird auch klar, warum es eigentlich gar nicht anders gehen kann.

Wenn es so kommt, wie beschrieben, implodieren alle generativen AI Anbieter, wie OpenAI, Anthropic etc. Um dann weiterhin AI nutzen zu können, muss man also selbst AI betreiben können. Das würde heißen, man hat sein eigenes Datencenter, mietet sich Kapazität bei AWS oder Azure oder nutzt andere Möglichkeiten. Für mich heißt das, dass das Betreiben von AI lokal auf dem eigenen Rechner, nur noch wichtiger wird. Und dafür machen sich Apple Computer mit dem Apple Silicon Chips wirklich fantastisch. Apple ist zwar zu blöde Siri und ihre eigene Apple Intelligence richtig hinzubekommen, aber LLMs etc laufen mit Hilfe von Ollama ziemlich gut. Wenn die Tools die man nutzt, also darauf optimiert werden, dann wäre das ein Gewinn für uns alle. Viel viel viel Energiebedarf in den Rechenzentren würde eingespart werden können. Milliarden an Kosten für den Betrieb würde nicht mehr benötigt werden.

Was ich noch nicht weiß/verstehe/sehe: Wie die Weiterentwicklung der AI Lösungen laufen wird. Ich habe Schwierigkeiten mir vorzustellen, dass nach dem Platzen der Blase AI komplett weggeht. Unter anderem, wie eben beschrieben. Aber die Weiterentwicklung der Modelle wird fortgeführt werden.

Vermutlich werden die Chinesen am Meisten davon profitieren, wenn OpenAI hops geht, da sie wirtschaftlich nicht damit verbandelt sind—anders als die meisten nicht chinesischen AI Player.