Der KI-Pionier Yann LeCun, einst Leiter des AI-Projekts bei Meta, glaubt, dass die gesamte KI-Branche derzeit einen falschen Ansatz verfolgt, der in die Sackgasse führt. Das wäre eine gute Nachricht für Firmen wie SAP. Doch der KI-Gott handelt wohl nicht ganz uneigennützig.

Yann LeCun, Preisträger des Turing-Awards und lange Jahre Leiter der KI-Forschung bei Meta, ist mit harscher Kritik an den gegenwärtigen KI-Modellen vom Schlage ChatGPT oder Claude an die Öffentlichkeit gegangen. In einem Video, das auf Plattformen wie „X“ verbreitet wurde, sagt LeCun, Modelle wie ChatGPT, Claude, Gemini und Grok könnten im Kern nur das nächste Wort vorhersagen und würden deshalb kein echtes Weltverständnis besitzen.

In der Software- und Entwicklerbranche tobt seit Monaten ein Streit um die Frage, ob die KI-Modelle wirkliche Probleme verstehen und lösen oder nur per „Token-Vorhersage“ eine wahrscheinliche Lösung generieren.

LeCun selbst glaubt letzteres – und hat deshalb ein eigenes Unternehmen namens AMI Labs gegründet, für das er in einer ersten Seed-Runde stolze 1,03 Milliarden Dollar einsammeln konnte. Die Gesamtbewertung soll bei 3,5 Milliarden Dollar liegen – obwohl AMI Labs noch keinen Cent Umsatz gemacht hat. Als Investoren werden unter anderem Jeff Bezos, Nvidia, Samsung, Toyota, Temasek, der langjährige Google-Chef Eric Schmidt, Mark Cuban und Tim Berners-Lee genannt.

Physikalische Gesetze statt Token-Vorhersagen

Statt Sprache zu skalieren, will AMI Labs ein Modell entwickeln, das abstrakte Repräsentationen der Realität lernen kann, indem es physikalische Zusammenhänge kennt und daraus Planungen und Vorhersagen ableiten kann. Während heutige Systeme Texte, Mails oder Code erzeugen, könne ein solcher Ansatz in Fabriken, Robotik oder Medizin eingesetzt werden, verspricht LeCun, weil so ein Modell weniger halluziniere und die Realität besser begreife.

Auch wenn OpenAI und Anthropic großen Wert darauf legen, dass ihre neuesten Modelle, anders als früher, auch „Reasoning“ beherrschen würden – also die logische Zerlegung und Ableitung eines Problems bis hin zur Transferleistung und Schlussfolgerung –, spricht LeCun ihnen diese Fähigkeiten völlig ab. „Es kann nicht logisch denken. Es kann nicht planen. Es kann nicht mal vorhersagen, was passiert, wenn man ein Glas vom Tisch stößt. Ein Zweijähriger kann das. GPT-5 kann das nicht“, kommentiert einer seiner Mitarbeiter unter dem Post.

„Auch diese Generation wird wieder falsch liegen“

Seit den 1950er Jahren hätten KI-Entwickler immer wieder gedacht, sie hätten jetzt ein System, das schon bald mit dem Menschen gleichziehen werde, „und sie lagen jedes Mal falsch“. Er selbst habe in seinem bisherigen Leben drei solcher Generationen erlebt, „und auch diese Generation mit den LLMs wird wieder falsch liegen“, sagt er in einem Videoclip auf „X“.

Für Aktien, die an der Börse seit Jahresanfang in diversen „KI-Trades“ rund um die Agenten von Anthropic heruntergeprügelt wurden, wäre das eine gute Nachricht. Allen voran für Softwarefirmen wie SAP, ServiceNow oder Adobe oder auch für Wissensdatenbanken-Anbieter wie Wolters Kluwer oder RELX. Ihre Aktienkurse würden sich schnell wieder erholen, sobald klar wird, dass Modelle wie Claude oder ChatGPT ihnen eben doch (noch) nicht das Wasser reichen können.

Flossen hunderte Milliarden an Investitionen in die falsche Technik?

Die schlechte Nachricht: Ein Großteil der bereits getätigten Investitionen in KI-Rechenzentren wäre womöglich verloren, wenn andere, neue KI-Modelle anders rechnen und arbeiten. Benötigen sie dafür dann auch noch Chips von Nvidia? Lässt sich ein Tensor-Chip, den Broadcom zusammen mit Google für austrainierte LLMs entwickelt hat, dann überhaupt noch einsetzen?

Hunderte Milliarden an Investitionen, die Microsoft, Alphabet, Meta & Co. in einer der größten Wetten der Menschheit bereits aus ihren Cashflows finanziert haben, wären dann verloren.

Neue KI-Modelle müssen nicht Zeichen, sondern Zahlen verstehen

Noch muss LeCun beweisen, dass er recht hat. Noch haben OpenAI und Anthropic einen riesigen Wissens-Vorsprung, den sie stetig ausbauen. Ihre KI-Modelle werden immer besser, so scheint es. Aber werden sie auch nachträglich Physik lernen können?

Thomas Rappold, Tech-Investor und selbst Programmierer, hat jüngst in einem Video-Interview mit BÖRSE ONLINE darauf hingewiesen, dass es völlig ineffizient sei, Zahlenkolonnen aus Excel-Tabellen zunächst in Zeichen zu übersetzen, damit man sie durch ein LLM jagen kann – und am Ende zurückzuübersetzen. Stattdessen müssten effiziente KI-Modelle direkt mit Zahlen und Fließkommazahlen arbeiten können. Ein Unternehmen wie SAP arbeite schon daran.

LeCuns Argumente gehen in eine ähnliche Richtung. Es wird spannend sein zu erfahren, welche der beiden Schulen am Ende Recht behält.

Jetzt den neuen Börsenbrief zum Mega-Them KI abonnieren

Sie wollen in Sachen Künstliche Intelligenz und Quantencomputing immer auf dem neuesten Stand sein und frühzeitig auf Investitionschancen hingewiesen werden? Dann sollten Sie den neuen Börsenbrief „kiqreport“ abonnieren.

Der erste Monat ist zur Probe frei, danach zahlen Sie nur 48 Euro im Monat und sind auf dem wohl wichtigsten Zukunftsfeld unserer Zeit immer up to date.

Hier direkt den kiqreport abonnieren


Hier sehen Sie das Videointerview mit Thomas Rappold auf unserem Youtube-Kanal

Weiterführende Links

Häufige Fragen zum Thema

Was ist ein LLM?

Die Abkürzung LLM steht für „Large Language Model“. Diese gehören zur Kategorie der Deep-Learning-Modelle, deren gemeinsame Eigenschaft es ist, dass sie auf riesigen Datenmengen trainiert wurden und daher in der Lage sind, natürliche Sprache und andere Arten von Inhalten zu verstehen und zu generieren. Das versetzt sie in die Lage, eine breite Palette von Aufgaben zu erfüllen.

Was sind bekannte LLMs?

Fast alle derzeit in der Breite bekannten KI-Anwendungen basieren auf LLMs. Dazu gehören allen voran ChatGPT von OpenAI, Grok von Elon Musks xAI/SpaceX, Gemini von Google oder Claude von Anthropic.

Warum sehen einige Experten den grundsätzlichen Ansatz der LLMs kritisch?

LLMs basieren auf Zeichen (Tokens) und arbeiten auf Basis von Wahrscheinlichkeiten. Je nachdem, wie oft und in welchem Zusammenhang sie eine Fragestellung oder Code schon einmal in den Daten gelesen haben, liefern sie das wahrscheinlichste Ergebnis. Kritiker sagen, dass LLMs deshalb immer nur bereits Gehörtes oder Gelesenes ausspucken können und keine grundlegend neuen Ideen auf Basis von Gesetzmäßigkeiten generieren. Der im Artikel genannte Yann LeCun sagt, dass vor allem die Tatsache, dass LLMs in menschlicher Sprache kommunizieren, ihre Anwender zu der Fehleinschätzung führe, sie seien dem Menschen ebenbürtig.