Nach einer regelrechten Explosion der Zahl neuer KI-Modelle und Anbieter, insbesondere für Sprachmodelle, scheint die Entwicklung aktuell eher langsam voranzugehen: Neue Modelle, etwa jüngst GPT-5, enttäuschen, was ihre Performance angeht. Die Sprünge zwischen den Generationen werden gefühlt kleiner, trotz mehr Rechenleistung und immer größerer Modelle.
Anstatt immer mehr Leistung oder Anpassungen an der sonst relativ gleichbleibenden Architektur vorzunehmen, könnte ein Paradigmenwechsel helfen: weg von Tokens, weg von Modellen, die Wort für Wort Texte formen, weg von statischen Modellen, die sich nicht mehr anpassen lassen.
Aktuelle LLMs auf Transformer-Basis scheinen an eine Art Plateau geraten. Technologien wie GPT-5 liefern zwar solide und bereits durchaus beeindruckende Ergebnisse, doch der technologische Durchbruch bleibt aus. Und ohne menschliche Kontrolle geht es gar nicht, wie schon allein das Problem der KI-Halluzinationen belegt. Ein Blick in die Zukunft zeigt, dass nur ein struktureller Wandel – etwa durch hierarchische Tokenverarbeitung oder vollkommen neue Modellarchitekturen – weitere Fortschritte bringen kann.