Lexer-Lux schreibt auf Twitter/X, dass er ein Plugin für ein Spiel seit Jahren mit Claude Opus programmiert hat. Nun kommt Opus 4.7 heraus und weigert sich, das Projekt weiter zu entwickeln. Wegen Sicherheitsbedenken, das Plugin sei ein Hack, behauptet Claude. Auf Rückfrage gibt Claude dann aber sogar zu, dass es gar kein Hack, sondern gutartig ist, weigert sich aber trotzdem, weiterzuarbeiten. An seinem eigenen Code! Weil Security!
Zwar ist es mir nicht gelungen, zu recherchieren welches Plugin das genau ist. Ein anderer User schreibt jedoch im besagten Thread von Lexer-Lux, dass das Gleiche ihm bereits mit Opus 4.5 passiert ist. Auch dies konnte ich nicht näher verifizieren, aber das ist tatsächlich nicht so wichtig für das, worum es mir mit diesem Beitrag geht (Sie werden gleich sehen, warum).
Andere Baustelle: Ich selbst nutze Claude Opus schon seit geraumer Zeit nicht mehr. Ich finde es völlig unverschämt, wie brutal es Token verbrennt. Und diese Token kosten dann auch noch Premium-Preise. Nun kommt also Opus 4.7 heraus und Anthropic schreibt auf seiner Website „Opus 4.7 verwendet einen neuen Tokenizer im Vergleich zu früheren Modellen, was zu seiner verbesserten Leistung bei einer Vielzahl von Aufgaben beiträgt. Dieser neue Tokenizer kann bis zu 35% mehr Token für denselben festen Text verwenden.“ Also, Claude hat bisher schon Token verschwendet wie verrückt, aber jetzt noch 35% mehr davon. Immerhin, die Preise pro Token wurden nicht angehoben gegenüber 4.6. Aber das heißt natürlich trotzdem, entweder via API-Key steigen die Kosten für Anthropic erheblich wegen noch mehr Token, oder aber bei Account Auth sind die Limits viel schneller erreicht – was dann das Arbeiten damit ziemlich verunmöglicht, selbst mit Max-Plan für 200 US$/Monat.
Und noch ein dritter Aspekt, von dem man munkelt, dass auch OpenAI bald ein solches Konzept umsetzen will: Das sagenumwobene neue Anthropic-Modell Claude Mythos wird nur noch ausgewählten Unternehmenskunden zugänglich gemacht.
In Summe: Wenn SW-Entwicklung von einzelnen Gatekeepern abhängig wird, die entweder völlig willkürlich die Weiterarbeit an Projekten verweigern können, oder die Preise bis zum Mond anheben entweder via Token-Kosten oder via Token-Verbrauch, oder die besten Modelle gar nicht mehr allgemein verfügbar machen, dann sehen wir einen äußerst gefährlichen Trend, der Software unter die Kontrolle von sehr wenigen ausgesuchten Playern bringen kann.
Ich glaube aber, man verrechnet sich da gründlich. Ich denke, es existiert ein Ceiling, also eine Obergrenze für das, was ein LLM leisten kann. Ich vertrete da zwar wohl eine Minderheitenmeinung, aber ich bin mir sehr sicher, mit einem LLM wird man kein AGI und erst recht kein ASI erreichen. Es gibt ja mittlerweile einige Accounts auf TikTok oder Twitter/X, die sich dem verschrieben haben, immer wieder zu belegen, wie selten blöd KI manchmal sein kann. Ich selbst habe kürzlich ebenfalls etwas in der Richtung erlebt, völlig harmlos zwar, aber es illustriert das Problem recht gut: Ich wollte eine Rezension für ein Essay von der KI. Einfach nur Grammatik, Orthographie, Logikfehler, Verständlichkeit, sowas, bewerten lassen.
In meiner Frage an die KI dazu verschrieb ich mich jedoch, und bat um eine Bewertung für eine Erzählung. Tja, und dann bekam ich eine längliche und umfangreiche Kritik, dass das keine Erzählung sei, sondern ein Essay, und dass diese Erzählung deshalb hü und hott schlecht sei.
Sie verstehen, worauf ich hinauswill. Irgendein sogar nur durchschnittlich intelligenter Mensch hätte begonnen zu lesen, und dann erstmal rückgefragt „Sag mal, meintest du vielleicht Essay?“ Und danach eine Rezension für ein Essay gemacht. Aber die KI ist am Ende eben doch nur eine stumpfe Maschine, sie assoziiert sich stattdessen eben irgendeinen Blödsinn zusammen über eine Erzählung, die deshalb schlecht sei, weil sie geschrieben ist wie ein Essay. (Beispiele in diese Richtung finden Sie, wie gesagt, in den sozialen Medien bei darauf spezialisierten Autoren zuhauf.)
Es ist, wie ich schon mehrfach hier im Blog geschrieben habe, eben gerade keine Intelligenz, was Künstliche Intelligenz ist. Intelligenz bedeutet, sich auf die Umwelt einstellen zu können („Sag mal, meintest du vielleicht Essay?“). Künstliche Intelligenz hingegen ist in Wahrheit eine sozusagen Programmiersprache, mit der man statistische Wahrscheinlichkeitsanalysen durchführen kann, ohne an der Uni dafür studieren zu müssen.
Und deshalb wird es kein AGI (= KI kann alles mindestens so gut wie ein durchschnittlicher Mensch) und erst recht kein ASI (= KI kann alles besser als irgendein Mensch) mit einem LLM je geben, davon bin ich überzeugt. Mit dieser Technologie (LLM) jedenfalls zumindest nicht. Und falls die Macher hinter den großen LLM-Modellen das tatsächlich glauben würden, und nicht nur als Marketing zur Einwerbung von Kapital herumposaunen – dann gehen sie von einem falschen Verständnis von Intelligenz aus, meiner Meinung.
Tja, und was bedeutet das alles für uns als Entwickler? Ich denke, der Schlüssel ist, dass, wie ich schon weiter oben schrieb, KI eigentlich nur eine neuartige – und extrem leistungsfähige – Programmiersprache ist, also ein Interface, dem Computer zu sagen, was er ausführen soll. Sie hat den riesigen Vorteil, dass sie jeder spricht, denn sie ist natürliche Sprache. Was aber nichts daran ändert, dass es weiterhin Ingenieure braucht – Problemanalyse und Prozessdenken sind immer noch genauso wichtig wie schon zur Zeit der Lochkarten oder von Assembler.
Außerdem haben alle Programmiersprachen die inhärente Tendenz, dass sie nur als Open Source funktionieren. Versuche, Programmiersprachen zu monetarisieren, hat es immer wieder gegeben, sie sind sämtlich gescheitert. Geld kann man damit verdienen, diese Programmiersprachen anzuwenden und damit Produkte zu erstellen, aber nicht mit der Sprache selbst. Die landet notwendig unter Open Source-Lizenz.
Die Zukunft (und übrigens schon der Ursprung) von KI, die eigentlich auch nur eine Programmiersprache ist, ist also Open Source – und das sehen wir auch schon längst. Die freien Modelle hinken zwar immer noch den großen Kapitalsammlern hinterher, aber sie holen kontinuierlich auf. Und es kommt etwas hinzu: Nehmen wir an, es gäbe – völlig willkürlich gewählt – ein Maß für die Schwierigkeit eines Problems, und dieses sei für eine gegebene Aufgabe 70. Dann spielt es keine Rolle, ob das Modell, das Sie für diese Aufgabe verwenden, eine Lösungskapazität von 87 oder 92 hat. Beide können das Problem lösen. Und mit zunehmender Leistungsfähigkeit der KI-Modelle gibt es insgesamt immer weniger Probleme, die überhaupt schwierig genug sind, dass sie den Einsatz des zwar etwas leistungsfähigeren, dafür aber viel teureren und vor allem in einem Walled Garden eingesperrten Gatekeeper-Modells rechtfertigen würden. Und ob es ein Ceiling für die Leistung von LLMs gibt oder nicht, spielt dabei übrigens gar keine Rolle. (Obwohl die Zeichen dafür immer klarer werden – die Fortschritte werden immer langsamer, wenn man mal die Marketing-Rhetorik ignoriert.)
Es wird an der Entwickler-Community liegen, ob sie den einfachen Weg geht und sich in den Walled Garden der Großen einsperren lässt. Das ist bequem, aber jederzeit könnte die, eingangs beschriebene, Falle aus dem Dreiklang von Gatekeeping, Kosten und Exklusivität zuschlagen. Für die Open Source-Modelle hingegen ist die Nutzung vielleicht etwas sperriger und hat noch nicht die allerneuesten Möglichkeiten. Aber man bewahrt sich seine Freiheit. Und ohne die, denken Sie an Linux, MariaDB, OpenSSH, oder noch sonstwieviele Projekte, auf denen tatsächlich das Fundament der ganzen IT-Industrie ruht, nützt am Ende der Walled Garden auch den Großen nichts. Die sägen an dem Ast, auf dem sie selber sitzen, und es ist ja die größte Ironie überhaupt, dass ohne diese endlos vielen freien Projekte KI, auch deren KI, nie so gut und nützlich hätte werden können, wie sie unbestreitbar mittlerweile ist.

