You ain’t seen nothing yet

Während die Menschheit sich noch müht, auch nur ansatzweise mit den neuen KI-Technologien Schritt zu halten, stehen bereits Weiterentwicklungen in den Startlöchern, die Künstliche Intelligenz in Regionen katapultieren, die den Menschen hoffnungslos überfordern. 1 Sekunde für die Antwort, und der Mensch liest eine halbe Stunde daran … Man benötigt diese Geschwindigkeits­fortschritte für Echtzeit-Anwendungen. Aber wie der Mensch dabei noch mithalten soll, ist völlig unklar. Woher diese enorme Beschleunigung kommt, fragen Sie jetzt vielleicht? Das Zauberwort heißt Diffusion.

Diffusion ist ein Konzept, das man in der KI bisher eigentlich nur zur Erzeugung von Bildern und Videos kennt.  Diffusion, der Name klingt nach Physik – und das ist kein Zufall. In der Natur beschreibt Diffusion, wie sich beispielsweise ein Tropfen Tinte in einem Glas Wasser langsam ausbreitet, bis alles gleichmäßig verteilt ist. Aus Struktur wird Chaos. KI-Forscher haben diesen Prozess umgekehrt. Einem Bild wird zufälliges Rauschen hinzugefügt, bis nur noch graues Pixelrauschen übrig ist.  Genau diesen Prozess lernt das Modell dann rückwärts. Es startet mit reinem Rauschen und verfeinert das Bild Schritt für Schritt, bis ein scharfes, kohärentes Ergebnis entsteht. Das Entscheidende dabei: Das Modell lernt nicht, ein Bild direkt zu „malen“. Es lernt, Rauschen zu erkennen und zu entfernen – und das iterativ, in vielen kleinen Schritten.

Inception Labs, ein kalifornisches KI-Start-up (investiert u.a. von Microsoft, NVIDIA und Snowflake), hat mit Mercury 2 ein Modell vorgestellt, das den Diffusion-Ansatz auf die Erzeugung von Text überträgt. Das Modell hat bereits viel Aufsehen erregt. „Laut Inception ist Mercury 2 damit mehr als fünfmal schneller als herkömmliche Modelle und erreicht 1.009 Tokens pro Sekunde auf Nvidia-Blackwell-GPUs. Die End-to-End-Latenz liegt bei nur 1,7 Sekunden“, schreibt Heise.

Diffusion bei Text mit einem dLLM (Diffusion Large Language Model) funktioniert so:

  1. Initialisierung: Das Modell startet mit einem „Rauschen“ – einer Menge von Token-Vorschlägen, die unvollständig oder teilweise inkorrekt sind.
  2. Iterative Verfeinerung: In mehreren Durchläufen (meist 10-50 Schritte) verfeinert das Modell diese Token gleichzeitig.
  3. Parallele Optimierung: Statt „Erst Wort A, dann Wort B“ wird die gesamte Passage betrachtet: „Wie kann ich diese 100 Token so anpassen, dass sie zusammen maximal sinnvoll sind?“

Warum das schneller ist:

  • Autoregressive Modelle brauchen N Forward-Passes für N Token (sequentiell)
  • Diffusionsmodelle brauchen K Forward-Passes für N Token, wobei K oft deutlich kleiner ist als N

Probieren Sie es aus! Hier ist ein Demo-Chat, mit dem Sie es selbst testen können. Die Antwortgeschwindigkeit ist wirklich umwerfend. Hier ist noch ein Video, mit dem der Inception-CEO Prof. Stefano Ermon von der Stanford University sein neues dLLM vorstellt. Und hier ist der Blog-Eintrag des Unternehmens dazu.

Was KI kann, und was nicht

Architekt und Androiden bauen eine Brücke. KI-generiert (Nano Banana 2 Pro).

Es wird immer wilder, was die neuen KI-Coding-Assistenten zuwege bringen. Neulich ging es durch die Presse, Anthropic hat Claude einen Compiler bauen lassen. Einen Compiler! Compiler-Bau ist sozusagen Hochamt der Informatik. In jedem Informatik-Studium wird man damit konfrontiert, denn nur wenige Dinge machen den Kern der Technologie so deutlich wie ein Compiler. Und jetzt baut die KI einen. Welcher Platz bleibt da noch für den Menschen?

Aber gemach. Die Modular-Entwickler haben sich diesen Compiler angesehen und einen Code-Review gemacht. Und, tja, dieser Compiler funktioniert zwar, aber ist doch eher ein Spielzeug.  Die Fehlerbehandlung und Parser-Rücksetzung sind schwach. System-Header werden nicht geparsed, sondern für Tests hardcoded.  KI kann offenbar Muster aus dem Training gut zusammensetzen, scheitert aber bei offener Generalisierung jenseits der Test-Suite.

KI ist exzellent darin, bekannte Abstraktionen zu implementieren – nicht jedoch neue zu erfinden. Wenn Erfolg klar messbar ist (Tests bestehen, kompiliert), funktioniert iteratives Verbessern hervorragend. Innovation hingegen erfordert Urteilsvermögen ohne messbares Ziel.

Wenn Implementierung per KI trivial wird, verschiebt sich der Fokus. Von „Wie bauen wir es“ zu „Was bauen wir“. Von Zeile-für-Zeile-Codierung zu Architektur und Design. Zu mehr spezialisierten Werkzeugen, zu mehr Experimenten.

Chris Lattner, CEO von Modular und Autor des verlinkten Artikels, empfiehlt deshalb drei Schritte:

  • KI aggressiv einsetzen, aber Verantwortung behalten – KI beschleunigt, ersetzt aber kein Urteilsvermögen oder Testing
  • Menschliche Arbeit „hochziehen“ – weg von mechanischer Arbeit (Rewrites, Migrationen), hin zu Design und Architektur-Entscheidungen
  • In Struktur und Dokumentation investieren – KI verstärkt gute und schlechte Struktur. Gut dokumentierte Systeme profitieren dramatisch, chaotische werden zu Alpträumen

Ich kann es aus meiner Erfahrung als Entwickler bestätigen. Nach Jahren freue ich mich nur sehr selten über eine gelungene Code-Umsetzung. Aber über die Ideen, wie Software intelligent Aufgaben lösen kann, und dabei entweder jede Menge Zeit spart, oder Dinge realisiert, die ein Mensch nicht leisten kann – über diese Ideen und Konzepte freue ich mich immer noch, wenn ich damit mal wieder zu tun habe. „Schau, er weiß, dass an der Stelle das-und-das nur so-und-so sein kann, und deshalb macht er gleich dies-und-jenes; und der Benutzer muss keine sinnlose Rückfrage beantworten“, solche Dinge. Und ehrlich gesagt, dabei ist es mir immer herzlich schnurz, wie genau ich das damals in den Code geklopft habe.

Wenn Ausführung einfacher wird, wenn moderne Coding-Modelle mittlerweile sogar besseren Code generieren als die meisten Menschen – dann gewinnen Vision, Urteilsvermögen und Geschmack an Bedeutung. Die Zukunft gehört Teams, die neue Werkzeuge annehmen und gemeinsam bessere Software designen.

Im reinen Coding wird es der Menschheit bald ergehen, wie beim Schachspielen. Da bin ich mir ziemlich sicher. Aber ob KI tatsächlich jemals in die echte Domäne des Menschen eindringen wird, der Sphäre von Kreativität, Fantasie und „Out-of-the-box“-Denken – das ist für mich, sogar mit all den technologischen Durchbrüchen der letzten Zeit, nur immer fraglicher geworden.

China außer Rand und Band


Video starten

Quelle Video: Chinesisches Staatsfernsehen, Live-Übertragung der Neujahrsfeier

Oh je, was soll nur aus China werden? Dranbleibflaschendeckel gibt es nicht, aber krumme Gurken. China weigert sich auch, Elektrizität ausschließlich mit mittelalterlichen Technologien zu gewinnen. Und es zwingt seine Bürger nicht dazu, nur Heizungen zu verwenden, die um so schlechter funktionieren, je kälter es ist, und final zerstört sind, sobald mal 2, 3 Tage der Strom ausfällt im Winter. Man stelle es sich vor! Auch die Beförderungstechnologie wird nicht etwa mit einer Energieform erzwungen, die man ausreichend keinesfalls zur Verfügung stellen kann und will.

Und die Kinder! Sehen Sie es sich an, die lassen ihre Kinder Gymnastik machen! Dabei weiß doch jeder, dass Kinder schon im Kindergarten lernen müssen, dass sie im falschen Körper sind und zum anderen Geschlecht umgeschnitzt werden müssen. Sonst könnten die Kinder doch wieder Kinder bekommen!

Was soll nur aus China werden? Ein großes und ruhmreiches Land mit vieltausendjähriger Geschichte zerstört sich selbst. Wie kann man heutzutage sich mit solchem Roboter-Firlefanz und akrobatischen Kindern abgeben. Die Chinesen können einem einfach nur leid tun.

PS: Das Video mit der Roboter-Soldaten-Brigade erspare ich Ihnen. Sie können es sich bestimmt selbst vorstellen, wie diese Kungfu-Roboter mit einer Maschinenpistole in der Hand unerbittlich vorrücken, gegen was auch immer befohlen wird als Feind zu sehen.

Das Glas ist weder halb leer, noch halb voll

Halbvolles Glas in einem Büro. KI-generiert (Nano Banano Pro 2).

In unserem letzten Beitrag haben wir Ihnen die Thesen von Matt Shumer vorgestellt. Er malt darin eine schon sehr bald eintretende Zukunft, in der mehr oder weniger sämtliche „Weißer-Kragen“-Berufe arbeitslos werden. Was er ausblendet: Man mag ja glauben, dass es die „Blauer-Kragen“-Berufe später erwischt, aber wer bezahlt eigentlich den Klempner, wenn Rechtsanwälte und Programmierer ihn sich nicht mehr leisten können?

Man müsste es, folgt man Matt Shumer, schon mit Elon Musk halten, der das Paradies auf Erden verspricht, eine Welt, in der die Produktivität um das Tausendfache steigt, und jeder, wirklich jeder, im Überfluss leben würde. Musk möchte ja nicht nur KI, sondern auch mehr Roboter als Menschen. Und er behauptet, daraus entstünde eine Welt, in der niemand mehr arbeiten muss und dennoch jeder mehr hat, als er überhaupt brauchen kann. Allein, die Geschichte lehrt uns: Gesellschaften, in denen große Teile der Bevölkerung ökonomisch überflüssig werden, tendieren nicht zum Utopia, sondern zur Instabilität – und Schlimmerem. Mal abgesehen davon, womit die Menschen dann ihre Zeit verbringen wollen … Warum gibt sich Musk eigentlich so viel Mühe, dem Planeten zu entfliehen?

Aber es nutzt ja nichts, Schwarzmalerei in die eine oder andere Richtung zu betreiben. Was es braucht, ist eine realistische Betrachtung der Situation – ihrer Gefahren, ihrer Möglichkeiten. Eine sehr gute Replik auf Shumers Artikel kommt von Ben Bentzin, Professor für Marketing an der McCombs School of Business. Er weist zunächst darauf hin, dass Shumer als CEO eines KI-Unternehmens ein Eigeninteresse verfolgt, wenn er die Möglichkeiten von KI in den rosigsten Farben malt. Und während Bentzin einerseits die faktisch richtigen Punkte im Essay von Shumer durchaus anerkennt, und auch, dass die neuen Modelle von Anthropic und OpenAI sowie die neuen agentischen Technologien große Durchbrüche sind, weist er auch auf entscheidende Schwachpunkte in Shumers Argumentation hin.

Bentzin schreibt, Shumer mache den klassischen Fehler der Tech-Elite: Er generalisiert aus seiner Domäne auf die gesamte Wirtschaft. In der Software-Branche gibt es klare Kriterien, der Code läuft oder nicht, automatische Tests, KI kann die eigene Arbeit prüfen (durch Ausführen des Codes). In anderen Branchen wie Recht, Medizin, Finanzen sind die Erfolgskriterien „messy“, nicht digital bestimmbar. Automatische Verifikationen sind für die KI nicht möglich. Shumer behandelt außerdem „KI kann X tun“ als gleichbedeutend mit „KI wird Menschen bei X innerhalb von Y Jahren ersetzen.“ Aber die Technologie-Geschichte zeigt: Die Lücke zwischen Fähigkeit und ökonomischem Impact ist groß und unvorhersehbar.

Radiologie-KI zum Beispiel ist seit fast einem Jahrzehnt „kurz davor, Radiologen zu ersetzen“ – doch die Beschäftigung von Radiologen ist gestiegen, und solche KI macht immer noch erstaunlich grobe Fehler.

Shumer präsentiert auch exponentielle Capability-Kurven, als würden sie unendlich so weitergehen. Das ist zwar nicht unmöglich, aber die Erfahrung spricht viel mehr dafür, dass die Trends abflachen werden.

Das gilt auch beim Programmieren: Schön, dass man nun nicht mehr wissen muss, wo das Semikolon hin muss. Aber bei der Entwicklung guter Software geht es um weit mehr. Ich würde sogar behaupten, Syntax bzw. Code klopfen ist mittlerweile der kleinere Teil eines erfolgreichen Projekts. Intelligente Benutzerführung, hilfreiche Funktionalität und langfristig stabiles Design sind inzwischen viel wichtiger. Und ich sehe zumindest bisher nicht, dass KI ohne einen qualifizierten menschlichen Partner wirklich gute Software schreiben kann, so sensationell die Fortschritte der neuesten Modelle in diesem Bereich auch sind.

Wie schon seit jeher gilt also, nichts wird so heiß gegessen, wie es gekocht wird. Bentzins Artikel, den wir Ihnen sehr empfehlen, plädiert für einen gesunden Mittelweg: Die neuen Technologien zu ignorieren, wäre ein schwerer Fehler, sie zu überschätzen aber auch. Das Glas ist weder halb leer, noch halb voll – sondern einfach nur doppelt so groß wie nötig, sagt der Informatiker.

Den Artikel von Ben Bentzin „Something Big Is Happening“ Is Worth Reading, Not Swallowing Whole finden Sie unter https://businessai.substack.com/p/something-big-is-happening-is-worth

Etwas Großes geschieht gerade

Ein Mensch, verloren in einer digitalen Wüste. KI-generiert (Nano Banana Pro 2).

https://shumer.dev/something-big-is-happening

Matt Shumer: Ich habe sechs Jahre damit verbracht, ein KI-Startup aufzubauen und in diesen Bereich zu investieren. Ich lebe in dieser Welt. Und ich schreibe dies für die Menschen in meinem Leben, die das nicht tun … meine Familie, meine Freunde, die Menschen, die mir am Herzen liegen und die mich immer wieder fragen: „Was hat es eigentlich mit KI auf sich?“ Und die eine Antwort bekommen, die dem, was tatsächlich passiert, nicht gerecht wird. Ich gebe ihnen immer die höfliche Version. Die Cocktailparty-Version. Denn die ehrliche Version klingt, als hätte ich den Verstand verloren. Und eine Zeit lang habe ich mir gesagt, dass das ein guter Grund sei, das, was wirklich passiert, für mich zu behalten. Aber die Kluft zwischen dem, was ich gesagt habe, und dem, was tatsächlich passiert, ist viel zu groß geworden. Die Menschen, die mir am Herzen liegen, verdienen es, zu erfahren, was auf sie zukommt, auch wenn es verrückt klingt.

Matt Shumer, seit sechs Jahren in der KI-Branche tätig, beschreibt eine persönliche Erkenntnis: Er ist für die technische Arbeit seiner eigenen Firma nicht mehr nötig. Seit dem 5. Februar 2026 – dem Release-Tag von GPT-5.3 Codex (OpenAI) und Opus 4.6 (Anthropic) – beschreibt er das Erlebnis so: Er sagt der KI in einfachen Worten, was er will, geht vier Stunden weg, und kommt zurück zu fertigem, besserem Ergebnis als er selbst es geschafft hätte.

Seine zentralen Beobachtungen: KI baut sich jetzt selbst. GPT-5.3 Codex half eigenhändig bei der eigenen Entwicklung – Debugging, Deployment, Evaluierung. Anthropic-Chef Dario Amodei sagt, KI schreibe inzwischen „viel des Codes“ bei seiner Firma.
Exponential, nicht linear: Organisationen wie METR messen, dass KI heute Aufgaben schafft, die Menschen ~5 Stunden kosten – vor einem Jahr waren es 10 Minuten. Verdopplung alle 4-7 Monate.
Es betrifft alle: Nicht nur Coding. Recht, Finanzen, Medizin, Beratung, Content. Amodei prognostiziert: 50% der Einsteiger-White-Collar-Jobs in 1–5 Jahren verschwinden.
Urteilsvermögen erreicht: Die neuen Modelle zeigen keine reinen Syntax-Fähigkeiten mehr – sie treffen Entscheidungen, die nach „Geschmack“ und „Urteil“ aussehen.

Shumers dringender Rat: Eine Stunde pro Tag mit den aktuellen Modellen (den bezahlten! die freien sind 6 – 12 Monate zurück) arbeiten – nicht als Suchmaschine, sondern als Arbeitswerkzeug. Wer das nächste halbe Jahr früh startet, hat einen Vorsprung, der bald nicht mehr einholbar ist.

Der volle Artikel (auf Englisch) ist lesenswert für alle, die die Geschwindigkeit dieser Entwicklung einschätzen wollen. Für eine deutsche Version verwenden Sie Google Translate https://shumer-dev.translate.goog/something-big-is-happening?_x_tr_sl=auto&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=wapp

Geniales Marketing oder perfider Trick?

Preisvergleich von KI-Anbietern. KI-generiert (Nano Banana 2 Pro).

Wer OpenClaw verwendet, wird schnell feststellen, dass der Token-Verbrauch enorm werden kann. „Erinnerungen auf Steroiden“ haben ihren Preis. Zwar sind die Kosten für Input-Token immer deutlich niedriger als die Kosten für Output-Token, aber wenn jedesmal ein riesiger Berg von Kontext mit dem Prompt mitgeschickt wird, summiert sich das sehr schnell. Hinzu kommt, dass die großen und bekannten Anbieter die Verwendung von Chat-Accounts für Agenten explizit verbieten. Deren Pauschalangebote gelten nur für die Interaktion per Browser. Gibt es Alternativen?

Interessanterweise sind es gerade chinesische Anbieter, die attraktive Angebote speziell für agentische KI entwickelt haben. Vor allem Moonshot (mit dem Abo-Plan für Kimi Code) und MiniMax bieten Pauschalverträge mit garantierten (und günstigen) monatlichen Kosten, und bewerben explizit den Einsatz von Agenten wie OpenClaw damit. Das ist sehr schlau, denn das ist die offene Flanke der großen Anbieter. Deren – Verzeihung – gierige Preisgestaltung öffnet Möglichkeiten für die Konkurrenz, die sich bisher in der Breite noch schwer tut.

Es gibt bei Moonshot und MiniMax Usage-Limits, aber sie sind sehr großzügig bemessen und werden regelmäßig zurückgesetzt. Man kann also bei diesen Anbietern eine OpenClaw-Instanz betreiben zu einem fixen monatlichen Preis von 20 US$ oder noch weniger. Sprich, mit einem bekannten und überschaubaren Kostenrisiko. Neulich las ich einen Tweet, jemand schrieb, er habe OpenClaw mit einem der großen KI-Platzhirsche eingesetzt, und nach nur einem Monat schon über 3.600 US$ Rechnung eingefahren. Aber kein Wunder. Was OpenAI und Anthropic bei der verbrauchsorientierten Abrechnung per API-Key verlangen, sprengt jeden Rahmen, wenn OpenClaw mit seinem riesigen Kontext verwendet wird.

Die Modelle von Moonshot (Kimi Code) und MiniMax sind sehr gut, für agentische Aufgaben optimiert und können durchaus mit den besten Modellen von OpenAI und Anthropic mithalten. Doch vielleicht hat günstig auch seine Schattenseiten: Agentische KI könnte sich als hervorragendes Einfallstor für Industriespionage erweisen.

Insofern wäre unser Rat, die enormen Möglichkeiten agentischer KI zwar nicht zu ignorieren, aber wenn Sie etwas Derartiges betreiben möchten, fahren Sie es auf einer dedizierten Maschine, der Sie nur Aufgaben geben, für die Privacy kein allzu hoher Faktor ist. Solche (virtuellen) Instanzen können Sie schon ab 5 Euro im Monat mieten bei vielen Betreibern wie z.B. Hetzner. Oder Sie schnappen sich einen alten Schluffi, der irgendwo bei Ihnen noch herumliegt, und geben ihm ein neues Leben. Denn die Leistung der Maschine, auf der der KI-Agent läuft, muss nicht sonderlich groß sein. Die eigentliche Arbeit erledigt ja eine KI anderswo.

Sehr interessant sind auch ein Mac mini oder Mac Studio. Durch das Unified Memory von Apple können Sie auf diesen Geräten Ollama lokal betreiben und sehr große Modelle ausführen, wenn Sie einen Mac mit viel Speicher wählen. Das ist dann zwar eine sehr viel höhere Anfangsinvestition, hat aber keine monatlichen Kosten. Und Ihre Privatsphäre und Datensicherheit ist mit dieser Variante auch bestens garantiert.

Der Sturm bricht los

Ein Dirigent und ein Orchester aus Code-Agenten. KI-generiert (Nano Banana Pro 2).

Vor nur sechs Monaten lebten wir in einer anderen Zeit. In der Welt der KI ist das eine Ewigkeit. Damals staunten wir über Chatbots, die leidlich gute E-Mails schreiben konnten und Code-Schnipsel erzeugten, die man „nur noch ein bisschen“ korrigieren musste. Heute? Heute wirken diese Tools wie Relikte aus der Steinzeit.

Wir stehen an einem Wendepunkt, der so steil ist, dass wir kaum noch den Gipfel sehen können.

Schauen wir uns an, was gerade passiert: Eine exponentielle Explosion der Fähigkeiten. Ein Blick auf aktuelle Entwicklungen, wie sie beispielsweise Cursor in ihrem Blog über „Scaling Agents“ beschreibt, öffnet einem die Augen. 1000 Agenten, 1 Million Zeilen Code, 1 Woche: Fertig ist ein voll funktionsfähiger Browser. Ein Browser! Eine der komplexesten Aufgaben überhaupt.

„Der Sturm bricht los“ weiterlesen

Die wahre KI-Revolution findet nicht im Rechenzentrum statt

Riesiger Roboter und mobiler Roboter. KI-generiert (Nano Banana Pro 2).

Während die Tech-Giganten sich einen Wettlauf um die größten Rechenzentren und sogar eigene Atomkraftwerke liefern, vollzieht sich im Schatten eine viel wichtigere Entwicklung: Die radikale Schrumpfung der Intelligenz. Warum die Zukunft der Robotik und Embodied AI nicht „Big Data“, sondern „Smart Efficiency“ heißt.

Derzeit erleben wir eine Phase der technologischen Völlerei. Um ein Prozent mehr Leistung aus einem Modell zu kitzeln, verdoppeln Unternehmen die Parameterzahl und den Energieverbrauch. Der Markt ist überhitzt; es wird Hardware gekauft, als gäbe es kein Morgen. Das Ziel scheint zu sein, Gott in einer Cloud zu erschaffen, die von einem eigenen Kraftwerk gespeist wird.
Doch dieser Ansatz hat einen fatalen Fehler, wenn wir die digitale Welt verlassen und in die physische eintreten: Er ist nicht mobil.

Stellen Sie sich einen humanoiden Roboter vor, der stolpert. Wenn sein „Gehirn“ in der Cloud liegt, müssen die Sensordaten erst zum Server geschickt, dort verarbeitet und der Befehl „Ausbalancieren“ zurückgeschickt werden. Latenzzeit: vielleicht 200 Millisekunden. In dieser Zeit liegt der Roboter bereits auf der Nase.
Echte Autonomie – also Embodied AI – duldet keine Latenz und keine Funklöcher. Das Denken muss dort stattfinden, wo die Handlung geschieht: „On Edge“, direkt im Gerät.

Die Zauberworte der nächsten Jahre lauten deshalb nicht mehr „Trillion Parameters“, sondern:

Quantisierung: Die Reduktion der Rechengenauigkeit, ohne das Ergebnis signifikant zu verschlechtern. Wir brauchen keine 32-bit Fließkommazahlen, um zu erkennen, ob eine Tasse voll ist. 4-bit reichen oft völlig.

Destillation: Ein riesiges „Lehrer-Modell“ trainiert ein winziges „Schüler-Modell“ darauf, nur eine bestimmte Aufgabe perfekt zu erledigen.

Spezialisierte Hardware (NPU): Chips, die nicht für Grafik (GPU), sondern rein für neuronale Netze optimiert sind und einen Bruchteil der Energie benötigen.

Wir kehren zurück zu den Wurzeln guter Ingenieurskunst: Optimierung. Anstatt das Problem mit Hardware zu erschlagen, lösen wir es mit besserer Software. Ein 7-Milliarden-Parameter-Modell, das lokal auf einem Roboter läuft und versteht, wie man eine Tür öffnet, ist wertvoller als ein 1-Billionen-Parameter-Modell in der Cloud, das Gedichte über Türen schreiben kann, aber die Verbindung verliert, wenn das WLAN ausfällt.

Die Ära der verschwenderischen Gigantomanie wird auf eine harte Wand aus physikalischen und ökonomischen Grenzen treffen. Die Gewinner der Robotik-Revolution werden nicht diejenigen sein, die die größten Rechenzentren bauen, sondern diejenigen, die mächtige Intelligenz in kleinste Formfaktoren pressen können.
Es ist wie in der Biologie: Nicht der Größte und Stärkste überlebt, sondern der am besten Angepasste. Und in einer mobilen Welt bedeutet Anpassung Effizienz. Hirn schlägt Muskeln.

OpenAI unter Druck, zeigt aber große Resilienz

David kämpft gegen zwei Goliaths. KI-generiert (Nano Banana).

https://www.gamestar.de/artikel/chatgpt-52-die-3-groessten-neuerungen,3444875.html

Es kriselt bei OpenAI – so viel ist klar. Seit dem Release von Gemini 3 und Nano Banana (Pro) sieht OpenAI-CEO Sam Altman ein, dass ChatGPT dem Konkurrenten von Google etwas hinterherhinkt. Und der im Mainstream etwas weniger bekannte Anbieter Anthropic hat mit Claude starke Konkurrenz am Start, die ich persönlich übrigens sehr gerne nutze. Nun ist OpenAIs Antwort auf Gemini 3 und Anthropics Claude Opus 4.5 erschienen […]

In einem beispiellosen Entwicklungstempo hat OpenAI gerade ChatGPT 5.2 veröffentlicht – weniger als einen Monat nach dem Vorgängermodell. Hinter diesem beschleunigten Release-Zyklus steht eine klare Botschaft: Der KI-Wettlauf mit Google Gemini 3 und Anthropic Claude ist in die heiße Phase getreten. Für Unternehmen stellt sich nun die Frage: Was bringt diese neue Version wirklich und wie können wir davon profitieren?

Die drei wichtigsten Neuerungen in GPT-5.2 für Unternehmen:

  • 30% weniger Halluzinationen – mehr Verlässlichkeit. Laut OpenAI produziert GPT-5.2 weniger faktische Fehler. Die Fehlerrate bei faktischen Aussagen soll von von 8,8% auf 6,2% gesunken sein.
  • Neue Tabellen- und Präsentationsfähigkeiten. GPT-5.2 setzt laut GDPval-Benchmark neue Maßstäbe für berufliche Wissensarbeit. Das Modell übertrifft oder erreicht nach den Benchmarks Top-Experten in 70,9% der Vergleiche über 44 Berufe hinweg – und das bei >11x höherer Geschwindigkeit und <1% der Kosten.
  • Bessere Verarbeitung langer Dokumente und Bildanalyse – mit nahezu 100%iger Genauigkeit bei Dokumenten bis zu 256.000 Tokens kann GPT-5.2 jetzt umfangreiche Verträge, Forschungsberichte oder Unternehmensdokumentationen zuverlässig analysieren. Die Bildanalyse verbesserte sich von 64,2% auf 86,3% Genauigkeit.

Auch in meinen ersten Tests konnte ich erheblich gestiegene Leistung und Qualität feststellen (allerdings hat es irgendwie seinen Humor verloren, aber das mag auch an meinen Use Cases gelegen haben). Andere Nutzer äußern sich jedoch teilweise enttäuscht und sagen, dass die erhofften Fortschritte in der Logik ausgeblieben sind.

Dennoch ist ChatGPT 5.2 mehr als ein inkrementelles Update – es ist eine klare Antwort auf den zunehmenden Wettbewerbsdruck im KI-Markt. Für Unternehmen bietet es konkrete Verbesserungen in Verlässlichkeit, Professionalität und Skalierbarkeit. Aber die Frage ist ja längst nicht mehr, ob KI in Unternehmen eingesetzt wird – sondern wie wir ihre stetig wachsenden Fähigkeiten optimal nutzen können. Ich muss zugeben, mir fällt es schwer, mit der Flut an neuen Modellen Schritt zu halten und jeweils zu entscheiden, welches Modell für welche Aufgabe am besten geeignet ist. Und ich beschäftige mich hauptberuflich damit.

Außerdem, ich finde eine weitere Entwicklung im Bereich KI sogar noch spannender. ChatGPT und die anderen US-„Platzhirsche“ (Gemini, Anthropic, LLama) setzen immer noch auf „Muskeln“ – mehr und schnellere Prozessoren, mehr RAM. Aber, Köpfchen schlägt Muskeln, wie wir alle wissen – und deshalb ist für mich die eigentliche Sensation das ebenfalls ganz neu herausgekommene DeepSeek V3.2. China unterliegt einem massiven Embargo, und muss deshalb mit viel weniger Mitteln und veralteter Hardware auskommen. Und dennoch liegt DeepSeek V3.2 nahezu gleichauf mit den aktuellen Top-Modellen der US-Anbieter. Wie schafft DeepSeek das?

Statt immer größere neuronale Netze zu bauen, optimieren die Chinesen die Architektur („Mixture-of-Experts“ und „Sparse Attention“). Sie haben quasi den Motor effizienter gemacht, statt einfach den Tank zu vergrößern. Und ich finde durchaus, bevor der KI-Rüstungswettlauf noch die globale Ökonomie beschädigt, wäre das amerikanischen Ingenieuren auch anzuraten.

Tipp: Falls es Ihnen unangenehm ist, bei einem chinesischen Anbieter ein Konto anzulegen, Sie können DeepSeek V3.2 mit der Ollama Cloud auch auf einem datensicheren, neutralen und die Privatsphäre wahrenden Dienst nutzen, und Chatbox AI oder Open WebUI für die Steuerung der KI einsetzen.

Der RAM-Krieg: OpenAI, die Hardware-Knappheit und der Sieg des Algorithmus

USB-C Steuerung externer Monitore. KI-generiert.

https://www.notebookcheck.com/OpenAI-soll-40-der-weltweiten-DRAM-Produktion-und-sogar-DDR5-RAM-im-Handel-aufkaufen.1177231.0.html

OpenAI, das Unternehmen hinter ChatGPT, ist maßgeblich dafür verantwortlich, dass Arbeitsspeicher-Preise über die vergangenen Monate geradezu explodiert sind. Offenbar kauft OpenAI nicht nur für Server bestimmten DRAM direkt bei den Herstellern, sondern sogar DDR5-RAM-Kits im freien Handel.

Erst neulich berichteten wir hier im Blog über die brechenden Lieferketten im KI-Sektor. Wir warnten vor Engpässen. Doch was sich jetzt herauskristallisiert, ist kein bloßer Engpass mehr – es ist eine Marktmanipulation von historischem Ausmaß. Neue Berichte legen nahe, dass ein einziger Akteur versucht, den weltweiten Vorrat an Arbeitsspeicher aufzusaugen: OpenAI.

Die „40-Prozent-Mauer“

Laut aktuellen Analysen soll OpenAI, der einstige Pionier der Branche, mittlerweile 40 % der weltweiten DRAM-Produktion aufkaufen. Aber es kommt noch absurder: Es geht nicht mehr nur um direkte Lieferverträge mit Giganten wie SK Hynix oder Samsung für Server-Speicher. Berichten zufolge schickt das Unternehmen mittlerweile Mitarbeiter in den Einzelhandel (wie Best Buy in den USA), um physische DDR5-RAM-Riegel aus den Regalen zu kaufen, die eigentlich für Gaming-PCs und Workstations gedacht waren.

Warum tut OpenAI das? Offiziell, um die eigene Rechenkapazität zu erweitern. Inoffiziell pfeifen es die Spatzen von den Dächern des Silicon Valley: Es geht darum, der Konkurrenz die Luft – oder in diesem Fall den Speicher – abzudrehen.

Panik im Elfenbeinturm

Man muss diese aggressive Einkaufspolitik im Kontext der aktuellen KI-Landschaft sehen. OpenAI steht mit dem Rücken zur Wand.
Während Claude Opus 4.5 von Anthropic die Geschäftswelt im Sturm erobert hat und dort mittlerweile als der zuverlässige Standard gilt, und Gemini 3 Pro in Sachen reiner Logik, Kreativität und Coding-Performance neue Maßstäbe setzt, wirkt das aktuelle ChatGPT oft wie ein Relikt aus dem Jahr 2024.

OpenAI versucht nun anscheinend, dieses technologische Defizit durch schiere Masse an Hardware zu kompensieren. Wenn man nicht mehr das klügste Modell hat, versucht man eben, das größte zu bauen – und gleichzeitig zu verhindern, dass andere genug Hardware bekommen, um ihre überlegenen Modelle zu betreiben.

Was wurde aus „Open“?

Hier stellt sich die unvermeidliche Frage nach der Identität des Unternehmens. „OpenAI“ startete einst mit dem Versprechen, künstliche Intelligenz zu demokratisieren. Elon Musks fortwährende Klagen gegen das Unternehmen unterstreichen, wie weit man sich von diesem Ideal entfernt hat. Auch Anthropic wurde von hochrangigen abtrünnigen OpenAI-Entwicklern gegründet, die genau das Gleiche sagen, wie Musk. Aus „Open“ wurde „Closed“, aus „Non-Profit“ wurde eine aggressive Monopol-Strategie. Wer 40 % der weltweiten Ressourcen einer kritischen Komponente aufkauft, will keinen Wettbewerb – er will ihn ersticken. Das sind Methoden, die freien Märkten fundamental zuwiderlaufen und eher an die Ölkartelle des 20. Jahrhunderts erinnern als an die Tech-Utopie des 21. Jahrhunderts.

Der chinesische Weg: Hirnschmalz statt Brechstange

Während im Westen der Hardware-Krieg tobt, lohnt sich ein Blick nach Osten. DeepSeek hat vor wenigen Tagen sein Modell V3.2 vorgestellt. Die Performance? Erschreckend nah an Gemini 3 Pro und oft auf Augenhöhe mit Claude.
Das Erstaunliche daran: China ist massiven US-Embargos unterworfen. Sie haben keinen Zugriff auf die neuesten H100- oder B200-Cluster in der Menge, wie sie OpenAI zur Verfügung stehen. Ihre Hardware ist oft älter, langsamer und weniger effizient.

Wie ist das also möglich?
Die Antwort ist einfach: Software-Optimierung.
Anstatt immer mehr Geld auf das Problem zu werfen, investieren die Ingenieure bei DeepSeek in bessere Algorithmen. Sie optimieren den Code, verbessern die Architektur und holen aus jedem Transistor das Maximum heraus.
Es ist eine alte Weisheit der Informatik, die wir fast vergessen haben: Ein schnellerer Prozessor bringt vielleicht 100 % mehr Leistung. Ein besserer Algorithmus kann aber 1000 % mehr Leistung bringen. Der Weg zu echter AGI (Artificial General Intelligence) führt nicht über noch größere Serverfarmen, die den Stromverbrauch von Kleinstaaten haben, sondern über intelligentere Software.

Praxistipp: Jetzt handeln!

Was bedeutet dieser „Krieg der Giganten“ für Sie und Ihr Unternehmen? Leider nichts Gutes für Ihr IT-Budget.
Die Preise für DDR5-RAM haben sich in den letzten drei Monaten bereits verdreifacht. Ein Ende der Fahnenstange ist nicht in Sicht. Wenn OpenAI weiter den Markt leerkauft, werden auch SSDs und Grafikkarten (die ebenfalls auf Speicherchips angewiesen sind) extrem teuer werden. Laptops sollen 2026 bereits pauschal 20 % teurer werden.

Unsere Empfehlung: Wenn Sie Hardware-Anschaffungen, Server-Upgrades oder auch nur neue Laptops für Mitarbeiter planen – kaufen Sie jetzt. Warten Sie nicht auf sinkende Preise. In diesem Marktumfeld ist „Lieferbarkeit“ das neue Gold.

Claude Opus 4.5 ist der neue Coding-König

Die Evolution KI-basierter Coding-Assistenten. KI-generiert (Nano Banana).

https://aitoolanalysis.com/claude-code/

Claude Opus 4.5 is the first AI model to break 80% accuracy on SWE-bench Verified, which tests real-world GitHub bug fixing. This isn’t a marginal improvement—it’s a clear 3-5 percentage point lead over every competitor. Opus 4.5 scored higher on Anthropic’s internal engineering exam than any human candidate ever has. Let that sink in.

Hinweis: Eine Information in diesem Artikel ist mittlerweile überholt, inzwischen kann man auch mit dem Standard-Abonnement für 20 US$ im Monat Opus 4.5 verwenden. Oder man nutzt einen API-Key, das ging seit Veröffentlichung und ist für viele Anwendungsfälle ohnehin günstiger, und damit kann man auch Opus 4.5 leicht in z.B. den Cursor AI Editor oder in Chatbox AI integrieren.

Es wäre jedenfalls sehr zu empfehlen, das neue Modell zu aktivieren, denn das ist kein kleines Update, sondern ein Paradigmenwechsel.

Opus 4.5 hat auf dem SWE-bench Verified (dem Goldstandard für autonome Software-Entwicklung) Rekorde gebrochen. Wir sprechen hier von einer Fähigkeit, GitHub-Issues nicht nur zu verstehen, sondern autonom zu lösen, die weit über das hinausgeht, was wir noch Anfang 2025 gesehen haben. Man kann Opus 4.5 in eine IDE integrieren (via Cursor oder Windsurf Updates) und ihm komplexe Refactoring-Aufgaben geben, wie: „Aktualisiere die API-Endpunkte in Modul X und pass alle Tests in Modul Y an.“ Und es funktioniert tatsächlich. Das große Kontextfenster bedeutet zudem, dass das Modell riesige Codebases „im Kopf“ behalten kann, ohne zu halluzinieren.

Anthropic (die Schöpfer von Claude) haben sich von Anfang an auf KI für Programmierer spezialisiert, und die Problemlösungsfähigkeiten von Opus sind tatsächlich sensationell. Ein Riesenschritt voran für die SW-Entwicklung.

Außerdem hat Google ungefähr zeitgleich Gemini 3 Pro vorgestellt, dessen Fokus aber mehr all-purpose ist. Auch dieses Modell ist sensationell gut und hat für weltweite Furore gesorgt, der Kurs von Alphabet (Google-Mutter) sprang steil nach oben und steigt weiter. Im Coding muss Gemini 3 Pro sich zwar Opus 4.5 geschlagen geben, aber in vielen anderen Themenbereichen liegt es dennoch klar vorn.

Gleich zwei neue Spitzenmodelle mit enormen Fortschritten, nahezu zur gleichen Zeit – wirklich überraschend, wo es doch noch vor kurzem hieß, gravierende Fortschritte bei KI seien erstmal nicht mehr zu erwarten. Bei OpenAI brennt jedenfalls die Hütte, Sam Altman hat einen „Code Red“ ausgerufen und viele Aktivitäten gestoppt, um mit ChatGPT wieder Boden gut zu machen.

Der KI-Boom sprengt die Lieferketten

KI saugt die Produktionskapazitäten für Hardware auf. KI-generiert.

https://www.reuters.com/world/china/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03/

An acute global shortage of memory chips is forcing artificial intelligence and consumer-electronics companies to fight for dwindling supplies, as prices soar for the unglamorous but essential components that allow devices to store data.

Während alle gebannt auf die enormen Produktivitätsgewinne sehen, die KI mit sich bringen kann, braut sich im Hintergrund an unerwarteter Front ein ganz anderer Sturm zusammen. Wir steuern auf eine massive Chipkrise zu – aber anders als die letzte.

Diesmal ist es kein Stillstand der Fabriken, sondern eine brutale Verdrängung. Der gigantische Hunger nach KI-Rechenleistung saugt den Markt für Speicherchips leer. Die Hersteller priorisieren High-End-Komponenten für Rechenzentren und lassen die Produktion für Standard-Chips links liegen. RAM kostet bereits doppelt so viel wie im Frühjahr, SSDs steigen deutlich im Preis, Grafikkarten sind immer schwerer zu bekommen und superteuer.

Aber es ist nicht nur teuer, es ist schlicht nichts mehr da, sagt der Chip-Hersteller SK Hynix. Die Lager sind schon jetzt für das ganze nächste Jahr leergefegt. KI soll die Produktivität steigern, überfordert aber vorher erst einmal die bestehende Produktivität?

Der virale Moment: „Real or Fake?“

Humanoider Roboter serviert Tee. KI-generiert.

https://www.livescience.com/technology/robotics/watch-chinese-companys-new-humanoid-robot-moves-so-smoothly-they-had-to-cut-it-open-to-prove-a-person-wasnt-hiding-inside

Chinese electric vehicle (EV) maker Xpeng has unveiled a new humanoid robot with such lifelike movements that company representatives felt compelled to slice it open onstage to prove a human wasn’t hiding inside.

Der humanoide Roboter IRON ist nicht nur eine Technik-Demo, sondern ein Meilenstein in der „Physical AI“-Ära. XPeng-CEO Xiaopeng schnitt sogar live in einem viral gegangenen Video die flexible Haut auf, um zu beweisen: Kein Mensch, sondern pure Robotik.

Die Rivalität zwischen den USA und China in der Robotik eskaliert, insbesondere im Wettlauf um humanoide Roboter, wo Tesla’s Optimus (USA) und XPeng’s IRON (China) als Spitzenreiter konkurrieren. Während Tesla mit Optimus auf KI-gestützte Autonomie setzt und eine Milliarde Einheiten ankündigt, präsentiert XPeng IRON als „Tesla-Killer“ mit überlegenen Features wie einer Solid-State-Batterie, 82 Freiheitsgraden, 2.250 TOPS-Rechenleistung und einer catwalk-fähigen Beweglichkeit. XPeng plant die Massenproduktion bereits ab 2026 – ein direkter Schlagabtausch, der Chinas Aufholjagd unterstreicht und globale Märkte aufmischt. Zumindest derzeit scheint nach meiner Auffassung China sogar die Nase vorne zu haben, wenn man Demo-Videos des im Vergleich doch noch recht steifen und ungeschickten Tesla Roboters Optimus vergleicht. Aber Tesla schläft nicht und kündigt für 2026 eine neue Generation an.

Eine Milliarde für Microsoft – Bayerns Weg in die digitale Abhängigkeit?

https://www.golem.de/news/eine-milliarde-steuergelder-an-microsoft-so-geht-digitale-souveraenitaet-auf-bayrisch-2511-201789.html

Der Freistaat Bayern steht bei seinen Verwaltungsbehörden vor den gleichen Problemen wie alle anderen Bundesländer: Der schon bestehende Mangel an Verwaltungsfachkräften wird aufgrund der demografischen Entwicklung in wenigen Jahren noch verschärft, so dass die Behörden immer ineffizienter arbeiten. Gleichzeitig verstärkt der Flickenteppich an dezentralen IT-Infrastrukturen in der Verwaltung die Ineffizienz und führt zu einer Kostenexplosion.

Der Freistaat Bayern plant in den kommenden fünf Jahren rund eine Milliarde Euro Steuergelder in Microsoft-Produkte zu investieren. Ziel sei es laut Staatsregierung, die IT-Landschaft der bayerischen Verwaltung zu modernisieren und zu vereinheitlichen.

„Um diese Ziele zu erreichen, soll an bayerischen Behördenarbeitsplätzen zukünftig ausschließlich Microsoft 365 mit Teams und Copilot zum Einsatz kommen, wobei diese ähnlich wie bei der Delos-Cloud in einem deutschen Rechenzentrum gehostet werden.“
https://www.golem.de/news/eine-milliarde-steuergelder-an-microsoft-so-geht-digitale-souveraenitaet-auf-bayrisch-2511-201789.html

Was auf den ersten Blick nach einem großen Schritt in Richtung digitale Effizienz klingt, stößt bei vielen IT-Fachleuten, Datenschutzexperten und Open-Source-Vertretern auf massive Kritik. Der Grund: Das milliardenschwere Projekt steht in deutlichem Widerspruch zu den politischen Zielen, die digitale Souveränität Deutschlands und Europas zu stärken.

Unterschiedliche Systeme und Softwarelösungen in Landratsämtern, Ministerien und Landesbehörden sollen abgelöst werden – zugunsten einer zentralen Plattform, die Wartung und Zusammenarbeit vereinfachen soll.
Doch der gewählte Weg führt aus Sicht vieler Fachleute in die falsche Richtung: Statt auf offene Standards und europäische oder gar deutsche Anbieter zu setzen, bindet sich der Freistaat langfristig an einen US-Technologiekonzern, der nach amerikanischem Recht operiert. Der Bericht auf Golem.de weist darauf hin, dass selbst bei einer Speicherung der Daten in deutschen Rechenzentren – etwa nach dem sogenannten Delos-Modell – die rechtliche Kontrolle letztlich nicht vollständig in Deutschland liegt. Der US Cloud Act ermöglicht amerikanischen Behörden in bestimmten Fällen Zugriff auf Daten, auch wenn sie außerhalb der USA gespeichert sind.

Besonders kritisch sehen Sicherheitsexperten und Open-Source-Verbände, dass das bayerische Landesamt für Sicherheit in der Informationstechnik (LSI) bereits vor den Risiken eines zu engen Einsatzes von Microsoft-Produkten gewarnt hat. Trotzdem hält die Staatsregierung an der Kooperation fest.
Hinzu kommt, dass das Projekt ohne öffentliche Ausschreibung umgesetzt werden soll. Statt eines transparenten Vergabeverfahrens ist ein direkter Rahmenvertrag mit Microsoft geplant. Dadurch wird anderen IT-Dienstleistern, insbesondere deutschen und europäischen Anbietern, faktisch die Möglichkeit genommen, Alternativen anzubieten oder mitzuwirken.
Die Open Source Business Alliance (OSBA) und weitere Branchenvertreter haben daher einen offenen Brief an die bayerische Staatsregierung veröffentlicht. Darin fordern sie mehr Transparenz, Wettbewerb und eine ernsthafte Prüfung offener Alternativen. Andernfalls, so die Kritik, werde die Chance vertan, die heimische IT-Wirtschaft zu stärken und Know-how im Land zu halten.

Partielle Autonomie von Robotern: Der smarte Weg zur Automatisierung

Stellen Sie sich vor: Ein Lieferwagen rollt vor, ein kleiner Roboter springt heraus, navigiert geschickt über den Bürgersteig, stellt ein Paket vor Ihre Tür und fährt seelenruhig zurück. Kein Mensch in Sicht, keine Kratzer am Paket, pure Effizienz. Klingt nach Science-Fiction? Das ist heute schon Realität – und ein perfektes Beispiel für partielle Autonomie von Robotern.

In einem viralen Video auf X zeigt @kimmonismus genau das: Ein Roboter übernimmt die letzte Meile vom Van bis zur Haustür. Der Post hat über 415.000 Views und Tausende Likes – kein Wunder, es fühlt sich an wie der Startschuss für die Roboter-Revolution. Und es gibt bereits viele Unternehmen, die sich mit diesem Szenario beschäftigen, lesen Sie z.B. diesen Übersichtsartikel.

Das ist so ähnlich wie beim Programmieren. Eine komplexe Aufgabe, zum Beispiel in Buchhaltung oder Verwaltung, vollständig zu automatisieren, ist oftmals schwer bis unmöglich (jedenfalls ohne KI, aber auch damit sind die Ergebnisse bisher durchwachsen). Wenn man stattdessen aber eine Teilautomatisierung entwickelt, bei der der Mensch nur an den wesentlichen Stellen eingreift, für die abstraktes Verständnis oder Hintergrundwissen erforderlich ist, kann man mit sehr viel weniger Aufwand ein Programm erstellen, das bereits enorme Effizienzgewinne erbringt.

Ein guter Freund, leider inzwischen verstorben, sagte immer: 100% Perfektion ist die 100% Garantie für Unglück. Wir stellen uns unter der Roboter-Revolution immer vollständig autonome Maschinen vor, die alles ganz alleine erledigen können. Aber Hand in Hand mit dem Menschen, der die Dinge übernimmt, die dem Roboter schwerfallen, während der Roboter den Menschen von Dingen entlastet, die anstrengend oder repetitiv und langweilig sind, das scheint mir viel eher der Weg in die Zukunft zu sein.