Der KI-Wettlauf um die globale Vorherrschaft bei Künstlicher Intelligenz zwischen den USA und China ist im September 2025 in eine neue, gefährlichere Phase eingetreten. Der technologische Vorsprung Amerikas ist auf wenige Monate geschrumpft, was in Washington eine „KI-Sputnik-Angst“ auslöst. Während US-Präsident Donald Trump mit einer radikalen Deregulierung die Innovationskraft der US-Industrie entfesseln will, kontert China mit dem Vorschlag globaler Regeln und formt eine Allianz des Globalen Südens. Es ist kein reiner Wettbewerb um Algorithmen mehr – es ist ein Kampf um Standards, Infrastruktur und die digitale Weltordnung.
Der Wettkampf um KI-Dominanz zwischen den USA und China ist längst kein abstrakter technischer Wettbewerb mehr, sondern ein zentraler geopolitischer Faktor. 2025 scheint ein Schlüsseljahr zu sein: Der Abstand schrumpft, politische Entscheidungen werden richtungsweisend, und das Kräfteverhältnis könnte sich in kurzer Zeit verschieben. Wird USA ihre Position als weltweit führende Wirtschaftsmacht erhalten können?
Touchscreens sind längst Standard in modernen Autos geworden, doch es gibt zunehmend Belege dafür, dass diese digitalen Bedienelemente gefährliche Fahrsituationen schaffen können. Sicherheitsorganisationen führen nun neue Richtlinien ein, die das Fahrzeugdesign grundlegend verändern könnten, wie The Economist berichtet.
Mich wundert schon lange, dass die Nutzung von Handys so streng sanktioniert wird, aber die Bedienelemente im Auto immer mehr visuelle Aufmerksamkeit erfordern. Das „alte“ Verfahren, bei dem man nach einer Eingewöhnungszeit blind alle Bedienelemente finden und benutzen konnte, ohne die Augen von der Straße zu nehmen, hatte durchaus seine Vorteile.
Apple hat seine neuen AirPods Pro 3 vorgestellt, die mit einer innovativen Echtzeit-Übersetzungsfunktion ausgestattet sind. Doch während Nutzer in den USA und anderen Regionen von dieser Technologie profitieren können, bleibt sie für europäische Kunden aufgrund von EU-Regulierungen unzugänglich. Diese Entscheidung wirft Fragen über die zukünftige Verfügbarkeit von KI-Diensten in Europa auf.
Es ist nach wie vor schwierig, profitable Anwendungen für KI zu finden. Mal abgesehen von Unterstützung beim Programmieren ist bisher wenig in Sicht, mit dem sich die enormen Anschub-Investitionen zurückverdienen lassen. Viele KI-Projekte enttäuschen und produzieren nur noch mehr Kosten.
Dann findet Apple eine geniale und äußerst sinnvolle Anwendung, und was macht die EU? Sie scheint nur mit aller Macht daran arbeiten zu wollen, Europa zu zerstören, indem sie es vom technologischen Fortschritt abhängt – und verbietet Apple natürlich den Einsatz dieser Idee. Denn die verkrusteten und sozialistischen Politbüro-Strukturen der EU werfen so enorme Risiken für Anbieter auf, dass die eben Europa lieber links liegen lassen.
Unsere Zukunft wird sabotiert, mit voller Absicht. Wozu eigentlich?
Die EU-Kommission verzichtet bewusst auf die Archivierung wichtiger Kommunikationsinhalte auf ihrer Führungsebene. Einem Bericht des Portals Follow the Money zufolge ist es aus diesem Grund nicht möglich, per Informationsfreiheitsanfrage an Textnachrichten an und von EU-Kommissionspräsidentin Ursula von der Leyen zu gelangen.
Während der Bürger nach den Vorstellungen der Europäischen Union bald KI-gestützte Live-Durchsuchungen seiner privaten Kommunikation in Chat-Anwendungen wie Whatsapp erdulden soll, scheuen die Führer das Licht der Öffentlichkeit wie der Teufel das Weihwasser. Hmmm. Wie war das gleich nochmal mit diesem „Wer nichts zu verbergen hat“?
We’re thrilled to introduce grok-code-fast-1, a speedy and economical reasoning model that excels at agentic coding.
Viele Entwickler schwören auf Claude AI von Anthropic, da es für Coding-Aufgaben optimiert ist. Anthropic hat sich bereits vor einiger Zeit auf die Zielgruppe der SW-Entwickler fokussiert, weil dort derzeit der höchste Nutzen von KI erzielt werden kann.
Auch xAI scheint dies nun erkannt zu haben und stellt mit Grok Code Fast 1 ein Modell vor, das speziell für Softwareentwicklung optimiert ist. Mit einer Verarbeitungsgeschwindigkeit von bis zu 92 Token pro Sekunde ist es eines der schnellsten Modelle für interaktive Anwendungen in Entwicklungsumgebungen (IDEs). Es eignet sich besonders für Echtzeit-Anwendungen wie in-editor Code-Vervollständigungen. Das Modell unterstützt einen Kontext von 256.000 Token, was es ermöglicht, große Codebasen, lange Verläufe oder mehrdateilige Projekte in einer Sitzung zu verarbeiten.
xAI gibt außerdem an, das neue Modell sei besonders für agentische Aufgaben optimiert. Na, dann sind wir mal gespannt, ob xAI aus den erheblichen Schwierigkeiten (Datenverlust, Sicherheitsprobleme) von Anthropic mit solchen Agenten etwas gelernt hat.
Nach einer regelrechten Explosion der Zahl neuer KI-Modelle und Anbieter, insbesondere für Sprachmodelle, scheint die Entwicklung aktuell eher langsam voranzugehen: Neue Modelle, etwa jüngst GPT-5, enttäuschen, was ihre Performance angeht. Die Sprünge zwischen den Generationen werden gefühlt kleiner, trotz mehr Rechenleistung und immer größerer Modelle. Anstatt immer mehr Leistung oder Anpassungen an der sonst relativ gleichbleibenden Architektur vorzunehmen, könnte ein Paradigmenwechsel helfen: weg von Tokens, weg von Modellen, die Wort für Wort Texte formen, weg von statischen Modellen, die sich nicht mehr anpassen lassen.
Aktuelle LLMs auf Transformer-Basis scheinen an eine Art Plateau geraten. Technologien wie GPT-5 liefern zwar solide und bereits durchaus beeindruckende Ergebnisse, doch der technologische Durchbruch bleibt aus. Und ohne menschliche Kontrolle geht es gar nicht, wie schon allein das Problem der KI-Halluzinationen belegt. Ein Blick in die Zukunft zeigt, dass nur ein struktureller Wandel – etwa durch hierarchische Tokenverarbeitung oder vollkommen neue Modellarchitekturen – weitere Fortschritte bringen kann.
Neue Tricksereien mit QR-Codes melden Sicherheitsforscher von Barracuda. Die Angriffe kommen per E-Mail und umgehen viele der in großen Unternehmen üblichen Sicherheitsscans. Liest der Endnutzer seine E-Mails dann auch noch mit aktivierter HTML-Darstellung, wird er leicht zum Opfer.
QR-Codes sind außerhalb geschlossener Systeme stets mit Vorsicht zu genießen; man sollte ihnen gegenüber grundsätzlich skeptisch bleiben und – insbesondere bei sensiblen Inhalten – in E-Mails niemals öffnen. Man sollte auch das automatische Öffnen von Links in QR-Codes abschalten und eine URL darin immer zuerst genau prüfen. Generell gilt, den Link in einem QR-Code nur zu öffnen, wenn man die Quelle des Codes zweifelsfrei identifizieren kann und ihr vertraut.
The billionaire Peter Thiel is unimpressed with our pace of innovation. In this episode, he critiques artificial intelligence, longevity science and space travel — and warns that our lack of progress could lead to catastrophic outcomes, including the emergence of the Antichrist.
In diesem sehr interessanten Interview der New York Times mit Peter Thiel erfährt man viel von den Ideen und Sorgen, die Peter Thiel antreiben. Bemerkenswert fand ich, dass seine größte Angst einem One-World-Government gilt, das würde notwendig in einen autoritären Polizeistaat kippen, meint er. Lustig, es sind doch gerade die Tools seines Unternehmens Palantir, die mehr als so ziemlich alles andere das Potential für eine solche globale Tyrannei mit sich bringen.
Bereits einen Tag, nachdem das Unternehmen GPT-5 als Standard für alle Nutzer eingeführt hatte, kündigte CEO Sam Altman auf X an, dass zahlungspflichtige Abonnenten wieder die Möglichkeit erhalten würden, die vorherige Modellversion auszuwählen. Dazu muss man in den Einstellungen wählen, dass auch alte Modelle eingeblendet werden.
Es gibt Anwendungen, für die eignet sich GPT-5 tatsächlich besser, bei anderen Themen fällt es aber schon sehr auf, dass GPT-5 kälter und distanzierter ist. Sam Altman hatte sich so gewünscht, dass OpenAI-Versionschaos zu beenden, GPT-5 sollte sich automatisch auf das passende Verhalten einstellen. Klappt aber noch nicht so recht.
Überraschend an dem ganzen Thema finde ich zudem, wie viele Menschen offenbar eine soziale Beziehung zur KI aufbauen. Ich weiß nicht, ob das gut oder schlecht ist. Ist es schlecht, weil man den Kontakt zu seinen Mitmenschen verliert? Oder ist es vielleicht gut, weil die KI uns nicht hassen wird (wie in „Terminator“), sondern uns als Freunde sehen wird (wie in den „Culture“-Romanen von Iain Banks).
OpenAI veröffentlicht[e] am Donnerstagabend [7.8.25] sein neues Sprachmodell GPT-5. Das neue Modell soll zuverlässiger antworten und weniger halluzinieren als seine Vorgänger. Zudem könne es Fachfragen auf Expertenniveau beantworten, erklärt das Unternehmen. Als Beispiele nannte OpenAI unter anderem auch Aufgaben in Risikobereichen wie dem Finanz- und Gesundheitswesen.
OpenAI hat jedoch mit GPT-5 nicht nur die Modellqualität verbessert, sondern auch subtile Änderungen an der API-Ausgabe vorgenommen. Für viele gängige Client-Bibliotheken, z.B. für NodeJS, ist zwar nur ein Update notwendig, um auf das neue Format umzustellen. Ohne diesen Update steht man allerdings zunächst ziemlich ratlos da, weil bewährter Code auf einmal nicht mehr funktioniert.
Die Umstellung des Rückgabeformats hat laut OpenAI zum Ziel, ein einheitliches Schema für Text, Tool-Aufrufe, Reasoning-Blöcke, mehrere Ausgabekanäle usw. zu definieren. Der Sinn ist ein konsistentes, strukturiertes Format über alle Features (Parallel-Tools, Multimodal, Reasoning-Zusammenfassungen, Streaming). Zumal GPT-5 nun selbstständig entscheidet, welche Features, wie z.B. Reasoning, es für eine Aufgabe hinzuschaltet.
Wie gesagt, ein Update der OpenAI-Developer-Libraries reicht i.Allg. aus, wer jedoch eigene API-Implementierungen nutzt oder exotischere Umgebungen wie VBA, muss unter Umständen nacharbeiten:
Escape-Verhalten: GPT-5 liefert die Inhalte in JSON mit stärkerem Escaping, besonders bei Umlauten und Sonderzeichen.
Textstruktur: Anstelle einer einfachen message.content-String-Ausgabe ist der Text nun als Array von Objekten („content“: [{ „type“: „text“, „text“: „…“ }]) verschachtelt.
Unicode-Darstellung: Einige Zeichen (z. B. Umlaute) werden jetzt als Unicode-Escape \u00FC statt direkt als UTF-8 geliefert – je nach Client kann das korrekt dekodiert werden oder nicht.
Notabene, es ist immerhin der eigene Industrie-Standard, den OpenAI mit dieser Änderung beerdigt. Sprich, so ziemlich alle Anbieter (Grok, Claude, Gemini) unterstützen den alten Standard, und jetzt schafft OpenAI ihn nur für GPT-5 ab (die anderen OpenAI-Modelle verstehen ihn nach wie vor). Das ist durchaus ein wenig … überraschend, insbesondere weil es so still und heimlich geschieht.
Die Deutsche Rentenversicherung sah sich außerstande, einen erhöhten Pflegeversicherungssatz einzuprogrammieren. Die Regierung nutzt das, um den Rentnern etwas mehr abzuknöpfen als vorgesehen. Auch in Sachen Cybersicherheit ist der Staat hochgradig minderbemittelt unterwegs. Trotzdem will er seine Bürger zwingen, in allen Lebensbereichen ins Netz zu gehen.
Es kann einen schon gruseln, immer mehr Bürokratie und Vorschriften werden über jeden Lebensbereich gekippt, niemand blickt mehr durch, also soll jetzt alles digital werden. Weil ja alles so komplex geworden sei, dass nur noch mit Computer … Nun, wenn man ein Problem nicht versteht, dann hilft auch ein Computer nichts. Aber man kann dann zumindest sagen, dass der Computer schuld ist.
Meta hat mit der Ray-Ban Meta die weltweit erfolgreichste smarte Brille ihrer Art geschaffen – über zwei Millionen Exemplare wurden bereits verkauft. Der Erfolg liegt auch im durchdachten Design begründet: Die Brille stammt optisch von der ikonischen Marke Ray-Ban und sieht aus wie eine gewöhnliche Sonnenbrille, wenn auch etwas voluminöser, um Platz für die integrierte Technik mit fünf Mikrofonen, zwei Open-Ear-Lautsprechern in den Brillenbügeln und einer Kamera in der oberen linken Ecke zu schaffen.
Die Ray-Ban Meta Brille ist schon länger auf dem Markt und hat sich auch bisher schon recht gut verkauft. Im April diesen Jahres schaltete Meta jedoch die KI-Anbindung der Brille frei, und vor kurzem wurden die ersten Geschäftsberichte nach diesem Update veröffentlicht. Die Verkaufszahlen der Brille sind regelrecht durch die Decke gegangen, und der Kurs von Meta sprang an einem Tag um 30 Prozent nach oben (was jedoch außerdem an der Präsentation von auch sonst guten Quartalszahlen lag).
Mittlerweile ist die Brille das meistverkaufte Modell des Meta-Vertriebspartners EssilorLuxottica, damit hatte niemand gerechnet. Mit dem KI-Update kann man nun direkt Informationen via Meta Llama einholen, und damit hat Meta offenbar einen Nerv getroffen.
Der Meta AI-Assistent kann Fragen zur Umgebung beantworten, Rezepte vorschlagen oder sogar Speisekarten im Ausland übersetzen. Die Live-Übersetzung zwischen Englisch, Spanisch, Französisch und Italienisch funktioniert in Echtzeit – allerdings ist die deutsche Sprachunterstützung noch ausbaufähig.
Auch den Datenschutz hat Meta adressiert, ein LED-Signal zeigt an, wenn die Kamera aktiv ist. Was der Träger einer solchen Brille allerdings über ein Gegenüber erfahren könnte, davon bekommt man trotzdem nichts mit, und erst recht weiß niemand, wie zutreffend diese Informationen sind.
Die Möglichkeiten dieser Brille sind einerseits faszinierend für eine Vielzahl von Anwendungsfällen, lassen einen aber andererseits auch leicht gruseln bei der Vorstellung, gezielte Fehlinformationen würden in Umlauf gebracht, um verborgene Agenden zu unterstützen.
Die Sicherheitssoftware des US-Unternehmens Palantir ist hierzulande stark umstritten – dennoch prüft Bundesinnenminister Alexander Dobrindt (CSU) laut Medienberichten ihren bundesweiten Einsatz.
Die US-Software Palantir sorgt in Deutschland für Diskussionen. Ursprünglich vom US-Militär und Geheimdiensten zur Terrorbekämpfung nach 9/11 eingesetzt, wird sie inzwischen auch von Polizeibehörden in Hessen, NRW und Bayern genutzt. Ihr Name stammt aus Tolkiens Herr der Ringe – die „Palantíri“ sind sehende Steine, mit denen man weit entfernte Ereignisse beobachten kann – ein bewusst gewähltes Bild für umfassende Überwachung.
Bundesinnenminister Dobrindt prüft laut einem aktuellen Bericht der Berliner Zeitung nun auch einen Einsatz auf Bundesebene, obwohl datenschutzrechtliche Bedenken bestehen. Die Software verknüpft große Datenmengen (z. B. aus Funkzellen, Überwachungen, Personendaten) automatisiert miteinander und erstellt Beziehungsnetzwerke – auch zwischen Unverdächtigen. Das birgt erhebliche Risiken für die informationelle Selbstbestimmung.
Kritiker warnen vor einem System, das kaum demokratisch kontrollierbar ist, da der Quellcode nicht offengelegt wird und die Technologie aus einem Drittstaat stammt. Eine solche Software zentral für Sicherheitsbehörden einzusetzen, sei laut Datenschützern ein gefährlicher Präzedenzfall.
Quis custodiet ipsos custodes – Wer überwacht die Wächter?
KI-Chatbots überschätzen ihre Fähigkeit, Fragen korrekt zu beantworten. Das geht zwar vielen Menschen ähnlich, doch nach einer Quizrunde können sie tendenziell besser als eine KI einschätzen, wie viele ihrer Antworten richtig waren. Das gehe aus Tests mit verschiedenen KI-Chatbots hervor, berichtet eine Forschungsgruppe um Trent Cash von der Carnegie Mellon University in Pittsburgh (US-Bundesstaat Pennsylvania) im Fachjournal „Memory & Cognition“.
Das Elend der Menschheit ist, dass die Dummen sich so sicher sind, und die Klugen so viel zweifeln (Bertrand Russell). Aber das scheint wohl ein eher universales Problem zu sein
Meta plant den Bau mehrerer riesiger Datenzentren mit mehreren Gigawatt (GW) elektrischer Anschlussleistung. Das kündigte Meta-CEO Mark Zuckerberg am Montag an. Dies soll die Ambitionen des US-Konzerns im Bereich Künstliche Intelligenz (KI) vorantreiben. Das erste dieser Rechenzentren wird voraussichtlich im kommenden Jahr in Betrieb gehen.
Während Microsoft, Google und Meta eigene Atomkraftwerke für ihre KI-Cluster bauen wollen, fliehen die Unternehmen aus Deutschland, weil durch die „Energiewende“ der Strom unbezahlbar geworden ist.
Tja. Man könnte auf die Idee kommen, dass der grünlinke Klimawahn in Wahrheit eine ganz besonders abgefeimte Marketingstrategie völlig anderer Akteure ist, um die europäische Konkurrenz auszuschalten.