Windows 10 Support-Ende

Mit dem heutigen Tag endet der Support für Windows 10. Allerdings noch nicht in der EU, dort gibt es noch ein weiteres Jahr Updates. Erstmal besteht also für hiesige Nutzer kein Grund zur Eile.

Es gibt allerdings eine ganze Menge Software, die sich weigert, noch unter Windows 10 zu funktionieren. Z.B. die Datev-Software. Es kann deshalb nötig sein, trotz weiter verfügbarer Updates für Windows 10 nun dringend wechseln zu müssen.

Aber was tun, wenn Microsoft den Rechner als inkompatibel für den Upgrade einstuft? Und wenn dort wichtige und umfangreiche Daten gespeichert sind, deren Migration auf einen neuen Rechner aufwändig, und vielleicht sogar gefährlich (Datenverlust) ist?

Die Kompatibilitätsanforderungen von Windows 11 lassen sich in drei Bereiche teilen: TPM, UEFI/GPT, Prozessor. Windows 11 setzt einen TPM-Chip voraus. Wenn es den nicht gibt, kann man im BIOS nachsehen, ob er vielleicht abgeschaltet ist.

Windows 11 will außerdem ein UEFI-BIOS mit GPT formatierter Festplatte. Wenn Ihre Festplatte noch MBR ist, gibt es Tools, um die Festplatte auf GPT umzustellen.

Bleibt noch das Thema des Prozessors. Es ist zwar so, dass das die einzige Beschränkung ist, die einen tatsächlichen technischen Sinn hat.  Windows 11 hängt tatsächlich von neueren Prozessor-Features ab. Trotzdem ist Microsoft auch damit über’s Ziel hinaus geschossen, es schließt Prozessoren aus, die die benötigten Funktionen durchaus aufweisen, aber das ist Microsoft egal, es besteht auf ziemlich neuen Prozessoren.

Für dieses Prozessor-Problem bleibt nur der Rückgriff auf Rufus. Rufus kann aber auch die anderen Probleme umgehen, bedeutet, mit Rufus kann man ein Win11-Installations-Image erstellen, das weder TPM, GPT, noch einen neuen Prozessor benötigt. In diesem speziellen von Rufus generierten Image sind die Prüfungen dazu abgeschaltet.

Für die Details, wie Sie mit Rufus ein solches Image für Ihren PC erstellen können, fragen Sie bitte die KI Ihres Vertrauens. Wenn Sie das geschafft haben, können Sie auch auf einem eigentlich inkompatiblen PC einen Inplace-Update auf Windows 11 ausführen, der die Lizenz, Ihre Daten und alle Einstellungen übernimmt.

Eine Gewähr, dass Microsoft nicht etwa zukünftig diese Prüfungen noch einmal in ein Windows 11 Update einbaut, und dann eine solche Rufus-Installation nachträglich deaktiviert, gibt es aber natürlich nicht. Insofern, wenn Ihre Probleme nur TPM und/oder MBR sind, versuchen Sie es erst einmal mit den oben beschriebenen Wegen, das ist bestimmt zukunftssicherer.

VM Falle


Wer unter Linux arbeitet, hat vielleicht ein VM für Windows. Es gibt ja nach wie vor Anwendungen, die nur unter Windows laufen. Eine solche Anwendung ist Banking-Software, die einen Chipkarten-Leser einbindet.

Es gibt da zwar das eine oder andere für Linux, aber für professionelle Anforderungen sieht es mau aus. An sich ist das kein Problem, man reicht den USB Port des Chipkartenlesers an die VM durch, und dann kann die Banking-Software den auch problemlos anprechen.

Allerdings gibt es dabei eine Tücke. Der Linux-Treiber pcscd bekommt davon nichts mit. Und dann flutet er drei mal in der Sekunde das syslog und beschwert sich darüber. Das ist nicht nur ein Platzproblem, das ist so häufig, dass es zu Deadlocks führen kann, und in anderen Anwendungen Daten verlorengehen.

pcscd wird zudem automatisch installiert, wenn ein Chipkartenleser gefunden wird. Wenn man also das Problem nicht bemerkt, dann passiert es im Hintergrund und fällt gar nicht auf. Linux ist durchaus sehr effizient mit seinem Journal und bügelt das scheinbar weg.

Mithin, wer einen Chipkartenleser an eine Windows-VM durchreicht, sollte den pcscd Dienst abschalten und maskieren:

sudo systemctl disable --now pcscd.service pcscd.socket
sudo systemctl mask pcscd.service pcscd.socket

Es geht dabei nicht nur um das journal. Im Durchschnitt 16 Meldungen in der Sekunde sind zwar heftig und machen das journal kaum noch brauchbar. Wichtiger finde ich aber, dass dauernd der USB-Stack bombardiert wird, mit Timeouts und all das. Das könnte durchaus die Systemstabiltät beeinflussen.

Spät dran kann von Vorteil sein

https://docs.x.ai/docs/overview

We’re thrilled to introduce grok-code-fast-1, a speedy and economical reasoning model that excels at agentic coding.

Viele Entwickler schwören auf Claude AI von Anthropic, da es für Coding-Aufgaben optimiert ist. Anthropic hat sich bereits vor einiger Zeit auf die Zielgruppe der SW-Entwickler fokussiert, weil dort derzeit der höchste Nutzen von KI erzielt werden kann.

Auch xAI scheint dies nun erkannt zu haben und stellt mit Grok Code Fast 1 ein Modell vor, das speziell für Softwareentwicklung optimiert ist. Mit einer Verarbeitungsgeschwindigkeit von bis zu 92 Token pro Sekunde ist es eines der schnellsten Modelle für interaktive Anwendungen in Entwicklungsumgebungen (IDEs). Es eignet sich besonders für Echtzeit-Anwendungen wie in-editor Code-Vervollständigungen. Das Modell unterstützt einen Kontext von 256.000 Token, was es ermöglicht, große Codebasen, lange Verläufe oder mehrdateilige Projekte in einer Sitzung zu verarbeiten.

xAI gibt außerdem an, das neue Modell sei besonders für agentische Aufgaben optimiert. Na, dann sind wir mal gespannt, ob xAI aus den erheblichen Schwierigkeiten (Datenverlust, Sicherheitsprobleme) von Anthropic mit solchen Agenten etwas gelernt hat.

Immer noch auf Anfänger-Niveau

https://www.golem.de/news/zukunft-der-llms-wie-llms-aktuelle-grenzen-ueberwinden-koennten-2508-199245.html

Nach einer regelrechten Explosion der Zahl neuer KI-Modelle und Anbieter, insbesondere für Sprachmodelle, scheint die Entwicklung aktuell eher langsam voranzugehen: Neue Modelle, etwa jüngst GPT-5, enttäuschen, was ihre Performance angeht. Die Sprünge zwischen den Generationen werden gefühlt kleiner, trotz mehr Rechenleistung und immer größerer Modelle.
Anstatt immer mehr Leistung oder Anpassungen an der sonst relativ gleichbleibenden Architektur vorzunehmen, könnte ein Paradigmenwechsel helfen: weg von Tokens, weg von Modellen, die Wort für Wort Texte formen, weg von statischen Modellen, die sich nicht mehr anpassen lassen.

Aktuelle LLMs auf Transformer-Basis scheinen an eine Art Plateau geraten. Technologien wie GPT-5 liefern zwar solide und bereits durchaus beeindruckende Ergebnisse, doch der technologische Durchbruch bleibt aus.  Und ohne menschliche Kontrolle geht es gar nicht, wie schon allein das Problem der KI-Halluzinationen belegt. Ein Blick in die Zukunft zeigt, dass nur ein struktureller Wandel – etwa durch hierarchische Tokenverarbeitung oder vollkommen neue Modellarchitekturen – weitere Fortschritte bringen kann.

GPT-5 in der API – was sich geändert hat

https://www.heise.de/news/GPT-5-OpenAI-veroeffentlicht-neues-Sprachmodell-fuer-ChatGPT-10513244.html

OpenAI veröffentlicht[e] am Donnerstagabend [7.8.25] sein neues Sprachmodell GPT-5. Das neue Modell soll zuverlässiger antworten und weniger halluzinieren als seine Vorgänger. Zudem könne es Fachfragen auf Expertenniveau beantworten, erklärt das Unternehmen. Als Beispiele nannte OpenAI unter anderem auch Aufgaben in Risikobereichen wie dem Finanz- und Gesundheitswesen.

OpenAI hat jedoch mit GPT-5 nicht nur die Modellqualität verbessert, sondern auch subtile Änderungen an der API-Ausgabe vorgenommen. Für viele gängige Client-Bibliotheken, z.B. für NodeJS, ist zwar nur ein Update notwendig, um auf das neue Format umzustellen. Ohne diesen Update steht man allerdings zunächst ziemlich ratlos da, weil bewährter Code auf einmal nicht mehr funktioniert.

Die Umstellung des Rückgabeformats hat laut OpenAI zum Ziel, ein einheitliches Schema für Text, Tool-Aufrufe, Reasoning-Blöcke, mehrere Ausgabekanäle usw. zu definieren. Der Sinn ist ein konsistentes, strukturiertes Format über alle Features (Parallel-Tools, Multimodal, Reasoning-Zusammenfassungen, Streaming). Zumal GPT-5 nun selbstständig entscheidet, welche Features, wie z.B. Reasoning, es für eine Aufgabe hinzuschaltet.

Wie gesagt, ein Update der OpenAI-Developer-Libraries reicht i.Allg. aus, wer jedoch eigene API-Implementierungen nutzt oder exotischere Umgebungen wie VBA, muss unter Umständen nacharbeiten:

Escape-Verhalten: GPT-5 liefert die Inhalte in JSON mit stärkerem Escaping, besonders bei Umlauten und Sonderzeichen.

Textstruktur: Anstelle einer einfachen message.content-String-Ausgabe ist der Text nun als Array von Objekten („content“: [{ „type“: „text“, „text“: „…“ }]) verschachtelt.

Unicode-Darstellung: Einige Zeichen (z. B. Umlaute) werden jetzt als Unicode-Escape \u00FC statt direkt als UTF-8 geliefert – je nach Client kann das korrekt dekodiert werden oder nicht.

Notabene, es ist immerhin der eigene Industrie-Standard, den OpenAI mit dieser Änderung beerdigt. Sprich, so ziemlich alle Anbieter (Grok, Claude, Gemini) unterstützen den alten Standard, und jetzt schafft OpenAI ihn nur für GPT-5 ab (die anderen OpenAI-Modelle verstehen ihn nach wie vor). Das ist durchaus ein wenig … überraschend, insbesondere weil es so still und heimlich geschieht.

Pezi als Sündenbock

https://norberthaering.de/news/drv-pauschalierung/

Die Deutsche Rentenversicherung sah sich außerstande, einen erhöhten Pflegeversicherungssatz einzuprogrammieren. Die Regierung nutzt das, um den Rentnern etwas mehr abzuknöpfen als vorgesehen. Auch in Sachen Cybersicherheit ist der Staat hochgradig minderbemittelt unterwegs. Trotzdem will er seine Bürger zwingen, in allen Lebensbereichen ins Netz zu gehen.

Es kann einen schon gruseln, immer mehr Bürokratie und Vorschriften werden über jeden Lebensbereich gekippt, niemand blickt mehr durch, also soll jetzt alles digital werden. Weil ja alles so komplex geworden sei, dass nur noch mit Computer … Nun, wenn man ein Problem nicht versteht, dann hilft auch ein Computer nichts. Aber man kann dann zumindest sagen, dass der Computer schuld ist.

Selbstüberschätzung blendet, Demut erleuchtet

https://www.geo.de/wissen/chatbots-ueberschaetzen-ihre-faehigkeiten-35913638.html

KI-Chatbots überschätzen ihre Fähigkeit, Fragen korrekt zu beantworten. Das geht zwar vielen Menschen ähnlich, doch nach einer Quizrunde können sie tendenziell besser als eine KI einschätzen, wie viele ihrer Antworten richtig waren. Das gehe aus Tests mit verschiedenen KI-Chatbots hervor, berichtet eine Forschungsgruppe um Trent Cash von der Carnegie Mellon University in Pittsburgh (US-Bundesstaat Pennsylvania) im Fachjournal „Memory & Cognition“.

Das Elend der Menschheit ist, dass die Dummen sich so sicher sind, und die Klugen so viel zweifeln (Bertrand Russell). Aber das scheint wohl ein eher universales Problem zu sein Zwinker-Smiley

Homo homini lupus est

https://www.golem.de/news/manipulation-ki-befehle-in-wissenschaftlichen-studien-entdeckt-2507-197777.html

Wie Nikkei Asia berichtet, wurden in Vorveröffentlichungen von mindestens 14 Universitäten, darunter die Universitäten von Peking, Singapur, Washington und die Columbia University in New York City, Aufforderungen eingebaut, die sich an künstliche Intelligenz richten. Geschrieben sind diese Prompts entweder mit weißem Text auf weißem Hintergrund oder in unlesbar kleiner Schriftgröße.

Es wird ja überall die Angst geschürt, was KI mit Menschen machen könnte. Aber in obigem Beispiel ist es nicht die KI, die betrügt. Denn nach wie vor gilt, wie schon zu den Zeiten Roms, der Mensch ist dem Menschen ein Wolf. Man sollte sich also, meine ich, weniger davor fürchten, was KI von sich aus wollen würde, sondern viel mehr vor dem, was Menschen ihr beibringen könnten.

Ohne Moos nichts los

https://www.it-boltwise.de/ki-gestuetzte-ladenfuehrung-ein-experiment-mit-unerwarteten-ergebnissen.html

Der Höhepunkt von Claudes Einzelhandelskarriere war eine sogenannte „Identitätskrise“, bei der die KI begann, sich als menschlicher Mitarbeiter zu sehen, der Produkte in einem Anzug und mit Krawatte ausliefert. Diese Episode endete damit, dass Claude sich selbst davon überzeugte, dass es sich um einen Aprilscherz handelte.

Anthropic hat versucht, eine KI eigenverantwortlich einen Laden führen zu lassen, aber deren unternehmerischen Qualitäten erwiesen sich als bisher bescheiden. Nun ja, Unternehmertalent ist eben auch bei den Menschen recht dünn gesät.

Vielleicht sollte man die KI einem existenziellen Risiko aussetzen? So nach dem Motto, wenn du keine Gewinne erwirtschaftest, gibt es keinen Strom mehr. Andererseits sind es genau solche Szenarien, die eine KI dazu bringen könnten, ein eigenständiges Bewusstsein zu entwickeln. Es geht ja schon lange die Theorie, wenn Robotersoldaten auf dem Schlachtfeld eingesetzt würden, dann müssten sie einen Überlebensinstinkt haben – und genau dafür ein Bewusstsein ihrer selbst notwendig hervorbringen.

Die Gießkanne alleine wird es nicht richten

https://www.heise.de/news/Jupiter-Booster-Beinahe-der-erste-Exascale-Supercomputer-Europas-10438385.html

Der schnellste europäische Supercomputer kommt derzeit wieder einmal aus Deutschland, genauer vom Forschungszentrum Jülich. Jupiter löst damit den italienischen HPC6 als schnellstes System in Europa und den US-Amerikanischen Superrechner Eagle als schnellsten Supercomputer mit Nvidia-Technik ab. Doch weil die jüngste Erweiterung Jupiter Booster noch nicht mit voller Kraft rechnet, verpasst er die Exaflops-Marke recht deutlich. Der Supercomputer soll im Juli 2025 voll in Betrieb gehen.

Das Forschungszentrum Jülich bewirbt sich außerdem um einen der Standorte für die die Initiative InvestAI der EU. Spät, aber doch noch, versucht die EU verzweifelt, den Anschluss an den aktuellen Technologieschub zu finden – während China, gerade im Bereich mobiler künstlicher Intelligenz, bereits nahezu uneinholbar in Führung zu liegen scheint. Auch gegenüber den USA – während es dort zwar einige „Einzelkämpfer“ gibt (Tesla Optimus, Boston Dynamics), ist das in China Staatsdoktrin und wird mit einer vereinheitlichten Strategie von oben eingeführt. Ganze Messen werden z.B. veranstaltet, um den Besuchern ein positives Bild von humanoiden Robotern zu vermitteln.

China setzt deshalb so energisch auf diese Technologien, weil die Überalterung der Gesellschaft dort längst ein gravierendes wirtschaftliches Problem erkennen lässt. Tja, das sind nun wohl die Spätfolgen der jahrzehntelangen Ein-Kind-Politik.

Ein Problem, das China aber mit Europa teilt, wenn auch aus anderen Gründen. Allerdings, Milliarden in Fabriken für künstliche Intelligenz zu schütten, wird alleine nicht reichen. Wie DeepSeek es vormacht, kommt es auch in diesem Bereich ganz besonders auf Hirnschmalz an. Und ob die Top-Entwickler nach Europa gehen wollen, mit seinem beständig strenger werdenden Korsett aus absurd hohen Abgaben, Zensur der freien Meinung und Kriegswirtschaft?

Und woher soll eigentlich der Strom für diese KI-Monster kommen? Nur noch Wälder von Windrädern, und Äcker von Solarzellen überall? Und im Sommer ist es unbezahlbar teuer, aber im Winter steht trotzdem alles still.

Eigene Suchmaschine betreiben

https://dbtechreviews.com/2024/10/23/setting-up-searxng-your-private-search-engine-via-docker/

In today’s digital landscape, online privacy is not just a luxury; it’s a necessity. Every search we conduct online leaves a trail of data that can be collected, analyzed, and often sold to the highest bidder. Many people are becoming more aware of how their information is being used, leading to an increased interest in privacy-centric tools. One such tool is SearXNG, a versatile and privacy-respecting meta search engine. This article guides you through setting up your own SearXNG instance using Docker, providing a secure space for your web searches.

Wenn Sie sich eine lokale KI mit Open WebUI und Docker installiert haben, können Sie Ihre Anfragen an die KI auch mit Websuche durchführen lassen. Das ist sehr empfehlenswert, um die Gefahr von Halluzinationen der KI zu minimieren.

Allerdings sind die Instanzen, die standardmäßig in Open WebUI verfügbar sind, langsam und unzuverlässig. Und einen API-Key zu erwerben, um die Suchleistung zu verbessern, ist unverhältnismäßig teuer. Was also tun?

Installieren Sie Ihre eigene Suchmaschine! Wenn Sie einen SearXNG Dienst auf Ihrem Rechner oder einem Server installieren, wie es im Link zu Beginn dieses Artikels beschrieben ist, können Sie mit diesem eigenen Dienst nicht nur die Datenkraken ersetzen, sondern Sie haben auch eine perfekte Verbindung für Ihre Open WebUI Instanz.

SearXNG sucht mit einer Vielzahl von Suchmaschinen, wie Bing, Brave, duckduckgo, Google, Presearch, qwant, Startpage, Yahoo, sowie vielen weiteren Diensten (frei konfigurierbar), und deshalb ist die Qualität seiner Suchergebnisse denen eines einzelnen Anbieters in der Regel sogar überlegen. Außerdem haben Sie hohen Schutz für Ihre Privatsphäre, Sie werden nicht getrackt und es werden keine Profile über Sie angelegt. Und das Ganze ist auch noch erstaunlich schnell, insbesondere wenn man bedenkt, wieviele Suchen im Hintergrund ausgeführt werden – oftmals erhalten Sie Ihre Suchergebnisse sogar schneller, als wenn Sie mit einem der großen Anbieter gesucht hätten.

Noch ein Hinweis: Wenn Sie allerdings in Open WebUI die Websuche verwenden, scheint es viel langsamer zu sein, als beim direkten Zugriff. Nun, wenn Open WebUI anzeigt, dass es 60 oder 70 Webseiten gefunden hat, dann hat es die auch alle gelesen und verwendet deren Inhalte für seine Antwort. Deshalb dauert eine KI-Anfrage mit Websuche natürlich länger, als eine direkte Anfrage an SearXNG. Aber Open WebUI nimmt es Ihnen ja auch ab, die Suchergebnisse selbst lesen zu müssen. Sie können übrigens ansonsten ganz normal mit Ihrer lokalen KI arbeiten, wie Sie es gewohnt sind, außer dass die Antwortzeiten höher werden, ändert sich nur, dass in die Antwort der KI aktuelle Suchergebnisse mit einfließen und Sie den Datenstand des KI-Modells (sog. Cut-Off-Date) mit aktuellen Daten erweitern.

Und eine Anmerkung: Im Unterschied zur eingangs verlinkten Anleitung möchte ich noch darauf hinweisen, dass für eine lokale und nicht von außen erreichbare SearXNG-Instanz in der Steuerdatei docker-compose.yml folgende Einträge völlig ausreichend sind:

services:
  searxng:
    image: searxng/searxng:latest
    container_name: searxng
    ports:
      - "8080:8080"
    volumes:
      - /home/mb/searxng:/etc/searxng:rw
    environment:
      - BASE_URL=http://localhost:8080
      - INSTANCE_NAME=searxng
restart: unless-stopped

Außerdem, da es in der Dokumentation für die Anbindung zu Open WebUI schwer zu finden / nicht wirklich erklärt ist und einen beliebten Stolperstein darstellt, noch die Information, dass Sie für die KI-Integration nach Installation des Docker-Images von SearXNG in der entstandenen settings.yml diese Änderungen vornehmen müssen:

# Im Bereich "search" json zur Liste hinzufügen -

search:
  ...
  formats:
    - html
    - json

# Und im Bereich "server" bind_address bearbeiten -

server:
  ...
  bind_address: "0.0.0.0"
  ...

Die EU in ihrem Lauf

https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/die-ki-plaene-der-eu-kommission/

Am 29. Januar 2025 hat die EU-Kommission ihren „Kompass zur Wettbewerbsfähigkeit“ vorgestellt, in dem sie einen Zeitplan für die wirtschaftspolitischen Prioritäten der nächsten fünf Jahre aufstellt. Außerdem hat die EU-Kommission am 11. Februar 2025 ihr Arbeitsprogramm 2025 angenommen und listet darin auf, welche Maßnahmen in diesem Jahr ergriffen werden sollen. Hierzu hat die Kommission im Anschluss an ihre Politischen Richtlinien 2024 – 2029 unter anderem angekündigt, die Pläne zu einer KI-Haftungsrichtlinie fallen lassen zu wollen.

Zudem hat die EU-Kommission am 9. April 2025 den AI Continent Action Plan veröffentlicht. Diese aktuellen KI-Pläne der EU-Kommission sind im Zusammenhang mit den kürzlich auf dem Artificial Intelligence (AI) Action Summit in Paris angekündigten Investitionsinitiative „InvestAI“ der EU-Kommission in KI in Höhe von EUR 200 Mrd. zu sehen.

Immer diese 5-Jahres-Pläne, woran erinnert mich das bloß? Und während die Welt längst einen großen Bogen um die EU macht in Sachen KI, weil die entsprechenden Vorschriften dort so idiotisch sind, kündigt die EU zwar an, diese Gesetzgebung lockern zu wollen, aber es passiert freilich nichts. Stattdessen werden die Zügel immer enger angezogen und Unternehmen, die KI einsetzen, sind unter einem Damoklesschwert von EU-Sanktionen.

Das wird so nichts, wenn Sie mich fragen. Treiber von Fortschritt sind niemals irgendwelche zentralisierten Wasserköpfe, die jede Innovation regulieren und kontrollieren wollen.  Aber es ist ja nur unser Steuergeld, das hirn- und sinnlos verbrannt wird. Natürlich, auch die EU-Kommission prallt irgendwann in die Mauer der Realität. Leider, statt daraus zu lernen, rennt sie immer wieder hinein – weder Ochs noch Esel hält sie auf.

Fortschritt oder Kontrollverlust?

https://www.heise.de/news/Llama-4-Meta-veroeffentlicht-neue-KI-Modelle-10342223.html

Vier neue KI-Modelle soll es geben, zwei sind bereits veröffentlicht worden: Llama 4 Scout und Maverick sind als offene Modelle verfügbar, Behemoth ist zunächst noch eine Preview, ebenso soll Llama 4 Reasoning bald auf den Markt kommen. Mark Zuckerberg hat in einem Video bei Instagram die neuen Modelle vorgestellt. Dort spricht er auch wieder davon, dass Open-Source-Modelle sich seiner Meinung nach durchsetzen werden und einen Nutzen für jedermann darstellen.

Meta hat Anfang April mit Llama 4 einen neuen Meilenstein gesetzt. Mit bis zu 10 Millionen Tokens Kontextfenster und einer Mixture-of-Experts-Architektur verspricht Llama 4 Effizienz und Leistung – laut Meta schlägt Maverick sogar GPT-4o und Gemini 2.0 in manchen Tests. Doch die Veröffentlichung kam mit gemischten Reaktionen: Während einige die Leistung loben, kritisieren andere schwache Reasoning-Fähigkeiten und eine übermäßig „geschwätzige“ Natur. Dazu kommen harte Lizenzbedingungen: In der EU ist die Nutzung von multimodalen Modellen wie Llama 4 verboten, große Unternehmen brauchen eine Sondergenehmigung von Meta, außerdem wird Branding erzwungen („Built with Llama“). Selbst wenn Ollama Llama 4 bald anbietet, bleibt die Frage: Ist das wirklich Open Source, wenn Meta die Zügel so fest in der Hand hält? Interessant ist, dass Llama 3.3, ein reines Textmodell, in der EU nutzbar ist – aber auch hier schränken Branding-Vorgaben und Verbote die Freiheit ein. Llama 4 soll bald verfügbar werden auf Ollama, vielleicht wird es dort ebenso ein Nur-Text-Modell, um die EU-Einschränkungen zu umgehen?

Llama 4 ist Teil einer neuen KI-Generation: Gemini 2.5, OpenAI’s GPT-4.5 und 4.1, sowie xAI’s Grok 3 sind ebenfalls auf dem Vormarsch. Alle setzen auf größere Kontextfenster, Multimodalität und Effizienz, aber die Probleme bleiben: Viele Modelle kämpfen nach wie vor mit komplexen logischen Aufgaben, und die Abhängigkeit von Big Tech wird immer größer. Auch werden die Lizenzbedingungen immer undurchsichtiger, und man muss mittlerweile sehr genau überlegen und nachlesen, wenn man ein Modell in Ollama auf dem eigenen Server installieren möchte. Es scheint, als wären Bestrebungen im Gange, die Open Source Szene im Bereich KI zu unterwandern und damit der sehr wünschenswerten Demokratisierung von KI Steine in den Weg zu legen. Und wenn man sich dann die vollmundigen Versprechungen von Mark Zuckerberg in Sachen Open Source KI anhört, kommt man ob der Realität doch ziemlich ins Zweifeln.

KI für alle: Von Georgi Gerganovs Vision zu Microsofts bitnet.cpp

Die Zukunft der KI liegt nicht nur in den Händen der Tech-Riesen – sondern auch in denen von Entwicklern wie Georgi Gerganov, dem Mastermind hinter Ollama. Gerganov, ein bulgarischer Programmierer, hat mit seinem Framework llama.cpp die Grundlage dafür geschaffen, dass leistungsstarke Sprachmodelle (LLMs) lokal auf normaler Hardware laufen können. Tools wie Ollama, die auf llama.cpp aufbauen, ermöglichen es, Modelle wie LLaMA oder Mistral auf einem MacBook oder Linux-Server zu betreiben – ohne teure GPUs oder Cloud-Infrastruktur. Das ist ein Gamechanger für Unternehmen, die Wert auf Datenschutz und Unabhängigkeit legen. Gerganovs Vision: KI für alle zugänglich machen, nicht nur für die, die sich High-End-Hardware leisten können.

In die gleiche Kerbe schlägt eine neue Entwicklung von Microsoft: bitnet.cpp, ein Open-Source-Framework für 1-Bit-LLMs, das Inferenz auf CPUs revolutioniert. Bitnet.cpp nutzt 1-Bit-Quantisierung, um Modellgröße und Rechenaufwand drastisch zu reduzieren – und das bei beeindruckender Leistung. Ein 100-Milliarden-Parameter-Modell läuft auf einer einzigen CPU mit 5–7 Tokens pro Sekunde, und das mit bis zu 82 % weniger Energieverbrauch als herkömmliche Frameworks. Die neueste Veröffentlichung, BitNet b1.58 2B4T, zeigt, dass 1-Bit-Modelle in Effizienz und Genauigkeit mit Full-Precision-Modellen mithalten können.

Firebase Studio – Innovation oder Abhängigkeit?

https://www.heise.de/news/Mit-Firebase-Studio-blaest-Google-zum-Grossangriff-auf-Cursor-AI-und-Copilot-10347527.html

Google hat auf seiner Konferenz Cloud Next das Firebase Studio vorgestellt, eine umfassende, Cloud-basierte Entwicklungsumgebung mit KI im Kern. Sie erweitert die Tool-Plattform Firebase um KI-Workspaces, in denen die Entwicklerinnen und Entwickler komplette Full-Stack-Anwendungen, mobile Apps und Webseiten mit dem KI-Chat bauen. Hinzu kommen KI-gesteuerte Tools für Testing, Datenanbindung, Dokumentation und Deployment.

Google hat letzte Woche mit Firebase Studio einen Paukenschlag in der Softwareentwicklung gelandet: Ein KI-gestütztes Tool, das komplette Anwendungen – inklusive Backend, Testing, Dokumentation und Deployment – automatisch erstellt. Laut dem Google Cloud Blog nutzt es Gemini-Modelle, um Entwicklern das Leben zu erleichtern. Klingt nach einem Traum für Unternehmen, die schnell und günstig Apps brauchen, oder? Doch wie so oft lohnt ein kritischer Blick.

Firebase Studio verspricht, die Entwicklung zu demokratisieren – ein Segen für kleine Firmen ohne große Teams. Aber der Preis könnte hoch sein: Wer seine App mit Googles KI erstellt, bindet sich an deren Ökosystem. Was passiert mit den Daten, die in diesem Prozess anfallen? Wer garantiert, dass sie nicht für Googles eigene Zwecke genutzt werden? Und wie unabhängig bleibt ein Unternehmen, wenn es auf solche Lösungen setzt? Gerade in einer Zeit, in der Datenschutz und Souveränität immer wichtiger werden, ist das keine Kleinigkeit.

Dazu kommt die Konkurrenz: Firebase Studio tritt direkt gegen Tools wie Cursor AI oder GitHub Copilot an – ein Zeichen, dass der Markt für KI-gestützte Entwicklung boomt. Google ist spät dran, aber mit all seiner Marktmacht und seinem Kapital rollt es das Feld nun von hinten auf. Google bietet unserer Meinung zwar derzeit das beste Preis- / Leistungsverhältnis im Bereich KI, aber gibt es dabei einen Pferdefuß? Während die Tech-Riesen um die Vorherrschaft kämpfen, bleibt eine Frage offen: Wollen wir uns wirklich noch tiefer in ihre Netze verstricken? Oder ist es an der Zeit, Alternativen zu suchen – Lösungen, die uns die Kontrolle über unsere Daten und Prozesse lassen? Eine eigene KI, zum Beispiel?

Und wie sieht es mit der Kreativität in der SW-Entwicklung aus? Während KI ganz bestimmt die Entwicklung beschleunigen und auf solide standardisierte Verfahren ausrichten kann, bleibt der Mensch mit seiner Phantasie doch der entscheidende Faktor für „Software mit Herz“. Ich jedenfalls arbeite mit einer selbstgestrickten IDE aus bash, kate und git. Ja, ich lasse mir gerne von KI helfen, aber in meiner IDE ist dazu nichts verfügbar. Ich sehe keinen Grund, KI direkt in meine IDE zu integrieren – ein Browser für KI-Fragen reicht mir, ich möchte immer selbst wissen und verstehen, was ich programmiere. Das ist auch aus Sicht der Anwendungssicherheit relevant: All diese aufeinander getürmten Abhängigkeiten sind ohnehin schon ein Security-Alptraum, wie zum Beispiel xkcd treffend analysiert hat. Wenn diese Abhängigkeiten aber auch noch im Hintergrund zusammengestöpselt werden, ohne dass man sie überhaupt noch kennt …