Matt Williams: Der Technovangelist, der die KI-Welt begeistert

Matt Williams, besser bekannt als Technovangelist, ist ein einflussreicher Influencer in der Welt der Künstlichen Intelligenz. Mit seinem YouTube-Kanal und seiner Präsenz auf X inspiriert er Tausende, die sich für KI und Technologie begeistern. Williams war Mitgründer des Open-Source-Projekts Ollama, das lokale KI-Modelle zugänglich macht, und ist ein gefragter Redner auf Konferenzen wie DevOps Days und DockerCon.

Seine Inhalte sind vielfältig: Auf YouTube teilt er Tipps zu KI-Tools, wie kürzlich in einem Video, in dem er zeigt, wie man mit KerligAI und Ollama negative Kommentare in Wachstumschancen verwandelt. Auf X diskutiert er aktuelle Entwicklungen, etwa seine Tests mit dem neuen KI-Modell Gemma3 am 12. März 2025. Seine Leidenschaft für Gadgets und KI zeigt sich auch auf seiner Website, wo er technische Einblicke und Projekte wie Ollama vorstellt.

Als Programmierer schätze ich Williams’ Fokus auf praktische Anwendungen. Seine Arbeit mit Ollama hat mir geholfen, KI lokal zu testen, ohne auf teure Cloud-Lösungen angewiesen zu sein. Besonders beeindruckend ist, wie er komplexe Themen wie Reinforcement Learning oder lokale LLMs (Large Language Models) verständlich macht – ein Talent, das ihn von anderen Influencern abhebt.

Matt Williams ist ein Vorbild für alle, die KI nicht nur verstehen, sondern auch anwenden möchten. Schauen Sie bei ihm vorbei – vielleicht inspiriert er Sie genauso wie mich!

Die KI-Welt hat einen neuen Star

https://qwenlm.github.io/blog/qwq-32b/

Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve the reasoning capabilities of models. For instance, DeepSeek R1 has achieved state-of-the-art performance by integrating cold-start data and multi-stage training, enabling deep thinking and complex reasoning.

Our research explores the scalability of Reinforcement Learning (RL) and its impact on enhancing the intelligence of large language models. We are excited to introduce QwQ-32B, a model with 32 billion parameters that achieves performance comparable to DeepSeek-R1, which boasts 671 billion parameters (with 37 billion activated). This remarkable outcome underscores the effectiveness of RL when applied to robust foundation models pretrained on extensive world knowledge.

Am 5. März 2025 stellte Alibabas Qwen-Team das Open-Source-Modell QwQ-32B vor. Mit nur 32 Milliarden Parametern konkurriert es mit Giganten wie DeepSeek-R1 (671 Milliarden Parameter) und übertrifft sogar OpenAIs o1-mini in Benchmarks wie Mathematik und Programmieren. Die enorme Leistung erzielt QwQ durch weiterentwickelte Software, und das Modell läuft flott bereits auf (für KI-Verhältnisse) kleiner Hardware (24GB VRAM).

Programmierer wissen es, verbesserter Code schlägt meistens verbesserte Hardware. Mit optimierten Abläufen, performanteren Algorithmen und schlankeren Datenstrukturen lassen sich oft drastische Performance-Steigerungen erzielen, weit über das hinaus, was (nur) neue Hardware bieten würde. Mir scheint, in der KI-Welt wird bisher bei den Platzhirschen zu viel auf immer noch größere und leistungsstärkere Hardware gesetzt, während das Potential, das in optimiertem Code liegt, ein wenig zu kurz kommt. Tja. Es stimmt mich schon etwas traurig, dass offenbar die Chinesen beginnen, auch in der Software-Entwicklung den Westen abzuhängen.

Microsoft Dragon Copilot: Mehr Zeit für Patienten durch KI

Microsoft Corp. is unveiling Microsoft Dragon Copilot, the first AI assistant for clinical workflow that brings together the trusted natural language voice dictation capabilities of DMO with the ambient listening capabilities of DAX, fine-tuned generative AI and healthcare-adapted safeguards. Part of Microsoft Cloud for Healthcare, Dragon Copilot is built on a secure modern architecture that enables organizations to deliver enhanced experiences and outcomes across care settings for providers and patients alike.

Satya Nadella, CEO von Microsoft, hat sich kürzlich beschwert, dass KI viel kostet, aber ökonomisch bisher wenig bringt. Er wünscht sich endlich Anwendungen für KI, die tatsächlich einen wirtschaftlichen Aufschwung bewirken. Die Idee, Ärzte von den umfangreichen Dokumentationsarbeiten zu entlasten, geht wohl in diese Richtung. Mir persönlich wäre es auch lieber, ein Arzt hätte mehr Zeit für mich, anstatt in Papierkram zu ertrinken.

DeepSeek R1 ohne Zensur

https://www.perplexity.ai/de/hub/blog/open-sourcing-r1-1776

DeepSeek-R1 is a fully open-weight large language model (LLM) achieving close performance to the state-of-the-art reasoning models like o1 and o3-mini. A major issue limiting R1’s utility is its refusal to respond to sensitive topics, especially those that have been censored by the Chinese Communist Party (CCP).

Für viele Anwendungsfälle ist es nicht ausschlaggebend, aber das sehr leistungsfähige KI-Modell DeepSeek R1 ist massiv zensiert für Themen, die die politische Führung von China als heikel erachtet. Die KI-Suchmaschine perplexity.ai hat deshalb nun als Open Source eine nachtrainierte Version herausgebracht, aus der die Zensur entfernt ist. Da es anzunehmen ist, dass die ursprüngliche Version keine westliche Zensur enthalten hat, ist dieses Modell von Perplexity vielleicht sogar das unzensierteste aktuell verfügbare.

Allerdings hat Elon Musk neulich darauf hingewiesen, dass es, weil weltweit in allen für Training verfügbaren Daten bereits heftige Verfälschungen enthalten sind, auch und gerade durch staatliche Medien, eine sehr große Herausforderung ist, eine KI neutral und objektiv zu trainieren. Wenn die KI nur mit wokem Quatsch gefüttert wird, kann sie auch nur Quatsch antworten, anders gesagt.

Sie können Perplexity-R1-1776 bei Ollama herunterladen und auf Ihrem eigenen KI-Server ausführen. Kleiner Wermutstropfen: Das kleinste verfügbare Modell ist eine 70b Version, Sie benötigen also 48GB VRAM um es im Grafikkartenspeicher ausführen zu können. (Die derzeit preisgünstigste Variante dafür sind übrigens 2x AMD Radeon RX 7900 XTX 24GB in einem Dual-GraKa-Setup).

Eigene KI-Bilder erzeugen

Nachdem Sie eine KI auf Ihrem Rechner lokal zum Laufen gebracht haben, möchten Sie vielleicht auch selbst KI-Bilder erzeugen können?

Nun, da gibt es etwas Neues und es kommt aus dem Schwarzwald. Flux.1-schnell ist ein Open Source (Apache2-Lizenz) Modell des deutschen Unternehmens Black Forest Labs. In Windeseile hat es die aktuelle Krone der KI-Bildgeneratoren errungen. Es ist sehr schnell, wie der Name schon sagt, und generiert beeindruckende Bilder.

Es gibt davon auch eine sog. Dev-Variante, die ist nur für nicht-kommerzielle Nutzung freigegeben. Während aber die Schnell-Variante nur eingeschränkt modifiziert werden kann, weil es sich um ein hoch optimiertes Modell handelt, stehen für die Dev-Variante sehr viele Möglichkeiten des Feintunings zur Verfügung. Es gibt deshalb für Dev eine rege Szene von Enthusiasten, die alle möglichen Anpassungen und Modifikationen mit unterschiedlichen Bildstilen für das Dev-Modell erstellen und teilen.

Außerdem sind noch Pro-Varianten verfügbar, die sind zahlungspflichtig, und eine solche betreibt übrigens unter anderem X/Twitter. Wenn Sie zum Beispiel Grok um ein Bild fragen, wird eine Flux-Pro-Engine aus dem Schwarzwald verwendet.

Aber schon die Ergebnisse von Schnell und Dev sind bereits außerordentlich gut und lohnen allemal, sich das auf dem eigenen Rechner zu installieren. Dazu braucht man noch nicht einmal einen superstarken Rechner, ein einigermaßen brauchbarer Gaming-PC reicht. Mit einem Klick auf „Weiterlesen“ finden Sie eine Anleitung, wie Sie das auf dem eigenen Rechner umsetzen können.

(Beispielbilder am Schluss des Beitrags)

„Eigene KI-Bilder erzeugen“ weiterlesen

Tipps zur Einrichtung eines lokalen KI-Servers

In Ergänzung zu unserem vorangegangenen Beitrag haben wir noch ein paar Tips für Sie zur Installation eines eigenen KI-Chatbots.

Im Gegensatz zur verlinkten Anleitung bei Hetzner würden wir Ihnen betreff Open WebUI, falls Sie keine Docker-Installation wünschen, empfehlen, nicht mit git, sondern mit pip zu installieren. Die Docker Installation ist wohl am einfachsten und funktioniert auch einwandfrei. Vielleicht will man jedoch mehr Einblick in die Installation. Die hierzu im Artikel von Hetzner als Alternative vorgeschlagene git-Installation funktioniert zwar auch, aber spätestens beim ersten Update scheitert man unserer Erfahrung und das endet in einer Neu-Installation – bei der natürlich alle Einstellungen etc. verlorengehen. Hat man jedoch mit pip installiert, ist eine neue Open WebUI Version kein Problem.

Falls Sie Open WebUI mit pip installieren möchten, sollten Sie Python <=3.11 verwenden. Sollte Ihr System ein neueres Python haben, können Sie die V3.11 nachinstallieren mit „apt [bzw. dnf etc.] install python3.11″ und pip 3.11 mit „python3.11 -m ensurepip –upgrade“. Anschließend verwenden Sie  „python3.11 <script.py>“ und „pip3.11 <befehl>“ um die 3.11 Version auszuführen.

Zum Speicherbedarf. Ein System mit >= 12 GB VRAM kann Modelle bis 32b im Speicher der Grafikkarte ausführen. Falls das Modell in der Grafikkarte ausgeführt werden kann, ist das erheblich schneller als auf dem Mainboard. Und 32b ist bereits ein sehr gutes Modell mit hoher Qualität – insbesondere die für Programmierer sehr interessante, aus dem Vollmodell destillierte, Variante Qwen2.5-coder:32b hat sogar maximal 32b Parameter („b“ steht für englisch Billions, also Milliarden Parameter), kann also bereits mit einer relativ erschwinglichen Gamer-GPU in deren Speicher laufen.

Interessant i.d.Zshg. ist außerdem, um eines der großen bzw. vollständigen Modelle auszuführen, braucht man nicht unbedingt einen unbezahlbar teuren Grafikkartenpark. Auf einem System mit 512 GB RAM und einer hinreichend starken CPU lassen sich die vollen Modelle mit ca. 760b auch auf dem Mainboard einigermaßen performant ausführen, solange es nur um Inference (Antworten auf Fragen) geht. Klar ist das etwas langsam, aber als alleiniger Anwender erträglich und brauchbar. Training wäre allerdings eine ganz andere Sache …

Eigenen KI-Chatbot hosten

https://community.hetzner.com/tutorials/ai-chatbot-with-ollama-and-open-webui/de

Dieses Tutorial erklärt, wie man auf einem Server mit Ubuntu oder Debian Ollama installiert und Sprachmodelle hinzufügt. Es wird auch gezeigt, wie man mit Open WebUI eine Chat-Benutzeroberfläche einrichtet und wie man ein eigenes Sprachmodell erstellt.

Möchten Sie einen eigenen KI-Chatbot hosten? Mit dieser großartigen Anleitung ist es sehr einfach und Sie erhalten Zugriff auf eine Vielzahl von KI-Modellen, einige davon gegenüber OpenAI deutlich überlegen. Das OpenAI-Modell gibt es aber dort nicht, das ist nicht OpenSource, obwohl Altman das versprochen hatte (genau das ist übrigens der Kern des Streits zwischen Musk und Altman, nebenbei).

Einen solchen Chatbot mit Web-UI zu hosten geht auch auf dem eigenen Rechner, und der Zugriff auf die Ollama Engine via Browser ist deutlich komfortabler.

Open Source KI

https://github.com/deepseek-ai/DeepSeek-R1

We introduce our first-generation reasoning models, DeepSeek-R1-Zero and DeepSeek-R1. DeepSeek-R1-Zero, a model trained via large-scale reinforcement learning (RL) without supervised fine-tuning (SFT) as a preliminary step, demonstrated remarkable performance on reasoning. With RL, DeepSeek-R1-Zero naturally emerged with numerous powerful and interesting reasoning behaviors. However, DeepSeek-R1-Zero encounters challenges such as endless repetition, poor readability, and language mixing. To address these issues and further enhance reasoning performance, we introduce DeepSeek-R1, which incorporates cold-start data before RL. DeepSeek-R1 achieves performance comparable to OpenAI-o1 across math, code, and reasoning tasks.

Die chinesische Entwicklung des KI-Modells „DeepSeek“ sendet Schockwellen durch die Branche und lässt alle Tech-Aktien abstürzen, weil es viel günstiger ist als die Konkurrenz und deutlich weniger Trainingsaufwand benötigt. Im Artikel von Heise dazu kommt jedoch mMg. zu kurz, dass das Modell Open Source ist – ein Versprechen, das auch Sam Altman für OpenAI gegeben hatte, aber bis heute nicht eingelöst hat. In Verbindung mit den weit geringeren Hardware-Anforderungen kann man diese KI also auf einigermaßen leistungsfähiger Hardware selbst hosten.

Auch Giganten können über die eigenen Füße stolpern

https://www.zerohedge.com/markets/intel-brink-death-due-culture-rot-says-scathing-report

Intel’s board is incompetent and its horrible decisions over the decades are going to push it towards death. The decision to fire Pat Gelsinger, put in charge a CFO + career sales and marketing leader, and cut spending on fabs in favor of a renewed focus on x86 is an example of the incompetence that will end Intel. Fabricated Knowledge wrote The Death of Intel: When Boards Fail recently explaining how board issues around leadership and planning have failed the company. Simply put, the Intel board has escaped blame for over a decade of failures. This decade of failure culminates in the ultimate mistake: dismissing CEO Pat Gelsinger.

„Überraschenderweise“ sind Innovation und Qualität eben doch tragfähigere Strategien als Knebelverträge, Monokultur und Andienen an realitätsverleugnenden Zeitgeist. „Diversity, Inclusion and Equity“ (DIE) wurde mittlerweile umbenannt in DEI. Es ist wohl mittlerweile zu offensichtlich geworden, was diese Schlagwortsammlung in Wahrheit für Unternehmen anrichtet. Siehe auch Intel’s Commitment to Sustainability and Diversity und What happened to Intel?

Blick in die Glaskugel

https://www.pcwelt.de/article/2526399/was-bringt-das-jahr-2025-fuer-linux.html

Die Auswahl der nachfolgenden Trends, Hardwareprodukte und Softwareentwicklungen ist ein bunter Mix, der den Fokus auf Linux-Nutzung setzt. Daneben werden aber auch andere IT-Ereignisse bei Hardware und Software berücksichtigt, die den künftigen IT-Alltag beeinflussen oder prägen werden.

PC-WELT mit einem sehr interessanten Überblick für Neuerungen bei Hard- und Software, die 2025 in der Informationstechnologie vermutlich wichtig sein werden. Mit CPU und GPU ist es wohl bald nicht mehr getan, es muss künftig auch eine NPU in den Rechner.

Doppelmoral in Vollendung

https://www.infosperber.ch/umwelt/reiche-mehr-co2-in-90-minuten-als-normalos-lebenslang/

Die 50 reichsten Milliardäre der Welt haben einen unverhältnismässig grossen ökologischen Fussabdruck. Laut einem aktuellen Bericht von Oxfam International, der kurz vor der UN-Klimakonferenz COP29 in Baku, Aserbaidschan, veröffentlicht wurde, generieren diese Milliardäre in nur 90 Minuten mehr CO2 als ein durchschnittlicher Mensch in seinem ganzen Leben.

Wegen mir dürfen die Superreichen gerne leben wie sie möchten, und die im Artikel erhobene Forderung nach schon wieder höheren Steuern lehne ich auch ab. Jedoch, wenn besagte Leute gleichzeitig permanent herumtröten, die ganze Menschheit müsse sich unbedingt einschränken, dann könnten sie doch erst einmal bei sich selbst anfangen. Mit anderen Worten, das, was die ultrareichen Klima-Hysteriker auf ihren superteuren Konferenzen von anderen verlangen, tun sie selbst jedoch ganz und gar nicht. Es wirkt deshalb vielmehr so, als ob es genau dieselben sind, die an den immer extremeren Belastungen für die Allgemeinheit wegen Klima immer noch reicher werden – die ihren Reichtum und ihre Macht einsetzen, um Werbung für das Produkt „Klima-Angst“ zu machen. An welche sie aber, ganz offensichtlich, selbst überhaupt nicht glauben.

„God mode“ ist out – der neue Cheatcode heißt „Enable Alzheimer“

https://ansage.org/neue-aera-der-ki-in-spielen-von-npcs-zu-komplexen-gegnern/

In naher Zukunft könnten NPCs sogar über lernfähige KI verfügen, die sich über die Spieldauer hinweg anpasst und so eine einzigartige, personalisierte Spielerfahrung schafft. Darüber hinaus wird erwartet, dass KI-gesteuerte Charaktere noch stärker mit den Spielern interagieren, sodass Dialoge und Handlungen flüssiger und organischer erscheinen.

Die Zeiten, in denen man Single-Player-Computerspiele als eine Art komplexes Schach ansehen konnte, in welchem man versuchte, die Fehler und Lücken in der Programmierung zu finden, um zu gewinnen, sind dann wohl bald vorbei.

Ich frage mich allerdings, ob diese KI-Charaktere so menschenähnlich sein werden, dass sie mit dementem Gebrabbel einen Atomkrieg loszutreten versuchen und anschließend orientierungslos in den Regenwald stolpern.

Immer noch die Besten

https://www.golem.de/news/atomkraft-erfolgreicher-sicherheitstest-am-ersten-kugelhaufenreaktor-2407-187417.html

In China ist die Sicherheit des ersten kommerziellen Kugelhaufenreaktors getestet worden. Dazu wurde der Strom abgeschaltet und die Kontrolle über den Reaktorkern den passiven Systemen überlassen … Shidaowan ist ein Hochtemperaturreaktor mit Kugelhaufen oder kurz Kugelhaufenreaktor (High Temperature Reactor – Pebble-Bed Module, kurz: HTR-PM). Der Brennstoff Uran befindet sich dabei in etwa 6 Zentimeter großen Kugeln, die mit Siliziumkarbid beschichtet sind. Als Moderator dient Graphit, als Kühlmittel Helium.

Das Konzept wurde in Deutschland entwickelt, aber hierzulande war es chancenlos. Atomkraft nein danke, ruinöse Strompreise ja bitte. Immerhin, als abschreckendes Beispiel, wie ideologische Verbohrtheit eine Industrienation in kürzester Zeit in den Absturz treibt, ist Deutschland immer noch führend.

Mondphasen-Kalender

Die Kraft der Gravitation des Mondes auf die Erde ist so groß, dass sie alle Ozeane bewegt und Ebbe und Flut hervorruft. Bedenkt man außerdem, dass der Mensch zu zwei Dritteln aus Wasser besteht, und dass dies ebenso oder in noch höherem Ausmaß für alle Tiere und Pflanzen gilt, ist es nicht verwunderlich, dass es seit altersher Überlieferungen gibt, wie der Mond Gesundheit, Stimmungen, aber auch Viehzucht und Ernte beeinflusst.

Was von diesen empirischen Beobachtungen richtig ist, und was nur Folklore, das wollen wir an dieser Stelle nicht beurteilen. Aber falls Sie z.B. eine Parasitenkur nach dem Vollmond ausrichten, in Ihrem Garten günstige Saattermine finden, oder, für die Damen, den besten Zeitpunkt fürs Haareschneiden ermitteln wollen, haben wir heute eine passende Software für Sie.

„Mondphasen-Kalender“ weiterlesen

Umweltschutz contra Umsatz

https://www.giga.de/tech/langlebige-technik-buy-it-for-life-bifl-mit-beispielen-erklaert–01J5QTY86Q4WC99A1Q7D3T1ES3

Sneakers aus Stoff, Spielzeug aus Plastik, In-Ear-Kopfhörer mit integriertem Akku: Bei vielen Produkten ist schon beim Kauf absehbar, dass die Lebensdauer begrenzt ist. Wer dem Wahnsinn der Wegwerfgesellschaft entkommen möchte, muss sich nach „Buy-it-for-life“-Produkten umsehen. Sie gelten als qualitativ hochwertig und besonders langlebig. Wir haben einige Empfehlungen aus dem Technikbereich für euch zusammengetragen.

Es ist vermutlich die umweltfreundlichste Entscheidung beim Kauf, außer gar nicht zu kaufen: Langlebige Produkte. Leider steht das den Interessen der Industrie diametral entgegen.