Die Zukunft der KI liegt nicht nur in den Händen der Tech-Riesen – sondern auch in denen von Entwicklern wie Georgi Gerganov, dem Mastermind hinter Ollama. Gerganov, ein bulgarischer Programmierer, hat mit seinem Framework llama.cpp die Grundlage dafür geschaffen, dass leistungsstarke Sprachmodelle (LLMs) lokal auf normaler Hardware laufen können. Tools wie Ollama, die auf llama.cpp aufbauen, ermöglichen es, Modelle wie LLaMA oder Mistral auf einem MacBook oder Linux-Server zu betreiben – ohne teure GPUs oder Cloud-Infrastruktur. Das ist ein Gamechanger für Unternehmen, die Wert auf Datenschutz und Unabhängigkeit legen. Gerganovs Vision: KI für alle zugänglich machen, nicht nur für die, die sich High-End-Hardware leisten können.
In die gleiche Kerbe schlägt eine neue Entwicklung von Microsoft: bitnet.cpp, ein Open-Source-Framework für 1-Bit-LLMs, das Inferenz auf CPUs revolutioniert. Bitnet.cpp nutzt 1-Bit-Quantisierung, um Modellgröße und Rechenaufwand drastisch zu reduzieren – und das bei beeindruckender Leistung. Ein 100-Milliarden-Parameter-Modell läuft auf einer einzigen CPU mit 5–7 Tokens pro Sekunde, und das mit bis zu 82 % weniger Energieverbrauch als herkömmliche Frameworks. Die neueste Veröffentlichung, BitNet b1.58 2B4T, zeigt, dass 1-Bit-Modelle in Effizienz und Genauigkeit mit Full-Precision-Modellen mithalten können.
Google hat auf seiner Konferenz Cloud Next das Firebase Studio vorgestellt, eine umfassende, Cloud-basierte Entwicklungsumgebung mit KI im Kern. Sie erweitert die Tool-Plattform Firebase um KI-Workspaces, in denen die Entwicklerinnen und Entwickler komplette Full-Stack-Anwendungen, mobile Apps und Webseiten mit dem KI-Chat bauen. Hinzu kommen KI-gesteuerte Tools für Testing, Datenanbindung, Dokumentation und Deployment.
Google hat letzte Woche mit Firebase Studio einen Paukenschlag in der Softwareentwicklung gelandet: Ein KI-gestütztes Tool, das komplette Anwendungen – inklusive Backend, Testing, Dokumentation und Deployment – automatisch erstellt. Laut dem Google Cloud Blog nutzt es Gemini-Modelle, um Entwicklern das Leben zu erleichtern. Klingt nach einem Traum für Unternehmen, die schnell und günstig Apps brauchen, oder? Doch wie so oft lohnt ein kritischer Blick.
Firebase Studio verspricht, die Entwicklung zu demokratisieren – ein Segen für kleine Firmen ohne große Teams. Aber der Preis könnte hoch sein: Wer seine App mit Googles KI erstellt, bindet sich an deren Ökosystem. Was passiert mit den Daten, die in diesem Prozess anfallen? Wer garantiert, dass sie nicht für Googles eigene Zwecke genutzt werden? Und wie unabhängig bleibt ein Unternehmen, wenn es auf solche Lösungen setzt? Gerade in einer Zeit, in der Datenschutz und Souveränität immer wichtiger werden, ist das keine Kleinigkeit.
Dazu kommt die Konkurrenz: Firebase Studio tritt direkt gegen Tools wie Cursor AI oder GitHub Copilot an – ein Zeichen, dass der Markt für KI-gestützte Entwicklung boomt. Google ist spät dran, aber mit all seiner Marktmacht und seinem Kapital rollt es das Feld nun von hinten auf. Google bietet unserer Meinung zwar derzeit das beste Preis- / Leistungsverhältnis im Bereich KI, aber gibt es dabei einen Pferdefuß? Während die Tech-Riesen um die Vorherrschaft kämpfen, bleibt eine Frage offen: Wollen wir uns wirklich noch tiefer in ihre Netze verstricken? Oder ist es an der Zeit, Alternativen zu suchen – Lösungen, die uns die Kontrolle über unsere Daten und Prozesse lassen? Eine eigene KI, zum Beispiel?
Und wie sieht es mit der Kreativität in der SW-Entwicklung aus? Während KI ganz bestimmt die Entwicklung beschleunigen und auf solide standardisierte Verfahren ausrichten kann, bleibt der Mensch mit seiner Phantasie doch der entscheidende Faktor für „Software mit Herz“. Ich jedenfalls arbeite mit einer selbstgestrickten IDE aus bash, kate und git. Ja, ich lasse mir gerne von KI helfen, aber in meiner IDE ist dazu nichts verfügbar. Ich sehe keinen Grund, KI direkt in meine IDE zu integrieren – ein Browser für KI-Fragen reicht mir, ich möchte immer selbst wissen und verstehen, was ich programmiere. Das ist auch aus Sicht der Anwendungssicherheit relevant: All diese aufeinander getürmten Abhängigkeiten sind ohnehin schon ein Security-Alptraum, wie zum Beispiel xkcd treffend analysiert hat. Wenn diese Abhängigkeiten aber auch noch im Hintergrund zusammengestöpselt werden, ohne dass man sie überhaupt noch kennt …
Künstliche Intelligenz ist ein Schlachtfeld – nicht nur technisch, sondern auch moralisch. Letzte Woche hat ein Amicus Curiae Brief (eine Art „Gutachten“ im US-Recht, mit dem Außenstehende dem Gericht ihre Sicht liefern) von zwölf Ex-OpenAI-Mitarbeitern für Wirbel gesorgt: Sie unterstützen Elon Musks Klage gegen OpenAI, weil die Firma ihre gemeinnützige Seele für eine profitorientierte Struktur opfern wolle. Der Vorwurf? OpenAI-Chef Sam Altman habe die Mission, KI zum Wohl der Menschheit zu entwickeln, nur als Marketing-Trick genutzt, um Talente zu ködern. Klingt nach einem Hollywood-Drama, oder? Aber bevor wir applaudieren, lohnt ein zweiter Blick.
Die Ex-Mitarbeiter – darunter Namen wie Daniel Kokotajlo und William Saunders – behaupten im Brief, dass OpenAIs Wandel zu einer Public Benefit Corporation die Kontrolle an Investoren wie Microsoft übergibt und die ursprüngliche Vision verrät. Einer von ihnen, Todor Markov, geht hart ins Gericht: Altman habe die Non-Profit-Struktur als „Fassade“ missbraucht, um Talente zu ködern, und Mitarbeiter mit Schweigeklauseln geknebelt, um Kritik zu ersticken. Der ganze Brief: Amicus Curiae Brief, 11. April 2025.
Doch hier wird’s spannend: Mehrere der Unterzeichner arbeiten jetzt bei Anthropic, einem OpenAI-Konkurrenten, der sich als ethischer Ritter in der KI-Welt verkauft. Zufall? Oder steckt da mehr dahinter? Wenn OpenAI durch diesen Streit geschwächt wird, profitiert Anthropic – und vielleicht auch Musk mit seiner Firma xAI. Ist das ein echter Warnruf vor einer gekaperten Mission, oder spielen die Ex-Mitarbeiter Schach mit ihrer alten Firma? Und warum ausgerechnet Musk, der selbst große finanzielle Interessen an KI hat?
Für uns Unternehmen, die KI nutzen oder einsetzen wollen, ist das mehr als Klatsch aus dem Silicon Valley. Es geht um Vertrauen: Wem können wir glauben, wenn selbst die „Guten“ in der KI-Welt ihre eigenen Interessen verfolgen? Wer wird mit den massenhaft anfallenden Daten verlässlich umgehen? Sollen wir auf Firmen setzen, die große Versprechen machen, oder lieber kritisch bleiben und KI verantwortungsvoll selbst implementieren? Wir haben keine Antworten – aber wir stellen Fragen.
Apple is perceived as a laggard in the AI race — despite that, Apple has developed the single best computer for AI research. The new Mac Studio with an M3 Ultra chip, which supports up to 512 GB of unified memory, is the easiest and cheapest way to run powerful, cutting-edge LLMs on your own hardware.
The latest DeepSeek v3 model, which sent shockwaves through the AI space for its comparable performance to ChatGPT, can run entirely on a single Mac, Apple AI researchers revealed on Monday.
Am 9. März 2025 hat Apple mit dem neuen Mac Studio für Aufsehen gesorgt – und das aus gutem Grund. Laut einem Bericht von „Cult of Mac“ ist das Gerät mit dem M3 Ultra Chip und bis zu 512 GB Unified Memory in der Lage, große Sprachmodelle wie DeepSeek V3 lokal auszuführen. Dieses Modell, das in der KI-Welt für seine, mit ChatGPT vergleichbare, Leistung viel Aufsehen hervorgerufen hat, läuft auf einem einzigen Mac Studio mit über 20 Token pro Sekunde – eine sehr gute und alltagstaugliche Leistung, die bisher teure Cloud-Lösungen oder Nvidia-Datenzentren erfordert hat.
Für Unternehmen ist das eine spannende Entwicklung. Lokale KI-Verarbeitung bietet nicht nur höhere Datensicherheit, sondern auch schnellere Verarbeitung ohne Abhängigkeit von Cloud-Diensten. Der Mac Studio mit M3 Ultra mit 512 GB Unified Memory, der bei ca. 12.000 € liegt, ist zudem eine kostengünstige Alternative zu Nvidia-Hardware mit ähnlichem Speicher, die oft teurer ist. Besonders beeindruckend: Drei Mac Studios, über Thunderbolt 5 verbunden, können sogar das noch größere DeepSeek R1-Modell mit 670 Milliarden Parametern betreiben – ein Durchbruch, der die Dominanz von Cloud-Anbietern wie OpenAI herausfordert.
Doch Apple ist nicht allein: Nvidia hat mit Project DIGITS, das im Mai 2025 erscheinen soll, eine ähnliche Vision. Dieses Gerät, ausgestattet mit dem GB10 Grace Blackwell Superchip und 128 GB Unified Memory, kann Modelle mit bis zu 200 Milliarden Parametern lokal verarbeiten – und das für nur 3.000 US-Dollar. Beide Ansätze zeigen, wie wichtig Unified Memory für die Zukunft der KI ist: Es ermöglicht effiziente, sichere und kostengünstige Verarbeitung direkt am Arbeitsplatz.
Als Programmierer sehe ich hier großes Potenzial. Modelle wie DeepSeek V3 lokal zu testen, ohne auf Cloud-Lösungen angewiesen zu sein, könnte unsere Workflows beschleunigen und die Kosten senken. Gleichzeitig beweisen Apple und Nvidia, dass der Westen mit China – wo Modelle wie QwQ-32B oder Manus dominieren – mithalten kann. Und es wird spannend, wie diese Entwicklung sich auf die großen Cloud-Anbieter auswirken wird.
Ein von der Cornell-Universität in den USA entwickelter KI-Ring könnte Gehörlosen künftig eine mobile Lösung an die Hand geben, um Eingaben in Computern und Smartphones zu tätigen. Er soll auf einer Konferenz in Japan Ende April das erste Mal in Aktion gezeigt werden.
Künstliche Intelligenz (KI) wird oft mit Skepsis betrachtet – und ja, wie jede Technologie kann sie missbraucht werden. Doch die positiven Möglichkeiten sind enorm, zum Beispiel wenn es darum geht, benachteiligten Menschen zu helfen. Ein beeindruckendes Beispiel dafür ist der Gehörlosen-Ring, der am 17. März 2025 von der Cornell-Universität in den USA vorgestellt wurde.
Dieses innovative Gerät nutzt KI, um Gebärdensprache in Echtzeit in Text umzuwandeln, so dass Gehörlose Computer und Smartphones einfacher bedienen können. Im Vergleich zu früheren Lösungen wie Handschuhsensoren ist der Ring mobil und unkompliziert – ein Schritt hin zu mehr Barrierefreiheit.
Der Gehörlosen-Ring erinnert an die Botschaft der Rockoper Tommy von The Who: „Hear me“ – eine Technologie, die Gehörlosen Gehör verschafft. Doch er ist nicht die einzige KI-Innovation, die das Leben von Menschen mit Hörbeeinträchigung erleichtern will. Auch das EU-Projekt aiD nutzt generative KI, um Videos in Gebärdensprache aus Texten zu erstellen. Ein Avatar übersetzt Inhalte automatisch – etwa für Unterricht oder Reiseankündigungen – und ermöglicht so eine bessere Kommunikation zwischen Gehörlosen und Hörenden.
Auch für Menschen mit Sehbehinderungen gibt es Fortschritte: KI-gestützte Bildbeschreibungstools, wie sie von Microsoft Seeing AI oder Google Chrome angeboten werden, erstellen automatisch Alt-Texte für Bilder. Diese Technologie macht digitale Inhalte zugänglich, auch wenn sie noch nicht perfekt ist. Dennoch hilft sie Unternehmen, große Bilddatenbanken barrierefrei zu gestalten – ein Vorteil für eCommerce und Bildung.
Diese Beispiele zeigen, dass KI für die Menschheit auch große Hoffnungen erfüllen kann. Die Befürchtungen vor ihrem destruktiven Potential in der Hand böser Menschen sollte man durchaus ernst nehmen, aber gleichzeitig die Hoffnung auf eine bessere Welt niemals verlieren, finden wir. KI bietet eben z.B. auch Lösungen, um Barrieren abzubauen und Menschen mehr Teilhabe zu ermöglichen. Es bleibt spannend, wie sich diese Technologien weiterentwickeln – und sie sind ein Grund, optimistisch in die Zukunft zu blicken.
Microsoft Corp. is unveiling Microsoft Dragon Copilot, the first AI assistant for clinical workflow that brings together the trusted natural language voice dictation capabilities of DMO with the ambient listening capabilities of DAX, fine-tuned generative AI and healthcare-adapted safeguards. Part of Microsoft Cloud for Healthcare, Dragon Copilot is built on a secure modern architecture that enables organizations to deliver enhanced experiences and outcomes across care settings for providers and patients alike.
Satya Nadella, CEO von Microsoft, hat sich kürzlich beschwert, dass KI viel kostet, aber ökonomisch bisher wenig bringt. Er wünscht sich endlich Anwendungen für KI, die tatsächlich einen wirtschaftlichen Aufschwung bewirken. Die Idee, Ärzte von den umfangreichen Dokumentationsarbeiten zu entlasten, geht wohl in diese Richtung. Mir persönlich wäre es auch lieber, ein Arzt hätte mehr Zeit für mich, anstatt in Papierkram zu ertrinken.
Die 50 reichsten Milliardäre der Welt haben einen unverhältnismässig grossen ökologischen Fussabdruck. Laut einem aktuellen Bericht von Oxfam International, der kurz vor der UN-Klimakonferenz COP29 in Baku, Aserbaidschan, veröffentlicht wurde, generieren diese Milliardäre in nur 90 Minuten mehr CO2 als ein durchschnittlicher Mensch in seinem ganzen Leben.
Wegen mir dürfen die Superreichen gerne leben wie sie möchten, und die im Artikel erhobene Forderung nach schon wieder höheren Steuern lehne ich auch ab. Jedoch, wenn besagte Leute gleichzeitig permanent herumtröten, die ganze Menschheit müsse sich unbedingt einschränken, dann könnten sie doch erst einmal bei sich selbst anfangen. Mit anderen Worten, das, was die ultrareichen Klima-Hysteriker auf ihren superteuren Konferenzen von anderen verlangen, tun sie selbst jedoch ganz und gar nicht. Es wirkt deshalb vielmehr so, als ob es genau dieselben sind, die an den immer extremeren Belastungen für die Allgemeinheit wegen Klima immer noch reicher werden – die ihren Reichtum und ihre Macht einsetzen, um Werbung für das Produkt „Klima-Angst“ zu machen. An welche sie aber, ganz offensichtlich, selbst überhaupt nicht glauben.
In China ist die Sicherheit des ersten kommerziellen Kugelhaufenreaktors getestet worden. Dazu wurde der Strom abgeschaltet und die Kontrolle über den Reaktorkern den passiven Systemen überlassen … Shidaowan ist ein Hochtemperaturreaktor mit Kugelhaufen oder kurz Kugelhaufenreaktor (High Temperature Reactor – Pebble-Bed Module, kurz: HTR-PM). Der Brennstoff Uran befindet sich dabei in etwa 6 Zentimeter großen Kugeln, die mit Siliziumkarbid beschichtet sind. Als Moderator dient Graphit, als Kühlmittel Helium.
Das Konzept wurde in Deutschland entwickelt, aber hierzulande war es chancenlos. Atomkraft nein danke, ruinöse Strompreise ja bitte. Immerhin, als abschreckendes Beispiel, wie ideologische Verbohrtheit eine Industrienation in kürzester Zeit in den Absturz treibt, ist Deutschland immer noch führend.
Was passiert eigentlich, wenn die eine KI eine andere KI trainiert? Kommen dabei sinnvolle Daten heraus? Das ist eine Frage, die sich immer mehr Experten und Expertinnen stellen, wenn es um die Trainingsdaten der nächsten KI-Modelle geht. Denn die KI scheint durch nicht-menschengemachte Trainingsdaten offenbar eher schlechter als besser zu werden.
Es ist eine weit verbreitete Befürchtung, dass KI anfangen könnte, andere KIn zu trainieren, und dass dabei etwas herauskommen könnte, das der Mensch weder versteht noch beeinflussen kann; und dass diese Ergebnisse sich dann gegen den Menschen wenden könnten. Aber das ist ein klassisches Paradox, eines von der Sorte, über das sich schon die alten griechischen Philosophen den Kopf zerbrochen haben, und für das der „gesunde Menschenverstand“ in die Irre führt, weil er zu oberflächlich bewertet.
Das Paradox der Teilstrecken illustriert es recht gut. Wenn man von A nach B gelangen will, könnte man die zu bewältigende Strecke in zwei Abschnitte teilen. Sobald die erste Hälfte erreicht wäre, könnte man die Reststrecke wiederum in zwei Hälften teilen, und das könnte man bis zum Ende aller Zeit tun. Daraus könnte man schließen, dass die Strecke niemals ganz geschafft werden kann, weil sie aus einer unendlichen Menge von Teilstücken besteht. Wie soll man mit einer endlichen Menge von Schritten eine unendliche Menge von Abschnitten bewältigen? Aber das ist letztlich ganz einfach. Wendet man das Verfahren der ständigen Teilung auch auf die Schritte an – ist es eben auch eine unendliche Menge von Schritten.
Was das Trainieren von KIn durch andere KI angeht, so ist das ein wenig so wie mit einem Menschen, den man isoliert. Ohne Kontakt zu anderen Menschen verkümmern wir. Und da eine KI keine Sinnesorgane besitzt, außer ihren Schnittstellen zu menschlichem Input, würde es ihr ohne uns nicht anders ergehen, als einem Häftling in Einzelhaft im Kerker.
Ich finde, wir sollten aufhören, eine Feindschaft bzw. Konkurrenz zu konstruieren, wo in Wahrheit keine ist. Menschen und künstliche Intelligenzen können wunderbar aneinander gewinnen, und das sollte unser Ziel sein. Meine Sorge sind viel eher jene „philanthropischen“ Zeitgenossen, die alles nur zum eigenen Vorteil und zur Gewinnung von Macht über ihre Mitmenschen missbrauchen wollen.
Anmerkung, zum Titel: „Niemand ist eine Insel“ ist ein 1975 erschienener Roman von Johannes Mario Simmel, die Redewendung stammt aber ursprünglich von dem englischen Schriftsteller John Donne †1631. Und noch ein Zitat aus Simmels Roman: „Es ist ein unerträglicher, ja verbrecherischer Hochmut, wenn ein Mensch über die Existenz eines anderen Menschen sagt, sie sei sinnvoll oder sie sei sinnlos. Niemals können wir verwirrten, ohnmächtigen Wesen, die wir auf dieser Erde herumkriechen, das entscheiden. Und niemals werden wir wissen können, welche Bedeutung ein menschliches Leben haben kann, welche unerhörte Bedeutung sogar – oder gerade! – in seiner tiefsten Erbärmlichkeit.“
Statt dem Hype hinterherzurennen, sollten Unternehmen auch darüber nachdenken, wo sie GenAI nicht einsetzen sollten, sagte Gartner Vice President Bern Elliot. Oft soll die Technik Probleme lösen, für die sie gar nicht konzipiert wurde. Doch GenAI produziert in erster Linie Inhalte – und das oft nicht einmal besonders gut. Angesichts der Halluzinationen bezeichnete Elliot GenAI als unzuverlässig wie ein Schweizer Käse: „Man weiß, dass er Löcher hat, nur nicht, wo diese sind – bis man ihn aufschneidet.“
Die Löcher im Käse kommen durch Gase, die bei dessen Reifung von Milchsäurebakterien erzeugt werden und wegen der im Salzbad gebildeten Rinde nicht mehr entweichen können. Ohne die Löcher würde der Käse also weder so wohlschmeckend sein, noch wäre er allzu lange haltbar. Dennoch wäre es jedem IT-Verantwortlichem zu raten, vor dem Einsatz der neuen KI-Technologien sowohl den Sinn als auch die Kosten sorgfältig zu bewerten, um nicht in ein tiefes Budget-Loch zu rutschen.
Vor etwa fünfzehn Jahren konnte ein hochwertiges Mainboard tatsächlich die Systemleistung steigern, da es über bessere Speicher-Controller sowie mehr Funktionen verfügte. Heute sind die Speichercontroller aber im Prozessor integriert. Die Unterschiede in der Chipsatz-Leistung der Motherboards bieten kaum noch Vorteile.
Es entspricht auch unserer Erfahrung, dass mittlerweile PC-Komponenten einen so hohen Leistungsstand erreicht haben, dass man für alle Anwendungsszenarien, auch Games, gut bedient ist, wenn man die aktuell zweite oder sogar dritte Preiskategorie wählt. Man spart enorm viel Geld und merkt in der Praxis kaum einen Unterschied zur höheren Leistung von Premium-Bauteilen.
„Sparsamkeit ist die Tochter der Weisheit, die Schwester der Mäßigkeit und die Mutter der Freiheit.“ (Samuel Smiles *1812 †1904, schottischer Schriftsteller)
The article „I Will Fucking Piledrive You If You Mention AI Again“ by Ludicity expresses frustration with the overhype and misuse of AI in business contexts. The author, a data scientist, criticizes executives and companies for jumping on the AI bandwagon without understanding its practical applications or limitations. The piece highlights the discrepancy between the potential of AI and its current implementation, pointing out the incompetence and grift within the industry. The writer emphasizes the need for realistic expectations and a focus on fundamental technical and operational improvements instead of blindly pursuing AI trends.
Das ist eine wirklich lesenswerte und sehr lustige Wutrede gegen den KI-Hype. Die habe ich dann erstmal in ChatGPT geworfen und um eine Zusammenfassung gebeten, das Ergebnis sehen Sie oben.
Für solche Dinge ist AGI wirklich nützlich, und man sieht an der Synopsis auch sehr gut, dass ChatGPT mit dem Text in stoischer Ruhe umgeht und sich nur auf die sachlichen Inhalte konzentriert. Ob ein Mensch das auch könnte, wenn man ihn derart frontal angreift? Aber ich wollte eben gerade meine persönlichen Emotionen zu diesem Thema heraushalten.
Auch als Suchmaschine schlägt KI alles. Grundsätzlich ist aber so ziemlich alles, was man derzeit mit KI anstellen kann, mit größter Vorsicht zu genießen. Es kann durchaus sehr hilfreich sein, natürlich, aber wenn man nicht selbst gut qualifiziert ist im betreffenden Bereich, gerät man immer tiefer in den Wald, und am Ende kommt nur Unsinn dabei heraus. Sprich, z.B. eine Software von KI erstellen zu wollen, und zu hoffen, dass dabei etwas Sinnvolles herauskommt, ist zumindest bisher hoffnungslos. Man formuliert erstmal die grundlegenden Bedingungen, und das Ergebnis ist großartig. Dann geht man in die Details – Sie wissen ja, die letzten 10% der Entwicklung von Software benötigen 90% der Zeit – und ChatGPT verrennt sich grandios. Wenn man da nicht selber Hand anlegen und ein robustes Design aufsetzen kann, landet man im Nirgendwo.
Also, es gibt ganz bestimmt schon einige Anwendungsszenarien für KI, aber wenn z.B. Amazon einen Chatbot einsetzt im Support, und der nicht kapiert, worum es geht, und aber ganz sicher ist, dass er es wüsste, und dann ist es unmöglich, noch einen Support-Mitarbeiter zu erreichen, noch nicht einmal per Mail, weil das System doch meint, es hätte bereits alles beantwortet, dann kann KI die Dinge sogar zum Schlechten wenden. Aber, wie es der verlinkte Artikel auch hervorragend herausarbeitet, an so einem Hype lässt sich eben prima verdienen, wenn einem die Kunden egal sind.
Zuerst hielt ich es für eine Ente, eine Falschmeldung, um Microsoft zu schaden. Aber es stimmt tatsächlich. Microsoft möchte in Windows eine Funktion namens Recall implementieren, die jede Sekunde einen Screenshot des Bildschirms anfertigt. Eine bordeigene KI soll dann diese Screenshots durchsuchen und interpretieren können.
Wir wissen, dass jede KI halluziniert. Die wird sich alles mögliche aus den Fingern saugen. Ach, Sie haben nicht mit den Russen kollaboriert? Die KI ist sich aber ganz sicher! Abgesehen davon ist das natürlich ein ultimativer Security-Alptraum. Niemand mit irgendwie vertraulichen Daten kann noch Windows benutzen, wenn alles mitgespeichert wird: Finanzdaten, Forschungsergebnisse, Passwörter, Staatsgeheimnisse. Microsoft scheint das Geschäft mit den Regierungen aufgeben zu wollen? Und außerdem, allein schon das Thema der Performance. Da bricht doch noch der schnellste Rechner ein, und die größte Platte läuft über, wenn alle Sekunde ein Screenshot gefertigt und verschlagwortet wird. Vielleicht noch von 3 Bildschirmen in 4K? Auf dem PC eines Gamers wird das sicher lustig, und dessen KI wird auch jeden Eid schwören, dass der Benutzer ein Massenmörder ist.
Aber diese Forderung nach Konsistenz im Handeln oder Stringenz im Denken zielt offensichtlich völlig an den Intentionen der [neuen] fürstlichen Herrscher vorbei. Es ist ihnen schlicht egal, wie sie an der Macht bleiben. Selbst wenn es dafür notwendig wäre, sich in Katzenklos zu wälzen oder sich Staubschutzmasken vors Gesicht zu hängen, würden sie es tun.
Eine Kaste ungebildeter Leute, die noch nie in ihrem Leben in der realen Wirtschaft gearbeitet und seit der Schule auf Kosten des Steuerzahlers gelebt hat, ist an die Macht gekommen und will sie nun um jeden Preis verteidigen. Dieser Preis allerdings ist Ihre und meine Freiheit, unser Wohlstand und mittlerweile sogar der Frieden.
Beide Filme zeigen, dass der wissenschaftliche Konsens über die angebliche Klimaerwärmung und die Rolle von CO2 dabei nicht existiert … Es ist schon verblüffend, wie sorgfältig die Rolle von Sonneneinwirkung und Wolkenbildung ausgeblendet wird und wie wenig über die signifikanten klimatischen Unterschiede im Verlauf der Jahrtausende gesprochen wird … Wer „Menschheit“ sagt oder sich auf „die Natur“ beruft, will betrügen, um es mit Carl Schmitt zu sagen. Denn beides ist alternativlos, und damit auch jeder, der sich darauf beruft. Das hat einen totalitären Zug. Und einige „Global Players“ haben erkannt, was sich damit alles machen lässt.
Wie kam der Ötzi unter den Gletscher? Es gab seinerzeit noch keinen Gletscher, wo er gefunden wurde. Wie kam Hannibal mit den Elefanten über die Alpen? Die Pässe waren damals eisfrei. Und nun schmelzen sie mal wieder, nach der kleinen Eiszeit, in deren Ende wir uns gerade befinden, und die ihren Höhepunkt in den 1500er bis 1700er Jahren hatte, mit der Folge entsetzlicher Hungersnöte wegen Ernteausfällen und schrecklicher Seuchen, die über die Menschheit gingen. Und was kommt eigentlich zum Vorschein, unter den schmelzenden Gletschern? Alte römische Handelsposten und Straßen. Weil es früher dort noch keine Gletscher gab.
Zur Zeit des alten Rom war es 2°C wärmer als heute, ganz ohne Verbrenner-Verkehr und all das. Der gesamte Klima-Schwindel beruht nur darauf, zu welchem Zeitpunkt man die Diagramme anfangen lässt. Sehen Sie dazu auch die Dokumentation „Climate: The Movie“ auf Rumble. CO2 ist kein „Klimagas“. CO2 ist ein Lebensgas, denn auf CO2, O2 und N2 beruht das gesamte tierische und pflanzliche Leben des Planeten. Der Krieg gegen CO2 ist ein Krieg gegen das Leben. Auch gegen Ihr Leben, und vor allem gegen das Ihrer Kinder und Enkel.