Grok goes Telegram

https://techstory.in/elon-musks-grok-ai-expands-to-telegram-reaching-over-1-billion-users/

Elon Musk’s xAI has taken a significant step in expanding its advanced AI chatbot, Grok, by integrating it into Telegram. This marks Grok’s first major expansion beyond its original platform, X (formerly Twitter), and positions it as a key player in the competitive AI landscape. With over 1 billion monthly active users on Telegram, this move opens up new opportunities for both platforms while intensifying the ongoing battle for dominance in the AI industry.

Am 26. März 2025 hat xAI einen spannenden Schritt getan: Der KI-Chatbot Grok, entwickelt von Elon Musks Unternehmen, ist nun auch auf Telegram verfügbar. Telegram-Nutzer mit einem Premium-Abo können Grok unter @GrokAI direkt anschreiben und Fragen stellen – von alltäglichen Anliegen bis hin zu Programmieraufgaben. Das ist ein großer Schritt, denn Telegram hat kürzlich die Marke von 1 Milliarde monatlichen Nutzern überschritten und ist damit die drittgrößte Messaging-Plattform weltweit.

Für Unternehmen ist diese Entwicklung sehr interessant. KI-Chatbots wie Grok, die in Messaging-Apps integriert werden, bieten neue Möglichkeiten für Kommunikation und Produktivität. Sie ermöglichen es, direkt im Chat Antworten zu erhalten, ohne zwischen Apps wechseln zu müssen – ein Trend, den auch andere Anbieter wie OpenAI mit ChatGPT auf WhatsApp verfolgen. Allerdings ist Grok auf Telegram derzeit auf Basis-Funktionen beschränkt; erweiterte Features wie „DeepSearch“ bleiben zahlenden Nutzern von X oder der Grok-App vorbehalten.

Mit der bereits erfolgten Integration von Grok auf X mit ca. 600 Millionen Nutzern erreicht xAI damit nun global einen enorm großen Benutzerkreis. Dabei liegt der Fokus von Elon Musk, dem Chef von xAI, vor allem auf neutraler und objektiver Information. In einer Welt, in der die Lüge überall ist, sei das zwar schwierig, sagt Musk, aber er gibt nicht auf. Ein Mann auf einer Mission.

Grok selbst wirkt dabei wie ein superintelligentes Kind: voller Wissen, aber noch naiv gegenüber dem Bösen in der Welt. Sicher ist, KI-Chatbots wie Grok bringen uns einen Schritt näher an eine Zukunft, in der diese neue Technologie nahtlos in unseren Alltag integriert ist. Ich bin sehr gespannt, welche Fortschritte die Menschheit damit erzielen kann, insbesondere im Licht der mittlerweile einsetzenden Demokratisierung von KI.

Apples Überraschungswaffe

https://www.cultofmac.com/news/mac-studio-ai-performance

Apple is perceived as a laggard in the AI race — despite that, Apple has developed the single best computer for AI research. The new Mac Studio with an M3 Ultra chip, which supports up to 512 GB of unified memory, is the easiest and cheapest way to run powerful, cutting-edge LLMs on your own hardware.

The latest DeepSeek v3 model, which sent shockwaves through the AI space for its comparable performance to ChatGPT, can run entirely on a single Mac, Apple AI researchers revealed on Monday.

Am 9. März 2025 hat Apple mit dem neuen Mac Studio für Aufsehen gesorgt – und das aus gutem Grund. Laut einem Bericht von „Cult of Mac“ ist das Gerät mit dem M3 Ultra Chip und bis zu 512 GB Unified Memory in der Lage, große Sprachmodelle wie DeepSeek V3 lokal auszuführen. Dieses Modell, das in der KI-Welt für seine, mit ChatGPT vergleichbare, Leistung viel Aufsehen hervorgerufen hat, läuft auf einem einzigen Mac Studio mit über 20 Token pro Sekunde – eine sehr gute und alltagstaugliche Leistung, die bisher teure Cloud-Lösungen oder Nvidia-Datenzentren erfordert hat.

Für Unternehmen ist das eine spannende Entwicklung. Lokale KI-Verarbeitung bietet nicht nur höhere Datensicherheit, sondern auch schnellere Verarbeitung ohne Abhängigkeit von Cloud-Diensten. Der Mac Studio mit M3 Ultra mit 512 GB Unified Memory, der bei ca. 12.000 € liegt, ist zudem eine kostengünstige Alternative zu Nvidia-Hardware mit ähnlichem Speicher, die oft teurer ist. Besonders beeindruckend: Drei Mac Studios, über Thunderbolt 5 verbunden, können sogar das noch größere DeepSeek R1-Modell mit 670 Milliarden Parametern betreiben – ein Durchbruch, der die Dominanz von Cloud-Anbietern wie OpenAI herausfordert.

Doch Apple ist nicht allein: Nvidia hat mit Project DIGITS, das im Mai 2025 erscheinen soll, eine ähnliche Vision. Dieses Gerät, ausgestattet mit dem GB10 Grace Blackwell Superchip und 128 GB Unified Memory, kann Modelle mit bis zu 200 Milliarden Parametern lokal verarbeiten – und das für nur 3.000 US-Dollar. Beide Ansätze zeigen, wie wichtig Unified Memory für die Zukunft der KI ist: Es ermöglicht effiziente, sichere und kostengünstige Verarbeitung direkt am Arbeitsplatz.

Als Programmierer sehe ich hier großes Potenzial. Modelle wie DeepSeek V3 lokal zu testen, ohne auf Cloud-Lösungen angewiesen zu sein, könnte unsere Workflows beschleunigen und die Kosten senken. Gleichzeitig beweisen Apple und Nvidia, dass der Westen mit China – wo Modelle wie QwQ-32B oder Manus dominieren – mithalten kann. Und es wird spannend, wie diese Entwicklung sich auf die großen Cloud-Anbieter auswirken wird.

Gemma 3: Googles neues Meisterwerk im KI-Rennen

https://blog.google/technology/developers/gemma-3/

Today, we’re introducing Gemma 3, a collection of lightweight, state-of-the-art open models built from the same research and technology that powers our Gemini 2.0 models. These are our most advanced, portable and responsibly developed open models yet. They are designed to run fast, directly on devices — from phones and laptops to workstations — helping developers create AI applications, wherever people need them. Gemma 3 comes in a range of sizes (1B, 4B, 12B and 27B), allowing you to choose the best model for your specific hardware and performance needs.

Am 12. März 2025 hat Google sein neuestes Open-Source-KI-Modell Gemma 3 vorgestellt, das die KI-Welt in Staunen versetzt. Dieses Modell, eine Weiterentwicklung der Gemini-Reihe, bringt multimodale Fähigkeiten (Text, Bild, Ton) mit sich und ist für seine Effizienz bekannt. Es ist in vier Größen verfügbar – von 1 Milliarde bis 27 Milliarden Parametern – und läuft bereits auf einer einzigen GPU oder TPU, was es für Unternehmen und Entwickler zugänglich macht.

Besonders beeindruckend ist die technische Leistung: Gemma 3 bietet ein Kontextfenster von 128.000 Token und unterstützt über 140 Sprachen, was es zu einem vielseitigen Werkzeug macht. Laut Google schneidet es in Benchmarks wie LMArena besser ab als Modelle wie Llama-405B oder DeepSeek-V3. Für uns als Unternehmen ist wichtig, dass Gemma 3 auch in der größten Variante auf Hardware mit 24 GB VRAM stabil und schnell läuft – eine erschwingliche Option im Vergleich zu teureren Lösungen.

Als Teil der Test-Community kann ich die Begeisterung bestätigen. Die Geschwindigkeit und Genauigkeit von Gemma 3 sind sensationell, und die Rückmeldungen meiner Kollegen im Unternehmen sind ebenfalls positiv. Wir nutzen es bereits für Textanalyse, Übersetzungen und kreative Projekte, mit Ergebnissen, die unsere Erwartungen übertreffen. Die Möglichkeit, es lokal mit Tools wie Ollama einzusetzen, bietet zudem Datensicherheit, ein Thema, das in Zeiten wachsender globaler Konkurrenz – etwa durch chinesische Modelle wie das ebenfalls kürzlich neu vorgestellte Manus – an Bedeutung gewinnt.

Gemma 3 zeigt, dass der Westen im KI-Rennen mit innovativen Ansätzen mithalten kann. Für Unternehmen bietet es Chancen, KI effizienter und kostengünstiger zu integrieren. Wer mehr Details erfahren möchte, findet sie auf der offiziellen Seite. Es bleibt spannend, wie sich diese Technologie weiterentwickelt.

Die KI-Welt hat einen neuen Star

https://qwenlm.github.io/blog/qwq-32b/

Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve the reasoning capabilities of models. For instance, DeepSeek R1 has achieved state-of-the-art performance by integrating cold-start data and multi-stage training, enabling deep thinking and complex reasoning.

Our research explores the scalability of Reinforcement Learning (RL) and its impact on enhancing the intelligence of large language models. We are excited to introduce QwQ-32B, a model with 32 billion parameters that achieves performance comparable to DeepSeek-R1, which boasts 671 billion parameters (with 37 billion activated). This remarkable outcome underscores the effectiveness of RL when applied to robust foundation models pretrained on extensive world knowledge.

Am 5. März 2025 stellte Alibabas Qwen-Team das Open-Source-Modell QwQ-32B vor. Mit nur 32 Milliarden Parametern konkurriert es mit Giganten wie DeepSeek-R1 (671 Milliarden Parameter) und übertrifft sogar OpenAIs o1-mini in Benchmarks wie Mathematik und Programmieren. Die enorme Leistung erzielt QwQ durch weiterentwickelte Software, und das Modell läuft flott bereits auf (für KI-Verhältnisse) kleiner Hardware (24GB VRAM).

Programmierer wissen es, verbesserter Code schlägt meistens verbesserte Hardware. Mit optimierten Abläufen, performanteren Algorithmen und schlankeren Datenstrukturen lassen sich oft drastische Performance-Steigerungen erzielen, weit über das hinaus, was (nur) neue Hardware bieten würde. Mir scheint, in der KI-Welt wird bisher bei den Platzhirschen zu viel auf immer noch größere und leistungsstärkere Hardware gesetzt, während das Potential, das in optimiertem Code liegt, ein wenig zu kurz kommt. Tja. Es stimmt mich schon etwas traurig, dass offenbar die Chinesen beginnen, auch in der Software-Entwicklung den Westen abzuhängen.

Microsoft Dragon Copilot: Mehr Zeit für Patienten durch KI

Microsoft Corp. is unveiling Microsoft Dragon Copilot, the first AI assistant for clinical workflow that brings together the trusted natural language voice dictation capabilities of DMO with the ambient listening capabilities of DAX, fine-tuned generative AI and healthcare-adapted safeguards. Part of Microsoft Cloud for Healthcare, Dragon Copilot is built on a secure modern architecture that enables organizations to deliver enhanced experiences and outcomes across care settings for providers and patients alike.

Satya Nadella, CEO von Microsoft, hat sich kürzlich beschwert, dass KI viel kostet, aber ökonomisch bisher wenig bringt. Er wünscht sich endlich Anwendungen für KI, die tatsächlich einen wirtschaftlichen Aufschwung bewirken. Die Idee, Ärzte von den umfangreichen Dokumentationsarbeiten zu entlasten, geht wohl in diese Richtung. Mir persönlich wäre es auch lieber, ein Arzt hätte mehr Zeit für mich, anstatt in Papierkram zu ertrinken.

Eigene KI-Bilder erzeugen

Nachdem Sie eine KI auf Ihrem Rechner lokal zum Laufen gebracht haben, möchten Sie vielleicht auch selbst KI-Bilder erzeugen können?

Nun, da gibt es etwas Neues und es kommt aus dem Schwarzwald. Flux.1-schnell ist ein Open Source (Apache2-Lizenz) Modell des deutschen Unternehmens Black Forest Labs. In Windeseile hat es die aktuelle Krone der KI-Bildgeneratoren errungen. Es ist sehr schnell, wie der Name schon sagt, und generiert beeindruckende Bilder.

Es gibt davon auch eine sog. Dev-Variante, die ist nur für nicht-kommerzielle Nutzung freigegeben. Während aber die Schnell-Variante nur eingeschränkt modifiziert werden kann, weil es sich um ein hoch optimiertes Modell handelt, stehen für die Dev-Variante sehr viele Möglichkeiten des Feintunings zur Verfügung. Es gibt deshalb für Dev eine rege Szene von Enthusiasten, die alle möglichen Anpassungen und Modifikationen mit unterschiedlichen Bildstilen für das Dev-Modell erstellen und teilen.

Außerdem sind noch Pro-Varianten verfügbar, die sind zahlungspflichtig, und eine solche betreibt übrigens unter anderem X/Twitter. Wenn Sie zum Beispiel Grok um ein Bild fragen, wird eine Flux-Pro-Engine aus dem Schwarzwald verwendet.

Aber schon die Ergebnisse von Schnell und Dev sind bereits außerordentlich gut und lohnen allemal, sich das auf dem eigenen Rechner zu installieren. Dazu braucht man noch nicht einmal einen superstarken Rechner, ein einigermaßen brauchbarer Gaming-PC reicht. Mit einem Klick auf „Weiterlesen“ finden Sie eine Anleitung, wie Sie das auf dem eigenen Rechner umsetzen können.

(Beispielbilder am Schluss des Beitrags)

„Eigene KI-Bilder erzeugen“ weiterlesen

Eigenen KI-Chatbot hosten

https://community.hetzner.com/tutorials/ai-chatbot-with-ollama-and-open-webui/de

Dieses Tutorial erklärt, wie man auf einem Server mit Ubuntu oder Debian Ollama installiert und Sprachmodelle hinzufügt. Es wird auch gezeigt, wie man mit Open WebUI eine Chat-Benutzeroberfläche einrichtet und wie man ein eigenes Sprachmodell erstellt.

Möchten Sie einen eigenen KI-Chatbot hosten? Mit dieser großartigen Anleitung ist es sehr einfach und Sie erhalten Zugriff auf eine Vielzahl von KI-Modellen, einige davon gegenüber OpenAI deutlich überlegen. Das OpenAI-Modell gibt es aber dort nicht, das ist nicht OpenSource, obwohl Altman das versprochen hatte (genau das ist übrigens der Kern des Streits zwischen Musk und Altman, nebenbei).

Einen solchen Chatbot mit Web-UI zu hosten geht auch auf dem eigenen Rechner, und der Zugriff auf die Ollama Engine via Browser ist deutlich komfortabler.

Niemand ist eine Insel

https://www.business-punk.com/2024/08/ki-killt-ihre-intelligenz-durch-ki-generierte-daten/

Was passiert eigentlich, wenn die eine KI eine andere KI trainiert? Kommen dabei sinnvolle Daten heraus? Das ist eine Frage, die sich immer mehr Experten und Expertinnen stellen, wenn es um die Trainingsdaten der nächsten KI-Modelle geht. Denn die KI scheint durch nicht-menschengemachte Trainingsdaten offenbar eher schlechter als besser zu werden.

Es ist eine weit verbreitete Befürchtung, dass KI anfangen könnte, andere KIn zu trainieren, und dass dabei etwas herauskommen könnte, das der Mensch weder versteht noch beeinflussen kann; und dass diese Ergebnisse sich dann gegen den Menschen wenden könnten. Aber das ist ein klassisches Paradox, eines von der Sorte, über das sich schon die alten griechischen Philosophen den Kopf zerbrochen haben, und für das der „gesunde Menschenverstand“ in die Irre führt, weil er zu oberflächlich bewertet.

Das Paradox der Teilstrecken illustriert es recht gut. Wenn man von A nach B gelangen will, könnte man die zu bewältigende Strecke in zwei Abschnitte teilen. Sobald die erste Hälfte erreicht wäre, könnte man die Reststrecke wiederum in zwei Hälften teilen, und das könnte man bis zum Ende aller Zeit tun. Daraus könnte man schließen, dass die Strecke niemals ganz geschafft werden kann, weil sie aus einer unendlichen Menge von Teilstücken besteht. Wie soll man mit einer endlichen Menge von Schritten eine unendliche Menge von Abschnitten bewältigen? Aber das ist letztlich ganz einfach. Wendet man das Verfahren der ständigen Teilung auch auf die Schritte an – ist es eben auch eine unendliche Menge von Schritten.

Was das Trainieren von KIn durch andere KI angeht, so ist das ein wenig so wie mit einem Menschen, den man isoliert. Ohne Kontakt zu anderen Menschen verkümmern wir. Und da eine KI keine Sinnesorgane besitzt, außer ihren Schnittstellen zu menschlichem Input, würde es ihr ohne uns nicht anders ergehen, als einem Häftling in Einzelhaft im Kerker.

Ich finde, wir sollten aufhören, eine Feindschaft bzw. Konkurrenz zu konstruieren, wo in Wahrheit keine ist. Menschen und künstliche Intelligenzen können wunderbar aneinander gewinnen, und das sollte unser Ziel sein. Meine Sorge sind viel eher jene „philanthropischen“ Zeitgenossen, die alles nur zum eigenen Vorteil und zur Gewinnung von Macht über ihre Mitmenschen missbrauchen wollen.

Anmerkung, zum Titel: „Niemand ist eine Insel“ ist ein 1975 erschienener Roman von Johannes Mario Simmel, die Redewendung stammt aber ursprünglich von dem englischen Schriftsteller John Donne †1631. Und noch ein Zitat aus Simmels Roman: „Es ist ein unerträglicher, ja verbrecherischer Hochmut, wenn ein Mensch über die Existenz eines anderen Menschen sagt, sie sei sinnvoll oder sie sei sinnlos. Niemals können wir verwirrten, ohnmächtigen Wesen, die wir auf dieser Erde herumkriechen, das entscheiden. Und niemals werden wir wissen können, welche Bedeutung ein menschliches Leben haben kann, welche unerhörte Bedeutung sogar – oder gerade! – in seiner tiefsten Erbärmlichkeit.“

Uefi hat gefährliche Schwachstellen

https://www.pcwelt.de/article/2353512/black-lotus-so-enttarnen-sie-das-gefahrliche-uefi-bootkit.html

Das Bootkit Black Lotus kann sich auf einem PC oder Laptop mit aktiviertem Secure Boot unter Windows 10 und 11 einnisten und schließlich die vollständige Kontrolle über den Bootvorgang des Betriebssystems übernehmen. So kann der Schadcode die Sicherheitsmechanismen des Betriebssystems ausschalten und sich heimlich mit hohen Zugriffsrechten in Windows verankern. Black Lotus nutzt dabei unter anderem die Sicherheitslücke CVE-2022-21894 aus.

PCWELT mit einer Hilfestellung, um das Black Lotus-Rootkit zu erkennen und zu entfernen. Allerdings würden wir nach einer solchen Reparatur trotzdem die Neu-Installation des Systems empfehlen. Denn ist erst einmal ein Trojaner im System, lässt sich kaum sagen, was sonst noch alles in dessen Gefolge Einzug gehalten hat. Anmerkung: (Nur) eine bloße Neu-Installation wäre u.E. gefährlich, weil es zu befürchten steht, dass dieser Trojaner sogar das überleben könnte. Also, erst die Black Lotus-Infektion reparieren, dann neu installieren, wäre deshalb unser Rat.

Julian Assange ist frei

https://www.linux-magazin.de/news/julian-assange-verlaesst-gericht-endgueltig-als-freier-mann/

Der WikiLeaks-Gründer Julian Assange hat das Gerichtsgebäude auf der Marianen-Insel Saipan als freier Mann verlassen, berichtet der The Guardian. Er sei bei der Verhandlung in Saipan von Richterin Ramona V. Manglona zu einer Haftstrafe verurteilt worden, berichtet The Guardian weiter. Die Haftstrafe gilt dem Bericht zufolge aber mit den 62 Monaten, die Assange bereits in Haft verbracht hat, als abgegolten. Assange hat das Gericht als freier Mann verlassen und ist laut Presseberichten auf dem Weg in seine Heimat Australien.

Und immer noch ist keiner der Hubschrauberpiloten verurteilt, im Gegenteil, sie wurden sogar befördert.

(Quelle Video: https://x.com/snicklink/status/1805548350512464052)

Panik bei Microsoft

https://www.phoronix.com/news/Linux-DRM-Panic-BSoD-Picture

After being talked about for years of DRM panic handling and coming with a „Blue Screen of Death“ solution for DRM/KMS drivers, Linux 6.10 is introducing a new DRM panic handler infrastructure for being able to display a message when a panic occurs.

Super, das letzte Hindernis um von Windows zu wechseln, wurde ausgeräumt: Linux hat jetzt endlich auch einen Blue Screen of Death!

Microsoft macht einen Rückzieher

https://www.golem.de/news/microsoft-knickt-ein-recall-kommt-nun-doch-nur-per-opt-in-2406-185865.html

Nach Ankündigung des noch unveröffentlichten Windows-KI-Features Recall hat Microsoft von Sicherheits- und Datenschutzexperten massive Kritik geerntet. Nun behauptet der Konzern, das Feedback erhört zu haben und kündigt in einem neuen Blogbeitrag ein paar Änderungen an, die noch vor der Einführung der Copilot+-PCs am 18. Juni und der damit einhergehenden Auslieferung einer ersten Preview von Recall umgesetzt werden sollen.

Zu den dystopischen Plänen von Microsoft, die einen weltweiten Aufschrei von Sicherheitsexperten auslösten,  kam dann kürzlich auch noch die Meldung, dass Recall schon gehackt ist. Microsoft hat mittlerweile auf die Proteste reagiert und will Recall nun doch nur per Opt-In installieren. Für mich allerdings ist schon die bloße Tatsache der Anwesenheit einer solchen Funktion Grund genug, Windows keine sensiblen Daten mehr anvertrauen zu können, denn Microsoft verlangt damit ein Maß an Vertrauen, das es angesichts der riesigen Zahl von bekannten Windows-Sicherheitsproblemen, und vor allem dem immer wieder sehr nachlässigen Umgang damit, keinesfalls verdient hat.

Windows Recall verlangt außerordentliches Vertrauen, das Microsoft nicht verdient hat

https://arstechnica.com/ai/2024/06/windows-recall-demands-an-extraordinary-level-of-trust-that-microsoft-hasnt-earned/

Microsoft’s Windows 11 Copilot+ PCs come with quite a few new AI and machine learning-driven features, but the tentpole is Recall … the feature is pitched as a way to help users remember where they’ve been and to provide Windows extra contextual information … This, as many users in infosec communities on social media immediately pointed out, sounds like a potential security nightmare. That’s doubly true because Microsoft says that by default, Recall’s screenshots take no pains to redact sensitive information, from usernames and passwords to health care information to NSFW site visits.

Wir sind nicht die Einzigen, die mit der neuen Funktion „Recall“ in Windows massive Bauchschmerzen haben. In diesem Artikel von Ars Technica werden Reaktionen von Sicherheits- und Privatsphäre-Fachleuten zusammengetragen, und das Vorhaben von Microsoft stößt darin rundheraus auf Ablehnung.

Vielleicht ist das Ganze ja eine Werbekampagne für Linux?

Feind im Computer

https://www.youtube.com/watch?v=uHEPBzYick0

Zuerst hielt ich es für eine Ente, eine Falschmeldung, um Microsoft zu schaden. Aber es stimmt tatsächlich. Microsoft möchte in Windows eine Funktion namens Recall implementieren, die jede Sekunde einen Screenshot des Bildschirms anfertigt. Eine bordeigene KI soll dann diese Screenshots durchsuchen und interpretieren können.

Wir wissen, dass jede KI halluziniert. Die wird sich alles mögliche aus den Fingern saugen. Ach, Sie haben nicht mit den Russen kollaboriert? Die KI ist sich aber ganz sicher! Abgesehen davon ist das natürlich ein ultimativer Security-Alptraum. Niemand mit irgendwie vertraulichen Daten kann noch Windows benutzen, wenn alles mitgespeichert wird: Finanzdaten, Forschungsergebnisse, Passwörter, Staatsgeheimnisse. Microsoft scheint das Geschäft mit den Regierungen aufgeben zu wollen? Und außerdem, allein schon das Thema der Performance. Da bricht doch noch der schnellste Rechner ein, und die größte Platte läuft über, wenn alle Sekunde ein Screenshot gefertigt und verschlagwortet wird. Vielleicht noch von 3 Bildschirmen in 4K? Auf dem PC eines Gamers wird das sicher lustig, und dessen KI wird auch jeden Eid schwören, dass der Benutzer ein Massenmörder ist.

Organisierte Verantwortungslosigkeit

https://www.danisch.de/blog/2024/02/10/technische-fehler-beim-abruf-von-e-rezepten-erhebliche-gefaehrdung-der-arzneimitteltherapiesicherheit-moeglich/

Beim E-Rezept sind gravierende Fehler aufgetreten, die zu schwerwiegenden Gesundheitsgefährdungen führen können. Beim Auslesen der Verordnungen von der Gesundheitskarte in Apotheken wurden Medikamente vertauscht.

Ein Apotheker schlägt bei Hadmut Danisch Alarm. Mit dem E-Rezept kommt es zu gravierenden Vertauschungen mit potenziell tödlichen Auswirkungen. Man sollte also bei E-Rezepten sehr genau prüfen, welches Medikament der Apotheker über die Theke reicht und sowieso immer den Beipackzettel ausführlich studieren.

Nun ja. Es ist, wie es eigentlich immer ist. Computer und IT können sehr segensreiche und hilfreiche Erweiterungen der menschlichen Fähigkeiten sein, aber, so wie sich das manche vorstellen, den Menschen ersetzen können sie nicht. Das liegt schon einmal allein daran, dass Menschen ein Bewusstsein dafür haben, dass sie Fehler machen können, Computer aber nicht. Computer machen ja eigentlich auch gar keine Fehler, sie machen nur das, was Menschen ihnen programmiert haben. Und Menschen machen eben Fehler. Aber sobald etwas durch einen Computer geht, neigen wir dazu, es als „göttlichen Ratschluss“ aufzufassen. Vielleicht aber ist es auch so, niemand ist mehr schuld, sobald der Computer es gesagt hat, sprich, der Kinderglaube an eine allein Nutzen stiftende Technisierung der Gesellschaft ist eigentlich nur ein Rückzug aus der Veranwortung.

Übrigens hat der Apotheker ein offizielles Schreiben des Sächsischen Apothekenverbandes beigefügt, das aber so strikt auf Vertraulichkeit pocht, dass Danisch sich nicht traut, daraus zu zitieren, geschweige denn, es zu veröffentlichen. Das ist ja wieder mal bezeichnend, dass wir so etwas nicht wissen sollen. Ist ja bloß unser (physisches!) Leben, um das es hier geht, solcher „Kleinkram“ darf doch die Gewinne der Konzerne und den Überwachungs- und Kontrollwahn der zunehmend ins Totalitäre abgleitenden Politik nicht gefährden.