Grok goes Telegram

https://techstory.in/elon-musks-grok-ai-expands-to-telegram-reaching-over-1-billion-users/

Elon Musk’s xAI has taken a significant step in expanding its advanced AI chatbot, Grok, by integrating it into Telegram. This marks Grok’s first major expansion beyond its original platform, X (formerly Twitter), and positions it as a key player in the competitive AI landscape. With over 1 billion monthly active users on Telegram, this move opens up new opportunities for both platforms while intensifying the ongoing battle for dominance in the AI industry.

Am 26. März 2025 hat xAI einen spannenden Schritt getan: Der KI-Chatbot Grok, entwickelt von Elon Musks Unternehmen, ist nun auch auf Telegram verfügbar. Telegram-Nutzer mit einem Premium-Abo können Grok unter @GrokAI direkt anschreiben und Fragen stellen – von alltäglichen Anliegen bis hin zu Programmieraufgaben. Das ist ein großer Schritt, denn Telegram hat kürzlich die Marke von 1 Milliarde monatlichen Nutzern überschritten und ist damit die drittgrößte Messaging-Plattform weltweit.

Für Unternehmen ist diese Entwicklung sehr interessant. KI-Chatbots wie Grok, die in Messaging-Apps integriert werden, bieten neue Möglichkeiten für Kommunikation und Produktivität. Sie ermöglichen es, direkt im Chat Antworten zu erhalten, ohne zwischen Apps wechseln zu müssen – ein Trend, den auch andere Anbieter wie OpenAI mit ChatGPT auf WhatsApp verfolgen. Allerdings ist Grok auf Telegram derzeit auf Basis-Funktionen beschränkt; erweiterte Features wie „DeepSearch“ bleiben zahlenden Nutzern von X oder der Grok-App vorbehalten.

Mit der bereits erfolgten Integration von Grok auf X mit ca. 600 Millionen Nutzern erreicht xAI damit nun global einen enorm großen Benutzerkreis. Dabei liegt der Fokus von Elon Musk, dem Chef von xAI, vor allem auf neutraler und objektiver Information. In einer Welt, in der die Lüge überall ist, sei das zwar schwierig, sagt Musk, aber er gibt nicht auf. Ein Mann auf einer Mission.

Grok selbst wirkt dabei wie ein superintelligentes Kind: voller Wissen, aber noch naiv gegenüber dem Bösen in der Welt. Sicher ist, KI-Chatbots wie Grok bringen uns einen Schritt näher an eine Zukunft, in der diese neue Technologie nahtlos in unseren Alltag integriert ist. Ich bin sehr gespannt, welche Fortschritte die Menschheit damit erzielen kann, insbesondere im Licht der mittlerweile einsetzenden Demokratisierung von KI.

Apples Überraschungswaffe

https://www.cultofmac.com/news/mac-studio-ai-performance

Apple is perceived as a laggard in the AI race — despite that, Apple has developed the single best computer for AI research. The new Mac Studio with an M3 Ultra chip, which supports up to 512 GB of unified memory, is the easiest and cheapest way to run powerful, cutting-edge LLMs on your own hardware.

The latest DeepSeek v3 model, which sent shockwaves through the AI space for its comparable performance to ChatGPT, can run entirely on a single Mac, Apple AI researchers revealed on Monday.

Am 9. März 2025 hat Apple mit dem neuen Mac Studio für Aufsehen gesorgt – und das aus gutem Grund. Laut einem Bericht von „Cult of Mac“ ist das Gerät mit dem M3 Ultra Chip und bis zu 512 GB Unified Memory in der Lage, große Sprachmodelle wie DeepSeek V3 lokal auszuführen. Dieses Modell, das in der KI-Welt für seine, mit ChatGPT vergleichbare, Leistung viel Aufsehen hervorgerufen hat, läuft auf einem einzigen Mac Studio mit über 20 Token pro Sekunde – eine sehr gute und alltagstaugliche Leistung, die bisher teure Cloud-Lösungen oder Nvidia-Datenzentren erfordert hat.

Für Unternehmen ist das eine spannende Entwicklung. Lokale KI-Verarbeitung bietet nicht nur höhere Datensicherheit, sondern auch schnellere Verarbeitung ohne Abhängigkeit von Cloud-Diensten. Der Mac Studio mit M3 Ultra mit 512 GB Unified Memory, der bei ca. 12.000 € liegt, ist zudem eine kostengünstige Alternative zu Nvidia-Hardware mit ähnlichem Speicher, die oft teurer ist. Besonders beeindruckend: Drei Mac Studios, über Thunderbolt 5 verbunden, können sogar das noch größere DeepSeek R1-Modell mit 670 Milliarden Parametern betreiben – ein Durchbruch, der die Dominanz von Cloud-Anbietern wie OpenAI herausfordert.

Doch Apple ist nicht allein: Nvidia hat mit Project DIGITS, das im Mai 2025 erscheinen soll, eine ähnliche Vision. Dieses Gerät, ausgestattet mit dem GB10 Grace Blackwell Superchip und 128 GB Unified Memory, kann Modelle mit bis zu 200 Milliarden Parametern lokal verarbeiten – und das für nur 3.000 US-Dollar. Beide Ansätze zeigen, wie wichtig Unified Memory für die Zukunft der KI ist: Es ermöglicht effiziente, sichere und kostengünstige Verarbeitung direkt am Arbeitsplatz.

Als Programmierer sehe ich hier großes Potenzial. Modelle wie DeepSeek V3 lokal zu testen, ohne auf Cloud-Lösungen angewiesen zu sein, könnte unsere Workflows beschleunigen und die Kosten senken. Gleichzeitig beweisen Apple und Nvidia, dass der Westen mit China – wo Modelle wie QwQ-32B oder Manus dominieren – mithalten kann. Und es wird spannend, wie diese Entwicklung sich auf die großen Cloud-Anbieter auswirken wird.

Gemma 3: Googles neues Meisterwerk im KI-Rennen

https://blog.google/technology/developers/gemma-3/

Today, we’re introducing Gemma 3, a collection of lightweight, state-of-the-art open models built from the same research and technology that powers our Gemini 2.0 models. These are our most advanced, portable and responsibly developed open models yet. They are designed to run fast, directly on devices — from phones and laptops to workstations — helping developers create AI applications, wherever people need them. Gemma 3 comes in a range of sizes (1B, 4B, 12B and 27B), allowing you to choose the best model for your specific hardware and performance needs.

Am 12. März 2025 hat Google sein neuestes Open-Source-KI-Modell Gemma 3 vorgestellt, das die KI-Welt in Staunen versetzt. Dieses Modell, eine Weiterentwicklung der Gemini-Reihe, bringt multimodale Fähigkeiten (Text, Bild, Ton) mit sich und ist für seine Effizienz bekannt. Es ist in vier Größen verfügbar – von 1 Milliarde bis 27 Milliarden Parametern – und läuft bereits auf einer einzigen GPU oder TPU, was es für Unternehmen und Entwickler zugänglich macht.

Besonders beeindruckend ist die technische Leistung: Gemma 3 bietet ein Kontextfenster von 128.000 Token und unterstützt über 140 Sprachen, was es zu einem vielseitigen Werkzeug macht. Laut Google schneidet es in Benchmarks wie LMArena besser ab als Modelle wie Llama-405B oder DeepSeek-V3. Für uns als Unternehmen ist wichtig, dass Gemma 3 auch in der größten Variante auf Hardware mit 24 GB VRAM stabil und schnell läuft – eine erschwingliche Option im Vergleich zu teureren Lösungen.

Als Teil der Test-Community kann ich die Begeisterung bestätigen. Die Geschwindigkeit und Genauigkeit von Gemma 3 sind sensationell, und die Rückmeldungen meiner Kollegen im Unternehmen sind ebenfalls positiv. Wir nutzen es bereits für Textanalyse, Übersetzungen und kreative Projekte, mit Ergebnissen, die unsere Erwartungen übertreffen. Die Möglichkeit, es lokal mit Tools wie Ollama einzusetzen, bietet zudem Datensicherheit, ein Thema, das in Zeiten wachsender globaler Konkurrenz – etwa durch chinesische Modelle wie das ebenfalls kürzlich neu vorgestellte Manus – an Bedeutung gewinnt.

Gemma 3 zeigt, dass der Westen im KI-Rennen mit innovativen Ansätzen mithalten kann. Für Unternehmen bietet es Chancen, KI effizienter und kostengünstiger zu integrieren. Wer mehr Details erfahren möchte, findet sie auf der offiziellen Seite. Es bleibt spannend, wie sich diese Technologie weiterentwickelt.

Die KI-Welt hat einen neuen Star

https://qwenlm.github.io/blog/qwq-32b/

Scaling Reinforcement Learning (RL) has the potential to enhance model performance beyond conventional pretraining and post-training methods. Recent studies have demonstrated that RL can significantly improve the reasoning capabilities of models. For instance, DeepSeek R1 has achieved state-of-the-art performance by integrating cold-start data and multi-stage training, enabling deep thinking and complex reasoning.

Our research explores the scalability of Reinforcement Learning (RL) and its impact on enhancing the intelligence of large language models. We are excited to introduce QwQ-32B, a model with 32 billion parameters that achieves performance comparable to DeepSeek-R1, which boasts 671 billion parameters (with 37 billion activated). This remarkable outcome underscores the effectiveness of RL when applied to robust foundation models pretrained on extensive world knowledge.

Am 5. März 2025 stellte Alibabas Qwen-Team das Open-Source-Modell QwQ-32B vor. Mit nur 32 Milliarden Parametern konkurriert es mit Giganten wie DeepSeek-R1 (671 Milliarden Parameter) und übertrifft sogar OpenAIs o1-mini in Benchmarks wie Mathematik und Programmieren. Die enorme Leistung erzielt QwQ durch weiterentwickelte Software, und das Modell läuft flott bereits auf (für KI-Verhältnisse) kleiner Hardware (24GB VRAM).

Programmierer wissen es, verbesserter Code schlägt meistens verbesserte Hardware. Mit optimierten Abläufen, performanteren Algorithmen und schlankeren Datenstrukturen lassen sich oft drastische Performance-Steigerungen erzielen, weit über das hinaus, was (nur) neue Hardware bieten würde. Mir scheint, in der KI-Welt wird bisher bei den Platzhirschen zu viel auf immer noch größere und leistungsstärkere Hardware gesetzt, während das Potential, das in optimiertem Code liegt, ein wenig zu kurz kommt. Tja. Es stimmt mich schon etwas traurig, dass offenbar die Chinesen beginnen, auch in der Software-Entwicklung den Westen abzuhängen.

Microsoft Dragon Copilot: Mehr Zeit für Patienten durch KI

Microsoft Corp. is unveiling Microsoft Dragon Copilot, the first AI assistant for clinical workflow that brings together the trusted natural language voice dictation capabilities of DMO with the ambient listening capabilities of DAX, fine-tuned generative AI and healthcare-adapted safeguards. Part of Microsoft Cloud for Healthcare, Dragon Copilot is built on a secure modern architecture that enables organizations to deliver enhanced experiences and outcomes across care settings for providers and patients alike.

Satya Nadella, CEO von Microsoft, hat sich kürzlich beschwert, dass KI viel kostet, aber ökonomisch bisher wenig bringt. Er wünscht sich endlich Anwendungen für KI, die tatsächlich einen wirtschaftlichen Aufschwung bewirken. Die Idee, Ärzte von den umfangreichen Dokumentationsarbeiten zu entlasten, geht wohl in diese Richtung. Mir persönlich wäre es auch lieber, ein Arzt hätte mehr Zeit für mich, anstatt in Papierkram zu ertrinken.

DeepSeek R1 ohne Zensur

https://www.perplexity.ai/de/hub/blog/open-sourcing-r1-1776

DeepSeek-R1 is a fully open-weight large language model (LLM) achieving close performance to the state-of-the-art reasoning models like o1 and o3-mini. A major issue limiting R1’s utility is its refusal to respond to sensitive topics, especially those that have been censored by the Chinese Communist Party (CCP).

Für viele Anwendungsfälle ist es nicht ausschlaggebend, aber das sehr leistungsfähige KI-Modell DeepSeek R1 ist massiv zensiert für Themen, die die politische Führung von China als heikel erachtet. Die KI-Suchmaschine perplexity.ai hat deshalb nun als Open Source eine nachtrainierte Version herausgebracht, aus der die Zensur entfernt ist. Da es anzunehmen ist, dass die ursprüngliche Version keine westliche Zensur enthalten hat, ist dieses Modell von Perplexity vielleicht sogar das unzensierteste aktuell verfügbare.

Allerdings hat Elon Musk neulich darauf hingewiesen, dass es, weil weltweit in allen für Training verfügbaren Daten bereits heftige Verfälschungen enthalten sind, auch und gerade durch staatliche Medien, eine sehr große Herausforderung ist, eine KI neutral und objektiv zu trainieren. Wenn die KI nur mit wokem Quatsch gefüttert wird, kann sie auch nur Quatsch antworten, anders gesagt.

Sie können Perplexity-R1-1776 bei Ollama herunterladen und auf Ihrem eigenen KI-Server ausführen. Kleiner Wermutstropfen: Das kleinste verfügbare Modell ist eine 70b Version, Sie benötigen also 48GB VRAM um es im Grafikkartenspeicher ausführen zu können. (Die derzeit preisgünstigste Variante dafür sind übrigens 2x AMD Radeon RX 7900 XTX 24GB in einem Dual-GraKa-Setup).

Eigene KI-Bilder erzeugen

Nachdem Sie eine KI auf Ihrem Rechner lokal zum Laufen gebracht haben, möchten Sie vielleicht auch selbst KI-Bilder erzeugen können?

Nun, da gibt es etwas Neues und es kommt aus dem Schwarzwald. Flux.1-schnell ist ein Open Source (Apache2-Lizenz) Modell des deutschen Unternehmens Black Forest Labs. In Windeseile hat es die aktuelle Krone der KI-Bildgeneratoren errungen. Es ist sehr schnell, wie der Name schon sagt, und generiert beeindruckende Bilder.

Es gibt davon auch eine sog. Dev-Variante, die ist nur für nicht-kommerzielle Nutzung freigegeben. Während aber die Schnell-Variante nur eingeschränkt modifiziert werden kann, weil es sich um ein hoch optimiertes Modell handelt, stehen für die Dev-Variante sehr viele Möglichkeiten des Feintunings zur Verfügung. Es gibt deshalb für Dev eine rege Szene von Enthusiasten, die alle möglichen Anpassungen und Modifikationen mit unterschiedlichen Bildstilen für das Dev-Modell erstellen und teilen.

Außerdem sind noch Pro-Varianten verfügbar, die sind zahlungspflichtig, und eine solche betreibt übrigens unter anderem X/Twitter. Wenn Sie zum Beispiel Grok um ein Bild fragen, wird eine Flux-Pro-Engine aus dem Schwarzwald verwendet.

Aber schon die Ergebnisse von Schnell und Dev sind bereits außerordentlich gut und lohnen allemal, sich das auf dem eigenen Rechner zu installieren. Dazu braucht man noch nicht einmal einen superstarken Rechner, ein einigermaßen brauchbarer Gaming-PC reicht. Mit einem Klick auf „Weiterlesen“ finden Sie eine Anleitung, wie Sie das auf dem eigenen Rechner umsetzen können.

(Beispielbilder am Schluss des Beitrags)

„Eigene KI-Bilder erzeugen“ weiterlesen

Tipps zur Einrichtung eines lokalen KI-Servers

In Ergänzung zu unserem vorangegangenen Beitrag haben wir noch ein paar Tips für Sie zur Installation eines eigenen KI-Chatbots.

Im Gegensatz zur verlinkten Anleitung bei Hetzner würden wir Ihnen betreff Open WebUI, falls Sie keine Docker-Installation wünschen, empfehlen, nicht mit git, sondern mit pip zu installieren. Die Docker Installation ist wohl am einfachsten und funktioniert auch einwandfrei. Vielleicht will man jedoch mehr Einblick in die Installation. Die hierzu im Artikel von Hetzner als Alternative vorgeschlagene git-Installation funktioniert zwar auch, aber spätestens beim ersten Update scheitert man unserer Erfahrung und das endet in einer Neu-Installation – bei der natürlich alle Einstellungen etc. verlorengehen. Hat man jedoch mit pip installiert, ist eine neue Open WebUI Version kein Problem.

Falls Sie Open WebUI mit pip installieren möchten, sollten Sie Python <=3.11 verwenden. Sollte Ihr System ein neueres Python haben, können Sie die V3.11 nachinstallieren mit „apt [bzw. dnf etc.] install python3.11″ und pip 3.11 mit „python3.11 -m ensurepip –upgrade“. Anschließend verwenden Sie  „python3.11 <script.py>“ und „pip3.11 <befehl>“ um die 3.11 Version auszuführen.

Zum Speicherbedarf. Ein System mit >= 12 GB VRAM kann Modelle bis 32b im Speicher der Grafikkarte ausführen. Falls das Modell in der Grafikkarte ausgeführt werden kann, ist das erheblich schneller als auf dem Mainboard. Und 32b ist bereits ein sehr gutes Modell mit hoher Qualität – insbesondere die für Programmierer sehr interessante, aus dem Vollmodell destillierte, Variante Qwen2.5-coder:32b hat sogar maximal 32b Parameter („b“ steht für englisch Billions, also Milliarden Parameter), kann also bereits mit einer relativ erschwinglichen Gamer-GPU in deren Speicher laufen.

Interessant i.d.Zshg. ist außerdem, um eines der großen bzw. vollständigen Modelle auszuführen, braucht man nicht unbedingt einen unbezahlbar teuren Grafikkartenpark. Auf einem System mit 512 GB RAM und einer hinreichend starken CPU lassen sich die vollen Modelle mit ca. 760b auch auf dem Mainboard einigermaßen performant ausführen, solange es nur um Inference (Antworten auf Fragen) geht. Klar ist das etwas langsam, aber als alleiniger Anwender erträglich und brauchbar. Training wäre allerdings eine ganz andere Sache …

Eigenen KI-Chatbot hosten

https://community.hetzner.com/tutorials/ai-chatbot-with-ollama-and-open-webui/de

Dieses Tutorial erklärt, wie man auf einem Server mit Ubuntu oder Debian Ollama installiert und Sprachmodelle hinzufügt. Es wird auch gezeigt, wie man mit Open WebUI eine Chat-Benutzeroberfläche einrichtet und wie man ein eigenes Sprachmodell erstellt.

Möchten Sie einen eigenen KI-Chatbot hosten? Mit dieser großartigen Anleitung ist es sehr einfach und Sie erhalten Zugriff auf eine Vielzahl von KI-Modellen, einige davon gegenüber OpenAI deutlich überlegen. Das OpenAI-Modell gibt es aber dort nicht, das ist nicht OpenSource, obwohl Altman das versprochen hatte (genau das ist übrigens der Kern des Streits zwischen Musk und Altman, nebenbei).

Einen solchen Chatbot mit Web-UI zu hosten geht auch auf dem eigenen Rechner, und der Zugriff auf die Ollama Engine via Browser ist deutlich komfortabler.

Mondphasen-Kalender

Die Kraft der Gravitation des Mondes auf die Erde ist so groß, dass sie alle Ozeane bewegt und Ebbe und Flut hervorruft. Bedenkt man außerdem, dass der Mensch zu zwei Dritteln aus Wasser besteht, und dass dies ebenso oder in noch höherem Ausmaß für alle Tiere und Pflanzen gilt, ist es nicht verwunderlich, dass es seit altersher Überlieferungen gibt, wie der Mond Gesundheit, Stimmungen, aber auch Viehzucht und Ernte beeinflusst.

Was von diesen empirischen Beobachtungen richtig ist, und was nur Folklore, das wollen wir an dieser Stelle nicht beurteilen. Aber falls Sie z.B. eine Parasitenkur nach dem Vollmond ausrichten, in Ihrem Garten günstige Saattermine finden, oder, für die Damen, den besten Zeitpunkt fürs Haareschneiden ermitteln wollen, haben wir heute eine passende Software für Sie.

„Mondphasen-Kalender“ weiterlesen

ICS-Kalenderdaten bereinigen //Update

Update: Leider gab es in der ersten Version des Scripts noch einen Fehler, der dazu führen konnte, dass bestimmte Arten (UNTIL, COUNT) von Serienterminen nicht übernommen werden, obwohl sie erst nach dem Löschtermin enden. Sollten Sie das Script bereits installiert haben, laden Sie es bitte noch einmal herunter. Wir bedauern die Unannehmlichkeiten.

Benutzen Sie auch das ICS-Format für Ihre Kalenderdaten? Dann sind Sie vielleicht schon einmal auf folgendes Problem gestoßen: Nehmen wir an, Sie haben im Jahr 2010 begonnen, Ihren Kalender im ICS-Format zu führen.

Über die Jahre sammeln sich viele Termine an, und nach einer Zeit könnten die natürlich weg. Aber Sie möchten die alten Termine nicht löschen, weil darin auch wiederkehrende Termine enthalten sind. Bestes Beispiel sind Geburtstage. Sie haben den Geburtstag eines Freundes im Jahr 2010 erfasst und möchten jährlich daran erinnert werden. Wenn Sie nun aber alle Termine vor z.B. 01.01.2023 löschen würden, dann wäre auch die Erinnerung an den Geburtstag des Freundes weg, weil dieser Termin vor 2023 angelegt wurde.

Und deshalb löschen Sie natürlich nicht, und die ICS-Datei wächst und wächst und schwillt mit der Zeit so weit an, dass es ein Performance-Problem ergibt.

„ICS-Kalenderdaten bereinigen //Update“ weiterlesen

Ohne Strategie nützen noch so viele Daten nichts

https://www.computerwoche.de/article/3546899/tipps-fur-die-richtige-datenstrategie.html

Wie funktionieren Datenstrategien und brauchen Unternehmen so etwas überhaupt? Diese Frage beschäftigt heute viele Verantwortliche in den Unternehmen. Gleichzeitig stehen sie zunehmend unter Druck, wettbewerbsfähig und innovativ zu bleiben. Ein Schlüsselfaktor, dieses Ziels zu erreichen, ist die effektive Nutzung von Daten: Sie erlauben es, Effizienzreserven in Prozessen zu erkennen, Kunden besser zu verstehen, um Produkte und Dienstleistungen anzupassen oder gar neue Angebote zu entwickeln.

Sehr lesenswerte Übersicht für die richtigen Strategien, um aus den Daten Mehrwert zu gewinnen. Es ist ja leicht, ganze Berge von Daten zu erfassen, aber damit etwas Sinnvolles anfangen zu können, das benötigt Planung und ein gutes System.

Niemand ist eine Insel

https://www.business-punk.com/2024/08/ki-killt-ihre-intelligenz-durch-ki-generierte-daten/

Was passiert eigentlich, wenn die eine KI eine andere KI trainiert? Kommen dabei sinnvolle Daten heraus? Das ist eine Frage, die sich immer mehr Experten und Expertinnen stellen, wenn es um die Trainingsdaten der nächsten KI-Modelle geht. Denn die KI scheint durch nicht-menschengemachte Trainingsdaten offenbar eher schlechter als besser zu werden.

Es ist eine weit verbreitete Befürchtung, dass KI anfangen könnte, andere KIn zu trainieren, und dass dabei etwas herauskommen könnte, das der Mensch weder versteht noch beeinflussen kann; und dass diese Ergebnisse sich dann gegen den Menschen wenden könnten. Aber das ist ein klassisches Paradox, eines von der Sorte, über das sich schon die alten griechischen Philosophen den Kopf zerbrochen haben, und für das der „gesunde Menschenverstand“ in die Irre führt, weil er zu oberflächlich bewertet.

Das Paradox der Teilstrecken illustriert es recht gut. Wenn man von A nach B gelangen will, könnte man die zu bewältigende Strecke in zwei Abschnitte teilen. Sobald die erste Hälfte erreicht wäre, könnte man die Reststrecke wiederum in zwei Hälften teilen, und das könnte man bis zum Ende aller Zeit tun. Daraus könnte man schließen, dass die Strecke niemals ganz geschafft werden kann, weil sie aus einer unendlichen Menge von Teilstücken besteht. Wie soll man mit einer endlichen Menge von Schritten eine unendliche Menge von Abschnitten bewältigen? Aber das ist letztlich ganz einfach. Wendet man das Verfahren der ständigen Teilung auch auf die Schritte an – ist es eben auch eine unendliche Menge von Schritten.

Was das Trainieren von KIn durch andere KI angeht, so ist das ein wenig so wie mit einem Menschen, den man isoliert. Ohne Kontakt zu anderen Menschen verkümmern wir. Und da eine KI keine Sinnesorgane besitzt, außer ihren Schnittstellen zu menschlichem Input, würde es ihr ohne uns nicht anders ergehen, als einem Häftling in Einzelhaft im Kerker.

Ich finde, wir sollten aufhören, eine Feindschaft bzw. Konkurrenz zu konstruieren, wo in Wahrheit keine ist. Menschen und künstliche Intelligenzen können wunderbar aneinander gewinnen, und das sollte unser Ziel sein. Meine Sorge sind viel eher jene „philanthropischen“ Zeitgenossen, die alles nur zum eigenen Vorteil und zur Gewinnung von Macht über ihre Mitmenschen missbrauchen wollen.

Anmerkung, zum Titel: „Niemand ist eine Insel“ ist ein 1975 erschienener Roman von Johannes Mario Simmel, die Redewendung stammt aber ursprünglich von dem englischen Schriftsteller John Donne †1631. Und noch ein Zitat aus Simmels Roman: „Es ist ein unerträglicher, ja verbrecherischer Hochmut, wenn ein Mensch über die Existenz eines anderen Menschen sagt, sie sei sinnvoll oder sie sei sinnlos. Niemals können wir verwirrten, ohnmächtigen Wesen, die wir auf dieser Erde herumkriechen, das entscheiden. Und niemals werden wir wissen können, welche Bedeutung ein menschliches Leben haben kann, welche unerhörte Bedeutung sogar – oder gerade! – in seiner tiefsten Erbärmlichkeit.“

Aber ohne die Löcher würde der Käse doch gar nicht so gut schmecken

https://www.computerwoche.de/article/3528247/genai-ist-wie-ein-schweizer-kase.html

Statt dem Hype hinterherzurennen, sollten Unternehmen auch darüber nachdenken, wo sie GenAI nicht einsetzen sollten, sagte Gartner Vice President Bern Elliot. Oft soll die Technik Probleme lösen, für die sie gar nicht konzipiert wurde. Doch GenAI produziert in erster Linie Inhalte – und das oft nicht einmal besonders gut. Angesichts der Halluzinationen bezeichnete Elliot GenAI als unzuverlässig wie ein Schweizer Käse: „Man weiß, dass er Löcher hat, nur nicht, wo diese sind – bis man ihn aufschneidet.“

Die Löcher im Käse kommen durch Gase, die bei dessen Reifung von Milchsäurebakterien erzeugt werden und wegen der im Salzbad gebildeten Rinde nicht mehr entweichen können. Ohne die Löcher würde der Käse also weder so wohlschmeckend sein, noch wäre er allzu lange haltbar. Dennoch wäre es jedem IT-Verantwortlichem zu raten, vor dem Einsatz der neuen KI-Technologien sowohl den Sinn als auch die Kosten sorgfältig zu bewerten, um nicht in ein tiefes Budget-Loch zu rutschen.

Erste praxistaugliche Quantencomputer

https://www.computerweekly.com/de/feature/Quantencomputer-werden-die-Zukunft-veraendern

Quantencomputer werden in wenigen Jahren nicht nur in Forschungseinrichtungen und Großkonzernen zu finden sein. Unternehmen wie IBM, Intel, Google und Atos arbeiten an Systemen für jedermann. Erste Erfahrungen mit der Technik können Nutzer mithilfe von Quanten-Simulatoren oder Quantenrechnern aus der Cloud machen.

Spannender Artikel über den derzeitigen Stand bei Forschung und Entwicklung von Quanten-Computersystemem.