We’re thrilled to introduce grok-code-fast-1, a speedy and economical reasoning model that excels at agentic coding.
Viele Entwickler schwören auf Claude AI von Anthropic, da es für Coding-Aufgaben optimiert ist. Anthropic hat sich bereits vor einiger Zeit auf die Zielgruppe der SW-Entwickler fokussiert, weil dort derzeit der höchste Nutzen von KI erzielt werden kann.
Auch xAI scheint dies nun erkannt zu haben und stellt mit Grok Code Fast 1 ein Modell vor, das speziell für Softwareentwicklung optimiert ist. Mit einer Verarbeitungsgeschwindigkeit von bis zu 92 Token pro Sekunde ist es eines der schnellsten Modelle für interaktive Anwendungen in Entwicklungsumgebungen (IDEs). Es eignet sich besonders für Echtzeit-Anwendungen wie in-editor Code-Vervollständigungen. Das Modell unterstützt einen Kontext von 256.000 Token, was es ermöglicht, große Codebasen, lange Verläufe oder mehrdateilige Projekte in einer Sitzung zu verarbeiten.
xAI gibt außerdem an, das neue Modell sei besonders für agentische Aufgaben optimiert. Na, dann sind wir mal gespannt, ob xAI aus den erheblichen Schwierigkeiten (Datenverlust, Sicherheitsprobleme) von Anthropic mit solchen Agenten etwas gelernt hat.
Neue Tricksereien mit QR-Codes melden Sicherheitsforscher von Barracuda. Die Angriffe kommen per E-Mail und umgehen viele der in großen Unternehmen üblichen Sicherheitsscans. Liest der Endnutzer seine E-Mails dann auch noch mit aktivierter HTML-Darstellung, wird er leicht zum Opfer.
QR-Codes sind außerhalb geschlossener Systeme stets mit Vorsicht zu genießen; man sollte ihnen gegenüber grundsätzlich skeptisch bleiben und – insbesondere bei sensiblen Inhalten – in E-Mails niemals öffnen. Man sollte auch das automatische Öffnen von Links in QR-Codes abschalten und eine URL darin immer zuerst genau prüfen. Generell gilt, den Link in einem QR-Code nur zu öffnen, wenn man die Quelle des Codes zweifelsfrei identifizieren kann und ihr vertraut.
The billionaire Peter Thiel is unimpressed with our pace of innovation. In this episode, he critiques artificial intelligence, longevity science and space travel — and warns that our lack of progress could lead to catastrophic outcomes, including the emergence of the Antichrist.
In diesem sehr interessanten Interview der New York Times mit Peter Thiel erfährt man viel von den Ideen und Sorgen, die Peter Thiel antreiben. Bemerkenswert fand ich, dass seine größte Angst einem One-World-Government gilt, das würde notwendig in einen autoritären Polizeistaat kippen, meint er. Lustig, es sind doch gerade die Tools seines Unternehmens Palantir, die mehr als so ziemlich alles andere das Potential für eine solche globale Tyrannei mit sich bringen.
Die Deutsche Rentenversicherung sah sich außerstande, einen erhöhten Pflegeversicherungssatz einzuprogrammieren. Die Regierung nutzt das, um den Rentnern etwas mehr abzuknöpfen als vorgesehen. Auch in Sachen Cybersicherheit ist der Staat hochgradig minderbemittelt unterwegs. Trotzdem will er seine Bürger zwingen, in allen Lebensbereichen ins Netz zu gehen.
Es kann einen schon gruseln, immer mehr Bürokratie und Vorschriften werden über jeden Lebensbereich gekippt, niemand blickt mehr durch, also soll jetzt alles digital werden. Weil ja alles so komplex geworden sei, dass nur noch mit Computer … Nun, wenn man ein Problem nicht versteht, dann hilft auch ein Computer nichts. Aber man kann dann zumindest sagen, dass der Computer schuld ist.
Meta hat mit der Ray-Ban Meta die weltweit erfolgreichste smarte Brille ihrer Art geschaffen – über zwei Millionen Exemplare wurden bereits verkauft. Der Erfolg liegt auch im durchdachten Design begründet: Die Brille stammt optisch von der ikonischen Marke Ray-Ban und sieht aus wie eine gewöhnliche Sonnenbrille, wenn auch etwas voluminöser, um Platz für die integrierte Technik mit fünf Mikrofonen, zwei Open-Ear-Lautsprechern in den Brillenbügeln und einer Kamera in der oberen linken Ecke zu schaffen.
Die Ray-Ban Meta Brille ist schon länger auf dem Markt und hat sich auch bisher schon recht gut verkauft. Im April diesen Jahres schaltete Meta jedoch die KI-Anbindung der Brille frei, und vor kurzem wurden die ersten Geschäftsberichte nach diesem Update veröffentlicht. Die Verkaufszahlen der Brille sind regelrecht durch die Decke gegangen, und der Kurs von Meta sprang an einem Tag um 30 Prozent nach oben (was jedoch außerdem an der Präsentation von auch sonst guten Quartalszahlen lag).
Mittlerweile ist die Brille das meistverkaufte Modell des Meta-Vertriebspartners EssilorLuxottica, damit hatte niemand gerechnet. Mit dem KI-Update kann man nun direkt Informationen via Meta Llama einholen, und damit hat Meta offenbar einen Nerv getroffen.
Der Meta AI-Assistent kann Fragen zur Umgebung beantworten, Rezepte vorschlagen oder sogar Speisekarten im Ausland übersetzen. Die Live-Übersetzung zwischen Englisch, Spanisch, Französisch und Italienisch funktioniert in Echtzeit – allerdings ist die deutsche Sprachunterstützung noch ausbaufähig.
Auch den Datenschutz hat Meta adressiert, ein LED-Signal zeigt an, wenn die Kamera aktiv ist. Was der Träger einer solchen Brille allerdings über ein Gegenüber erfahren könnte, davon bekommt man trotzdem nichts mit, und erst recht weiß niemand, wie zutreffend diese Informationen sind.
Die Möglichkeiten dieser Brille sind einerseits faszinierend für eine Vielzahl von Anwendungsfällen, lassen einen aber andererseits auch leicht gruseln bei der Vorstellung, gezielte Fehlinformationen würden in Umlauf gebracht, um verborgene Agenden zu unterstützen.
Die Sicherheitssoftware des US-Unternehmens Palantir ist hierzulande stark umstritten – dennoch prüft Bundesinnenminister Alexander Dobrindt (CSU) laut Medienberichten ihren bundesweiten Einsatz.
Die US-Software Palantir sorgt in Deutschland für Diskussionen. Ursprünglich vom US-Militär und Geheimdiensten zur Terrorbekämpfung nach 9/11 eingesetzt, wird sie inzwischen auch von Polizeibehörden in Hessen, NRW und Bayern genutzt. Ihr Name stammt aus Tolkiens Herr der Ringe – die „Palantíri“ sind sehende Steine, mit denen man weit entfernte Ereignisse beobachten kann – ein bewusst gewähltes Bild für umfassende Überwachung.
Bundesinnenminister Dobrindt prüft laut einem aktuellen Bericht der Berliner Zeitung nun auch einen Einsatz auf Bundesebene, obwohl datenschutzrechtliche Bedenken bestehen. Die Software verknüpft große Datenmengen (z. B. aus Funkzellen, Überwachungen, Personendaten) automatisiert miteinander und erstellt Beziehungsnetzwerke – auch zwischen Unverdächtigen. Das birgt erhebliche Risiken für die informationelle Selbstbestimmung.
Kritiker warnen vor einem System, das kaum demokratisch kontrollierbar ist, da der Quellcode nicht offengelegt wird und die Technologie aus einem Drittstaat stammt. Eine solche Software zentral für Sicherheitsbehörden einzusetzen, sei laut Datenschützern ein gefährlicher Präzedenzfall.
Quis custodiet ipsos custodes – Wer überwacht die Wächter?
Wie Nikkei Asia berichtet, wurden in Vorveröffentlichungen von mindestens 14 Universitäten, darunter die Universitäten von Peking, Singapur, Washington und die Columbia University in New York City, Aufforderungen eingebaut, die sich an künstliche Intelligenz richten. Geschrieben sind diese Prompts entweder mit weißem Text auf weißem Hintergrund oder in unlesbar kleiner Schriftgröße.
Es wird ja überall die Angst geschürt, was KI mit Menschen machen könnte. Aber in obigem Beispiel ist es nicht die KI, die betrügt. Denn nach wie vor gilt, wie schon zu den Zeiten Roms, der Mensch ist dem Menschen ein Wolf. Man sollte sich also, meine ich, weniger davor fürchten, was KI von sich aus wollen würde, sondern viel mehr vor dem, was Menschen ihr beibringen könnten.
In today’s digital landscape, online privacy is not just a luxury; it’s a necessity. Every search we conduct online leaves a trail of data that can be collected, analyzed, and often sold to the highest bidder. Many people are becoming more aware of how their information is being used, leading to an increased interest in privacy-centric tools. One such tool is SearXNG, a versatile and privacy-respecting meta search engine. This article guides you through setting up your own SearXNG instance using Docker, providing a secure space for your web searches.
Wenn Sie sich eine lokale KI mit Open WebUI und Docker installiert haben, können Sie Ihre Anfragen an die KI auch mit Websuche durchführen lassen. Das ist sehr empfehlenswert, um die Gefahr von Halluzinationen der KI zu minimieren.
Allerdings sind die Instanzen, die standardmäßig in Open WebUI verfügbar sind, langsam und unzuverlässig. Und einen API-Key zu erwerben, um die Suchleistung zu verbessern, ist unverhältnismäßig teuer. Was also tun?
Installieren Sie Ihre eigene Suchmaschine! Wenn Sie einen SearXNG Dienst auf Ihrem Rechner oder einem Server installieren, wie es im Link zu Beginn dieses Artikels beschrieben ist, können Sie mit diesem eigenen Dienst nicht nur die Datenkraken ersetzen, sondern Sie haben auch eine perfekte Verbindung für Ihre Open WebUI Instanz.
SearXNG sucht mit einer Vielzahl von Suchmaschinen, wie Bing, Brave, duckduckgo, Google, Presearch, qwant, Startpage, Yahoo, sowie vielen weiteren Diensten (frei konfigurierbar), und deshalb ist die Qualität seiner Suchergebnisse denen eines einzelnen Anbieters in der Regel sogar überlegen. Außerdem haben Sie hohen Schutz für Ihre Privatsphäre, Sie werden nicht getrackt und es werden keine Profile über Sie angelegt. Und das Ganze ist auch noch erstaunlich schnell, insbesondere wenn man bedenkt, wieviele Suchen im Hintergrund ausgeführt werden – oftmals erhalten Sie Ihre Suchergebnisse sogar schneller, als wenn Sie mit einem der großen Anbieter gesucht hätten.
Noch ein Hinweis: Wenn Sie allerdings in Open WebUI die Websuche verwenden, scheint es viel langsamer zu sein, als beim direkten Zugriff. Nun, wenn Open WebUI anzeigt, dass es 60 oder 70 Webseiten gefunden hat, dann hat es die auch alle gelesen und verwendet deren Inhalte für seine Antwort. Deshalb dauert eine KI-Anfrage mit Websuche natürlich länger, als eine direkte Anfrage an SearXNG. Aber Open WebUI nimmt es Ihnen ja auch ab, die Suchergebnisse selbst lesen zu müssen. Sie können übrigens ansonsten ganz normal mit Ihrer lokalen KI arbeiten, wie Sie es gewohnt sind, außer dass die Antwortzeiten höher werden, ändert sich nur, dass in die Antwort der KI aktuelle Suchergebnisse mit einfließen und Sie den Datenstand des KI-Modells (sog. Cut-Off-Date) mit aktuellen Daten erweitern.
Und eine Anmerkung: Im Unterschied zur eingangs verlinkten Anleitung möchte ich noch darauf hinweisen, dass für eine lokale und nicht von außen erreichbare SearXNG-Instanz in der Steuerdatei docker-compose.yml folgende Einträge völlig ausreichend sind:
Außerdem, da es in der Dokumentation für die Anbindung zu Open WebUI schwer zu finden / nicht wirklich erklärt ist und einen beliebten Stolperstein darstellt, noch die Information, dass Sie für die KI-Integration nach Installation des Docker-Images von SearXNG in der entstandenen settings.yml diese Änderungen vornehmen müssen:
# Im Bereich "search" json zur Liste hinzufügen -
search:
...
formats:
- html
- json
# Und im Bereich "server" bind_address bearbeiten -
server:
...
bind_address: "0.0.0.0"
...
Künstliche Intelligenz ist ein Schlachtfeld – nicht nur technisch, sondern auch moralisch. Letzte Woche hat ein Amicus Curiae Brief (eine Art „Gutachten“ im US-Recht, mit dem Außenstehende dem Gericht ihre Sicht liefern) von zwölf Ex-OpenAI-Mitarbeitern für Wirbel gesorgt: Sie unterstützen Elon Musks Klage gegen OpenAI, weil die Firma ihre gemeinnützige Seele für eine profitorientierte Struktur opfern wolle. Der Vorwurf? OpenAI-Chef Sam Altman habe die Mission, KI zum Wohl der Menschheit zu entwickeln, nur als Marketing-Trick genutzt, um Talente zu ködern. Klingt nach einem Hollywood-Drama, oder? Aber bevor wir applaudieren, lohnt ein zweiter Blick.
Die Ex-Mitarbeiter – darunter Namen wie Daniel Kokotajlo und William Saunders – behaupten im Brief, dass OpenAIs Wandel zu einer Public Benefit Corporation die Kontrolle an Investoren wie Microsoft übergibt und die ursprüngliche Vision verrät. Einer von ihnen, Todor Markov, geht hart ins Gericht: Altman habe die Non-Profit-Struktur als „Fassade“ missbraucht, um Talente zu ködern, und Mitarbeiter mit Schweigeklauseln geknebelt, um Kritik zu ersticken. Der ganze Brief: Amicus Curiae Brief, 11. April 2025.
Doch hier wird’s spannend: Mehrere der Unterzeichner arbeiten jetzt bei Anthropic, einem OpenAI-Konkurrenten, der sich als ethischer Ritter in der KI-Welt verkauft. Zufall? Oder steckt da mehr dahinter? Wenn OpenAI durch diesen Streit geschwächt wird, profitiert Anthropic – und vielleicht auch Musk mit seiner Firma xAI. Ist das ein echter Warnruf vor einer gekaperten Mission, oder spielen die Ex-Mitarbeiter Schach mit ihrer alten Firma? Und warum ausgerechnet Musk, der selbst große finanzielle Interessen an KI hat?
Für uns Unternehmen, die KI nutzen oder einsetzen wollen, ist das mehr als Klatsch aus dem Silicon Valley. Es geht um Vertrauen: Wem können wir glauben, wenn selbst die „Guten“ in der KI-Welt ihre eigenen Interessen verfolgen? Wer wird mit den massenhaft anfallenden Daten verlässlich umgehen? Sollen wir auf Firmen setzen, die große Versprechen machen, oder lieber kritisch bleiben und KI verantwortungsvoll selbst implementieren? Wir haben keine Antworten – aber wir stellen Fragen.
Das neue „Sicherheitspaket“ der Bundesregierung beinhaltet gefährliche Überwachungsvorhaben. Die geplante biometrische Erfassung von Gesichtsbildern aus dem Internet ist ein Angriff auf die Privatsphäre aller – ohne klare Notwendigkeit oder Nutzen.
Die gestrige Vorstellung eines Überwachungspakets in Reaktion auf den Anschlag in Solingen markiert einen neuen Tiefpunkt im fortwährenden Abbau von Grundrechten. Die Ampel-Koalition möchte faktisch Anonymität beenden und uns alle immer und überall identifizierbar machen.
Wenn „Schutz“ nichts als eine leere Worthülse ist, um noch mehr Entrechtung und Ohnmacht durchzusetzen.
… je mehr Raketen künftig ins All fliegen und je stärker wir den erdnahen Orbit mit Satelliten überfrachten, desto mehr Überbleibsel fallen irgendwann zurück zur Erde. Seit 1957 der erste Satellit Sputnik startete, haben die menschlichen Aktivitäten im All rasant zugenommen. Aktuell umrunden bereits rund 10.000 Satelliten unseren Planeten, in den nächsten Jahren sollen weitere 30.000 hinzukommen.
Die größte Furcht von Majestix, dem Häuptling der Gallier in „Asterix und Obelix“, ist es ja, als Running Gag, dass ihm der Himmel auf den Kopf fällt. Mittlerweile scheinen solche Ängste durchaus berechtigt.
Mozilla steht mit Firefox 128 in der Kritik. Kurz nach der Übernahme des AdTech-Unternehmens Anonym hat Mozilla spezielle Software direkt in die aktuelle Version von Firefox integriert. In einem experimentellen Test, aus dem manuell ausgestiegen werden muss, wurde eine „Privacy-Preserving Attribution“ (PPA) API hinzugefügt. Diese API erweitert die Tracking-Funktionen für Werbetreibende und umgeht wohl herkömmliche Inhaltsblockierungserweiterungen.
Still und heimlich macht Firefox seit der Version 128 einen Opt-In für erweitertes Tracking für die Werbe-Industrie. Das Problem bei solchen (zensiert) Methoden ist, dass man so etwas nur schwer mitbekommt. Ein verantwortungsvoller Anwender prüft sicherlich alle Optionen nach Installation, aber nach jedem Update?
Und wer Firefox nutzt, will eben gerade erhöhte Privatsphäre, sonst könnte er ja gleich Chrome verwenden, das, es ist wohl unbestritten, technisch sowieso deutlich besser ist. Ich würde deshalb meinen, Mozilla zerstört sich mit diesem Schritt noch die letzten Reste des Vertrauens seiner Nutzerbasis.
Wer auf Privatsphäre beim Surfen Wert legt, sollte vielleicht auf Alternativen ausweichen. Zum Beispiel Brave, oder LibreWolf. LibreWolf behauptet, dass es eine „privacy-enhanced“-Version von Firefox ist. Brave basiert auf Chromium, das ist die Google Open-Source Variante von Chrome, ob man der vertraut, ist so eine Frage. Brave hat aber den interessanten Charme einer eigenen, und recht ordentlichen, Suchmaschine an Bord. (Aber natürlich kann man auch jede andere Suchmaschine einstellen.)
Meine Erfahrungen mit Brave sind recht gut, es wird häufig aktualisiert und hat eine sehr gute Performance. LibreWolf habe ich gerade im Test, und kann dazu noch nicht viel sagen.
Das Bootkit Black Lotus kann sich auf einem PC oder Laptop mit aktiviertem Secure Boot unter Windows 10 und 11 einnisten und schließlich die vollständige Kontrolle über den Bootvorgang des Betriebssystems übernehmen. So kann der Schadcode die Sicherheitsmechanismen des Betriebssystems ausschalten und sich heimlich mit hohen Zugriffsrechten in Windows verankern. Black Lotus nutzt dabei unter anderem die Sicherheitslücke CVE-2022-21894 aus.
PCWELT mit einer Hilfestellung, um das Black Lotus-Rootkit zu erkennen und zu entfernen. Allerdings würden wir nach einer solchen Reparatur trotzdem die Neu-Installation des Systems empfehlen. Denn ist erst einmal ein Trojaner im System, lässt sich kaum sagen, was sonst noch alles in dessen Gefolge Einzug gehalten hat. Anmerkung: (Nur) eine bloße Neu-Installation wäre u.E. gefährlich, weil es zu befürchten steht, dass dieser Trojaner sogar das überleben könnte. Also, erst die Black Lotus-Infektion reparieren, dann neu installieren, wäre deshalb unser Rat.
Nach Ankündigung des noch unveröffentlichten Windows-KI-Features Recall hat Microsoft von Sicherheits- und Datenschutzexperten massive Kritik geerntet. Nun behauptet der Konzern, das Feedback erhört zu haben und kündigt in einem neuen Blogbeitrag ein paar Änderungen an, die noch vor der Einführung der Copilot+-PCs am 18. Juni und der damit einhergehenden Auslieferung einer ersten Preview von Recall umgesetzt werden sollen.
Zu den dystopischen Plänen von Microsoft, die einen weltweiten Aufschrei von Sicherheitsexperten auslösten, kam dann kürzlich auch noch die Meldung, dass Recall schon gehackt ist. Microsoft hat mittlerweile auf die Proteste reagiert und will Recall nun doch nur per Opt-In installieren. Für mich allerdings ist schon die bloße Tatsache der Anwesenheit einer solchen Funktion Grund genug, Windows keine sensiblen Daten mehr anvertrauen zu können, denn Microsoft verlangt damit ein Maß an Vertrauen, das es angesichts der riesigen Zahl von bekannten Windows-Sicherheitsproblemen, und vor allem dem immer wieder sehr nachlässigen Umgang damit, keinesfalls verdient hat.
Microsoft’s Windows 11 Copilot+ PCs come with quite a few new AI and machine learning-driven features, but the tentpole is Recall … the feature is pitched as a way to help users remember where they’ve been and to provide Windows extra contextual information … This, as many users in infosec communities on social media immediately pointed out, sounds like a potential security nightmare. That’s doubly true because Microsoft says that by default, Recall’s screenshots take no pains to redact sensitive information, from usernames and passwords to health care information to NSFW site visits.
Wir sind nicht die Einzigen, die mit der neuen Funktion „Recall“ in Windows massive Bauchschmerzen haben. In diesem Artikel von Ars Technica werden Reaktionen von Sicherheits- und Privatsphäre-Fachleuten zusammengetragen, und das Vorhaben von Microsoft stößt darin rundheraus auf Ablehnung.