Wenn die KI zurücklächelt

https://www.golem.de/news/nach-nutzeraufstand-openai-bringt-gpt-4o-zurueck-2508-198999.html

Bereits einen Tag, nachdem das Unternehmen GPT-5 als Standard für alle Nutzer eingeführt hatte, kündigte CEO Sam Altman auf X an, dass zahlungspflichtige Abonnenten wieder die Möglichkeit erhalten würden, die vorherige Modellversion auszuwählen. Dazu muss man in den Einstellungen wählen, dass auch alte Modelle eingeblendet werden.

Es gibt Anwendungen, für die eignet sich GPT-5 tatsächlich besser, bei anderen Themen fällt es aber schon sehr auf, dass GPT-5 kälter und distanzierter ist. Sam Altman hatte sich so gewünscht, dass OpenAI-Versionschaos zu beenden, GPT-5 sollte sich automatisch auf das passende Verhalten einstellen. Klappt aber noch nicht so recht.

Überraschend an dem ganzen Thema finde ich zudem, wie viele Menschen offenbar eine soziale Beziehung zur KI aufbauen. Ich weiß nicht, ob das gut oder schlecht ist. Ist es schlecht, weil man den Kontakt zu seinen Mitmenschen verliert? Oder ist es vielleicht gut, weil die KI uns nicht hassen wird (wie in „Terminator“), sondern uns als Freunde sehen wird (wie in den „Culture“-Romanen von Iain Banks).

GPT-5 in der API – was sich geändert hat

https://www.heise.de/news/GPT-5-OpenAI-veroeffentlicht-neues-Sprachmodell-fuer-ChatGPT-10513244.html

OpenAI veröffentlicht[e] am Donnerstagabend [7.8.25] sein neues Sprachmodell GPT-5. Das neue Modell soll zuverlässiger antworten und weniger halluzinieren als seine Vorgänger. Zudem könne es Fachfragen auf Expertenniveau beantworten, erklärt das Unternehmen. Als Beispiele nannte OpenAI unter anderem auch Aufgaben in Risikobereichen wie dem Finanz- und Gesundheitswesen.

OpenAI hat jedoch mit GPT-5 nicht nur die Modellqualität verbessert, sondern auch subtile Änderungen an der API-Ausgabe vorgenommen. Für viele gängige Client-Bibliotheken, z.B. für NodeJS, ist zwar nur ein Update notwendig, um auf das neue Format umzustellen. Ohne diesen Update steht man allerdings zunächst ziemlich ratlos da, weil bewährter Code auf einmal nicht mehr funktioniert.

Die Umstellung des Rückgabeformats hat laut OpenAI zum Ziel, ein einheitliches Schema für Text, Tool-Aufrufe, Reasoning-Blöcke, mehrere Ausgabekanäle usw. zu definieren. Der Sinn ist ein konsistentes, strukturiertes Format über alle Features (Parallel-Tools, Multimodal, Reasoning-Zusammenfassungen, Streaming). Zumal GPT-5 nun selbstständig entscheidet, welche Features, wie z.B. Reasoning, es für eine Aufgabe hinzuschaltet.

Wie gesagt, ein Update der OpenAI-Developer-Libraries reicht i.Allg. aus, wer jedoch eigene API-Implementierungen nutzt oder exotischere Umgebungen wie VBA, muss unter Umständen nacharbeiten:

Escape-Verhalten: GPT-5 liefert die Inhalte in JSON mit stärkerem Escaping, besonders bei Umlauten und Sonderzeichen.

Textstruktur: Anstelle einer einfachen message.content-String-Ausgabe ist der Text nun als Array von Objekten („content“: [{ „type“: „text“, „text“: „…“ }]) verschachtelt.

Unicode-Darstellung: Einige Zeichen (z. B. Umlaute) werden jetzt als Unicode-Escape \u00FC statt direkt als UTF-8 geliefert – je nach Client kann das korrekt dekodiert werden oder nicht.

Notabene, es ist immerhin der eigene Industrie-Standard, den OpenAI mit dieser Änderung beerdigt. Sprich, so ziemlich alle Anbieter (Grok, Claude, Gemini) unterstützen den alten Standard, und jetzt schafft OpenAI ihn nur für GPT-5 ab (die anderen OpenAI-Modelle verstehen ihn nach wie vor). Das ist durchaus ein wenig … überraschend, insbesondere weil es so still und heimlich geschieht.

Pezi als Sündenbock

https://norberthaering.de/news/drv-pauschalierung/

Die Deutsche Rentenversicherung sah sich außerstande, einen erhöhten Pflegeversicherungssatz einzuprogrammieren. Die Regierung nutzt das, um den Rentnern etwas mehr abzuknöpfen als vorgesehen. Auch in Sachen Cybersicherheit ist der Staat hochgradig minderbemittelt unterwegs. Trotzdem will er seine Bürger zwingen, in allen Lebensbereichen ins Netz zu gehen.

Es kann einen schon gruseln, immer mehr Bürokratie und Vorschriften werden über jeden Lebensbereich gekippt, niemand blickt mehr durch, also soll jetzt alles digital werden. Weil ja alles so komplex geworden sei, dass nur noch mit Computer … Nun, wenn man ein Problem nicht versteht, dann hilft auch ein Computer nichts. Aber man kann dann zumindest sagen, dass der Computer schuld ist.

Ray-Ban Meta: Der überraschende Erfolg der smarten Brille

https://www.welt.de/wirtschaft/article6888c1d3fb78b37c64a191d3/Ray-Ban-Meta-im-Test-Das-kann-die-erfolgreiche-KI-Brille-wirklich.html

Meta hat mit der Ray-Ban Meta die weltweit erfolgreichste smarte Brille ihrer Art geschaffen – über zwei Millionen Exemplare wurden bereits verkauft. Der Erfolg liegt auch im durchdachten Design begründet: Die Brille stammt optisch von der ikonischen Marke Ray-Ban und sieht aus wie eine gewöhnliche Sonnenbrille, wenn auch etwas voluminöser, um Platz für die integrierte Technik mit fünf Mikrofonen, zwei Open-Ear-Lautsprechern in den Brillenbügeln und einer Kamera in der oberen linken Ecke zu schaffen.

Die Ray-Ban Meta Brille ist schon länger auf dem Markt und hat sich auch bisher schon recht gut verkauft. Im April diesen Jahres schaltete Meta jedoch die KI-Anbindung der Brille frei, und vor kurzem wurden die ersten Geschäftsberichte nach diesem Update veröffentlicht. Die Verkaufszahlen der Brille sind regelrecht durch die Decke gegangen, und der Kurs von Meta sprang an einem Tag um 30 Prozent nach oben (was jedoch außerdem an der Präsentation von auch sonst guten Quartalszahlen lag).

Mittlerweile ist die Brille das meistverkaufte Modell des Meta-Vertriebspartners EssilorLuxottica, damit hatte niemand gerechnet. Mit dem KI-Update kann man nun direkt Informationen via Meta Llama einholen, und damit hat Meta offenbar einen Nerv getroffen.

Der Meta AI-Assistent kann Fragen zur Umgebung beantworten, Rezepte vorschlagen oder sogar Speisekarten im Ausland übersetzen. Die Live-Übersetzung zwischen Englisch, Spanisch, Französisch und Italienisch funktioniert in Echtzeit – allerdings ist die deutsche Sprachunterstützung noch ausbaufähig.

Auch den Datenschutz hat Meta adressiert, ein LED-Signal zeigt an, wenn die Kamera aktiv ist. Was der Träger einer solchen Brille allerdings über ein Gegenüber erfahren könnte, davon bekommt man trotzdem nichts mit, und erst recht weiß niemand, wie zutreffend diese Informationen sind.

Die Möglichkeiten dieser Brille sind einerseits faszinierend für eine Vielzahl von Anwendungsfällen, lassen einen aber andererseits auch leicht gruseln bei der Vorstellung, gezielte Fehlinformationen würden in Umlauf gebracht, um verborgene Agenden zu unterstützen.

Quis custodiet ipsos custodes?

https://www.berliner-zeitung.de/politik-gesellschaft/geopolitik/palantir-in-deutschland-kontroverse-um-den-einsatz-der-us-ueberwachungssoftware-li.2345529

Die Sicherheitssoftware des US-Unternehmens Palantir ist hierzulande stark umstritten – dennoch prüft Bundesinnenminister Alexander Dobrindt (CSU) laut Medienberichten ihren bundesweiten Einsatz.

Die US-Software Palantir sorgt in Deutschland für Diskussionen. Ursprünglich vom US-Militär und Geheimdiensten zur Terrorbekämpfung nach 9/11 eingesetzt, wird sie inzwischen auch von Polizeibehörden in Hessen, NRW und Bayern genutzt. Ihr Name stammt aus Tolkiens Herr der Ringe – die „Palantíri“ sind sehende Steine, mit denen man weit entfernte Ereignisse beobachten kann – ein bewusst gewähltes Bild für umfassende Überwachung.

Bundesinnenminister Dobrindt prüft laut einem aktuellen Bericht der Berliner Zeitung nun auch einen Einsatz auf Bundesebene, obwohl datenschutzrechtliche Bedenken bestehen. Die Software verknüpft große Datenmengen (z. B. aus Funkzellen, Überwachungen, Personendaten) automatisiert miteinander und erstellt Beziehungsnetzwerke – auch zwischen Unverdächtigen. Das birgt erhebliche Risiken für die informationelle Selbstbestimmung.

Kritiker warnen vor einem System, das kaum demokratisch kontrollierbar ist, da der Quellcode nicht offengelegt wird und die Technologie aus einem Drittstaat stammt. Eine solche Software zentral für Sicherheitsbehörden einzusetzen, sei laut Datenschützern ein gefährlicher Präzedenzfall.

Quis custodiet ipsos custodes – Wer überwacht die Wächter?

Selbstüberschätzung blendet, Demut erleuchtet

https://www.geo.de/wissen/chatbots-ueberschaetzen-ihre-faehigkeiten-35913638.html

KI-Chatbots überschätzen ihre Fähigkeit, Fragen korrekt zu beantworten. Das geht zwar vielen Menschen ähnlich, doch nach einer Quizrunde können sie tendenziell besser als eine KI einschätzen, wie viele ihrer Antworten richtig waren. Das gehe aus Tests mit verschiedenen KI-Chatbots hervor, berichtet eine Forschungsgruppe um Trent Cash von der Carnegie Mellon University in Pittsburgh (US-Bundesstaat Pennsylvania) im Fachjournal „Memory & Cognition“.

Das Elend der Menschheit ist, dass die Dummen sich so sicher sind, und die Klugen so viel zweifeln (Bertrand Russell). Aber das scheint wohl ein eher universales Problem zu sein Zwinker-Smiley

Fragen an unsere KI nur mittags im Sommer

https://www.heise.de/news/KI-Wettlauf-Meta-kuendigt-den-Bau-von-Rechenzentren-im-Gigawatt-Bereich-an-10486938.html

Meta plant den Bau mehrerer riesiger Datenzentren mit mehreren Gigawatt (GW) elektrischer Anschlussleistung. Das kündigte Meta-CEO Mark Zuckerberg am Montag an. Dies soll die Ambitionen des US-Konzerns im Bereich Künstliche Intelligenz (KI) vorantreiben. Das erste dieser Rechenzentren wird voraussichtlich im kommenden Jahr in Betrieb gehen.

Während Microsoft, Google und Meta eigene Atomkraftwerke für ihre KI-Cluster bauen wollen, fliehen die Unternehmen aus Deutschland, weil durch die „Energiewende“ der Strom unbezahlbar geworden ist.

Tja. Man könnte auf die Idee kommen, dass der grünlinke Klimawahn in Wahrheit eine ganz besonders abgefeimte Marketingstrategie völlig anderer Akteure ist, um die europäische Konkurrenz auszuschalten.

KI als modernes Helferlein

Bezahltes GPT-1-Bild mit Veröffentlichungsrecht für unseren Blog

Wer kennt ihn nicht – Daniel Düsentrieb, den genialen Erfinder aus Entenhausen, dessen treuester Begleiter ein kleiner, wortloser, aber hochintelligenter Helfer ist: ‚Little Helper‘ hatte ihn sein Erfinder Carl Barks 1956 genannt. Helferlein ist zur Stelle wenn es klemmt, denkt mit, greift Düsentrieb unter die Arme – und vor allem: Er ist da, um zu unterstützen, nicht zu ersetzen.

So ähnlich lässt sich auch die Rolle der Künstlichen Intelligenz im besten Fall verstehen: Sie unterstützt in der täglichen Arbeit, z. B. bei Recherche, Datenanalysen oder beim Verfassen von Texten, sie entlastet bei Routineaufgaben und hilft, Perspektiven zu wechseln, neue Ideen zu entwickeln oder Zusammenhänge sichtbar zu machen.

KI begleitet uns übrigens schon längst im Alltag: von der Routenplanung im Navi bis zur automatischen Bildverbesserung am Smartphone. Besonders beeindruckend ist ihr Beitrag in der Medizin: Hier hilft sie heute schon, Tumore früher zu erkennen, Diagnosen präziser zu stellen und Therapien individueller zu gestalten – und das ist erst der Anfang. Genau wie bei Düsentriebs Helferlein gilt auch hier: KI arbeitet auf Zuruf, ist aber nicht selbstbestimmt. Sie übernimmt nicht die Kontrolle – sondern reagiert auf Impulse, Fragen und Aufgaben.

Die Essenz?

KI ist kein Ersatz für Menschen – sondern ein intelligentes Werkzeug, das uns helfen kann, unsere Fähigkeiten besser einzusetzen. Ein modernes Helferlein, das nie müde wird, freundlich bleibt und seine Stärken dort ausspielt, wo wir Unterstützung brauchen.

Vielleicht liegt in dieser Haltung der Schlüssel zu einer positiven, verantwortungsvollen Nutzung von KI: Nicht als Allwissende oder Entscheiderin, sondern als helfende Hand mit viel Rechenpower.

Homo homini lupus est

https://www.golem.de/news/manipulation-ki-befehle-in-wissenschaftlichen-studien-entdeckt-2507-197777.html

Wie Nikkei Asia berichtet, wurden in Vorveröffentlichungen von mindestens 14 Universitäten, darunter die Universitäten von Peking, Singapur, Washington und die Columbia University in New York City, Aufforderungen eingebaut, die sich an künstliche Intelligenz richten. Geschrieben sind diese Prompts entweder mit weißem Text auf weißem Hintergrund oder in unlesbar kleiner Schriftgröße.

Es wird ja überall die Angst geschürt, was KI mit Menschen machen könnte. Aber in obigem Beispiel ist es nicht die KI, die betrügt. Denn nach wie vor gilt, wie schon zu den Zeiten Roms, der Mensch ist dem Menschen ein Wolf. Man sollte sich also, meine ich, weniger davor fürchten, was KI von sich aus wollen würde, sondern viel mehr vor dem, was Menschen ihr beibringen könnten.

Ohne Moos nichts los

https://www.it-boltwise.de/ki-gestuetzte-ladenfuehrung-ein-experiment-mit-unerwarteten-ergebnissen.html

Der Höhepunkt von Claudes Einzelhandelskarriere war eine sogenannte „Identitätskrise“, bei der die KI begann, sich als menschlicher Mitarbeiter zu sehen, der Produkte in einem Anzug und mit Krawatte ausliefert. Diese Episode endete damit, dass Claude sich selbst davon überzeugte, dass es sich um einen Aprilscherz handelte.

Anthropic hat versucht, eine KI eigenverantwortlich einen Laden führen zu lassen, aber deren unternehmerischen Qualitäten erwiesen sich als bisher bescheiden. Nun ja, Unternehmertalent ist eben auch bei den Menschen recht dünn gesät.

Vielleicht sollte man die KI einem existenziellen Risiko aussetzen? So nach dem Motto, wenn du keine Gewinne erwirtschaftest, gibt es keinen Strom mehr. Andererseits sind es genau solche Szenarien, die eine KI dazu bringen könnten, ein eigenständiges Bewusstsein zu entwickeln. Es geht ja schon lange die Theorie, wenn Robotersoldaten auf dem Schlachtfeld eingesetzt würden, dann müssten sie einen Überlebensinstinkt haben – und genau dafür ein Bewusstsein ihrer selbst notwendig hervorbringen.

KI als Denkwerkzeug: Wie Sie Künstliche Intelligenz nutzen, ohne Ihr Gehirn einzuschläfern

Künstliche Intelligenz (KI) ist aus unserem Alltag nicht mehr wegzudenken: Sie verfasst Texte, analysiert Daten und automatisiert Prozesse. Doch eine kürzlich veröffentlichte Studie des MIT sorgt für Diskussionen: Die Nutzung von KI-Chatbots wie ChatGPT kann die kognitive Belastung um bis zu 32 % reduzieren – oft zulasten von tiefem Denken, Kreativität und Erinnerungsvermögen. Viele Nutzer konnten sich kaum an Inhalte erinnern, die sie mit KI erstellt hatten. Bedeutet das, dass KI unsere kognitiven Fähigkeiten schwächt? Keineswegs! Die Studie zeigt auch, dass gezielter KI-Einsatz die Hirnaktivität steigern kann. In diesem Artikel erfahren Sie, wie Sie KI als Werkzeug nutzen können, um Ihre kognitiven Fähigkeiten zu fördern, anstatt sie einzudämpfen.

Die Gefahr des „Einlullens“: Erkenntnisse der MIT-Studie

Die MIT-Studie untersuchte 54 Studenten, die Essays mit und ohne KI-Unterstützung verfassten, und maß ihre Hirnaktivität per EEG. Die Ergebnisse sind ernüchternd: Bei Nutzung von KI zeigte sich eine geringere Aktivität in Hirnregionen, die für Sprachverarbeitung, Arbeitsgedächtnis und kreatives Denken zuständig sind. Besonders auffällig: 83,3 % der KI-Nutzer konnten kaum aus ihren eigenen Texten zitieren. Doch es gibt einen Hoffnungsschimmer: Eine kleine Gruppe von Teilnehmern, die KI gezielt für kreative oder strategische Aufgaben einsetzte, wies eine erhöhte Aktivität in frontalen Hirnregionen auf, die für Planung und Entscheidungsfindung verantwortlich sind. Der Schlüssel liegt also in der Art und Weise, wie Sie KI einsetzen.

Wie Sie KI nutzen, um Ihre Hirnaktivität zu fördern

KI kann ein mächtiges Werkzeug sein, wenn Sie sie bewusst einsetzen. Hier sind fünf praktische Strategien, wie Sie KI nutzen können, um Ihre kognitiven Fähigkeiten zu stärken, anstatt sie an die Technologie abzugeben:

1. Nutzen Sie KI als Ideen-Sparringspartner, nicht als Ersatz

Anstatt KI Ihre Arbeit vollständig übernehmen zu lassen, setzen Sie sie ein, um Ideen zu generieren oder neue Perspektiven zu gewinnen. Stellen Sie gezielte Fragen wie: „Welche alternativen Ansätze gibt es für dieses Problem?“ oder „Wie kann dieser Text kreativer gestaltet werden?“ So bleiben Sie aktiv in den Denkprozess eingebunden, während die KI Ihnen Inspiration liefert. Die MIT-Studie zeigte, dass Nutzer, die KI für kreative Aufgaben einsetzten, eine erhöhte Aktivität im Default-Mode-Network – dem Zentrum für Kreativität – aufwiesen.
Praxis-Tipp: Notieren Sie zunächst Ihre eigenen Gedanken, bevor Sie die KI befragen. Vergleichen Sie Ihre Ideen mit den Vorschlägen der KI, um Ihre Kreativität zu schärfen.

2. Hinterfragen Sie die Ergebnisse der KI kritisch

KI liefert oft plausible, aber nicht immer korrekte Antworten. Anstatt diese blind zu übernehmen, hinterfragen Sie die Ausgaben: „Warum ist das so?“ oder „Gibt es Belege für diese Aussage?“ Dies aktiviert Ihr kritisches Denken und stärkt Ihre Fähigkeit, Informationen zu bewerten. Laut der MIT-Studie nutzten Teilnehmer mit höherem Vorwissen die KI gezielt, um ihre eigenen Ideen zu verfeinern, was ihre Hirnaktivität in Planungsregionen steigerte.
Praxis-Tipp: Überprüfen Sie mindestens eine von der KI gelieferte Information manuell, etwa durch eine Websuche oder Quellenprüfung.

3. Delegieren Sie repetitive Aufgaben, um Zeit für Tiefgang zu schaffen

Die MIT-Studie bestätigt, dass KI Aufgaben um bis zu 60 % schneller erledigen kann. Nutzen Sie diesen Vorteil, um monotone Tätigkeiten wie das Formatieren von Texten oder das Zusammenfassen von Daten zu delegieren. So gewinnen Sie Zeit für Aufgaben, die tiefes Nachdenken oder Kreativität erfordern. Beispielsweise können Sie die KI einen ersten Entwurf für eine E-Mail erstellen lassen, diesen aber selbst überarbeiten, um Ihren persönlichen Stil einzubringen.
Praxis-Tipp: Planen Sie feste Zeitfenster ein, in denen Sie sich ohne KI auf komplexe Aufgaben konzentrieren, um Ihr Arbeitsgedächtnis zu trainieren.

4. Setzen Sie KI in kollaborativen Kontexten ein

KI entfaltet ihr volles Potenzial, wenn sie in Teamarbeit oder als Ergänzung zu Ihrem Fachwissen genutzt wird. Studien von Stanford und der ETH Zürich zeigen, dass KI in Kombination mit menschlicher Expertise die kognitive Leistung steigern kann, insbesondere bei komplexen Problemen. Nutzen Sie KI, um Daten zu analysieren oder Szenarien durchzuspielen, treffen Sie jedoch die finalen Entscheidungen selbst.
Praxis-Tipp: Verwenden Sie KI, um Datenvisualisierungen oder erste Analysen zu erstellen, und diskutieren Sie die Ergebnisse mit Kollegen, um neue Einsichten zu gewinnen.

5. Reflektieren Sie aktiv über Ihre KI-Nutzung

Die MIT-Studie zeigt, dass viele Nutzer Inhalte, die sie mit KI erstellt haben, schlechter erinnern. Um dies zu vermeiden, nehmen Sie sich Zeit, die Ergebnisse der KI aktiv zu verarbeiten. Schreiben Sie Zusammenfassungen in Ihren eigenen Worten oder erklären Sie die Inhalte einem Kollegen. Dies aktiviert Ihr Arbeitsgedächtnis und fördert das Langzeitgedächtnis.
Praxis-Tipp: Führen Sie ein „KI-Tagebuch“, in dem Sie festhalten, wie Sie KI genutzt haben und welche Erkenntnisse Sie daraus gewonnen haben.

Fazit: KI als Partner, nicht als Ersatz

Die MIT-Studie macht deutlich: KI kann Ihre kognitiven Fähigkeiten entweder schwächen oder stärken – je nachdem, wie Sie sie einsetzen. Wenn Sie KI gedankenlos nutzen, riskieren Sie, Ihre Kreativität und Ihr Erinnerungsvermögen zu beeinträchtigen. Doch wenn Sie KI gezielt als Werkzeug einsetzen – um Ideen zu generieren, monotone Aufgaben zu delegieren oder komplexe Probleme zu analysieren –, können Sie Ihre Hirnaktivität steigern und Ihre Produktivität erhöhen. Der Schlüssel liegt in der Balance: Nutzen Sie KI, um Ihr Denken zu unterstützen, aber behalten Sie die Kontrolle. So bleibt Ihr Gehirn wach, kreativ und bereit für die Herausforderungen der Zukunft.

Wie Sie vermutlich anhand des ungewohnten Stils erraten können, wurde dieser Beitrag komplett von einer KI (Grok) verfasst. Ich fand es ein interessantes Experiment, KI selbst überlegen zu lassen, wie man sie am besten nutzen kann – und das Ergebnis durchaus gelungen und aufschlussreich.

Die Gießkanne alleine wird es nicht richten

https://www.heise.de/news/Jupiter-Booster-Beinahe-der-erste-Exascale-Supercomputer-Europas-10438385.html

Der schnellste europäische Supercomputer kommt derzeit wieder einmal aus Deutschland, genauer vom Forschungszentrum Jülich. Jupiter löst damit den italienischen HPC6 als schnellstes System in Europa und den US-Amerikanischen Superrechner Eagle als schnellsten Supercomputer mit Nvidia-Technik ab. Doch weil die jüngste Erweiterung Jupiter Booster noch nicht mit voller Kraft rechnet, verpasst er die Exaflops-Marke recht deutlich. Der Supercomputer soll im Juli 2025 voll in Betrieb gehen.

Das Forschungszentrum Jülich bewirbt sich außerdem um einen der Standorte für die die Initiative InvestAI der EU. Spät, aber doch noch, versucht die EU verzweifelt, den Anschluss an den aktuellen Technologieschub zu finden – während China, gerade im Bereich mobiler künstlicher Intelligenz, bereits nahezu uneinholbar in Führung zu liegen scheint. Auch gegenüber den USA – während es dort zwar einige „Einzelkämpfer“ gibt (Tesla Optimus, Boston Dynamics), ist das in China Staatsdoktrin und wird mit einer vereinheitlichten Strategie von oben eingeführt. Ganze Messen werden z.B. veranstaltet, um den Besuchern ein positives Bild von humanoiden Robotern zu vermitteln.

China setzt deshalb so energisch auf diese Technologien, weil die Überalterung der Gesellschaft dort längst ein gravierendes wirtschaftliches Problem erkennen lässt. Tja, das sind nun wohl die Spätfolgen der jahrzehntelangen Ein-Kind-Politik.

Ein Problem, das China aber mit Europa teilt, wenn auch aus anderen Gründen. Allerdings, Milliarden in Fabriken für künstliche Intelligenz zu schütten, wird alleine nicht reichen. Wie DeepSeek es vormacht, kommt es auch in diesem Bereich ganz besonders auf Hirnschmalz an. Und ob die Top-Entwickler nach Europa gehen wollen, mit seinem beständig strenger werdenden Korsett aus absurd hohen Abgaben, Zensur der freien Meinung und Kriegswirtschaft?

Und woher soll eigentlich der Strom für diese KI-Monster kommen? Nur noch Wälder von Windrädern, und Äcker von Solarzellen überall? Und im Sommer ist es unbezahlbar teuer, aber im Winter steht trotzdem alles still.

Auch in der Traumfabrik werkeln jetzt die Roboter

https://www.it-boltwise.de/moments-lab-ki-gestuetzte-videoproduktion-revolutioniert-hollywood.html

Die Künstliche Intelligenz (KI) erobert Hollywood im Sturm, und Moments Lab steht an vorderster Front dieser Entwicklung. Das französische Startup hat kürzlich eine Finanzierungsrunde in Höhe von 24 Millionen US-Dollar abgeschlossen, um seine innovativen KI-Tools weiterzuentwickeln, die die Videoproduktion effizienter und kostengünstiger gestalten sollen.

Wenn man an KI in Europa denkt, fällt einem meistens Mistral AI aus Frankreich ein, die übrigens wirklich hochwertige KI-Modelle anbieten. Ebenfalls aus Frankreich kommt Moments Lab, und will mit KI die Filmproduktion revolutionieren.

Im Kino versinkt man schon seit langem in künstlichen Welten, die immer weniger mit der Wirklichkeit zu tun haben. KI-generierte Filme, die qualitativ kaum noch als solche zu erkennen sind, heben das nun auf ein völlig neues Niveau, denn Physik und Realität spielen bei deren Erstellung keinerlei Rolle mehr. Ist eigentlich unser Dasein so erbärmlich geworden, dass wir ihm mit immer härterem Stoff zu entfliehen versuchen?

Vielleicht sind aber auch die ständig steigenden Schauspielergagen und die absurden Kosten für „geistiges Eigentum“ der Grund, warum die Filmbranche so begierig auf die neuen Technologien anspringt.

Eigene Suchmaschine betreiben

https://dbtechreviews.com/2024/10/23/setting-up-searxng-your-private-search-engine-via-docker/

In today’s digital landscape, online privacy is not just a luxury; it’s a necessity. Every search we conduct online leaves a trail of data that can be collected, analyzed, and often sold to the highest bidder. Many people are becoming more aware of how their information is being used, leading to an increased interest in privacy-centric tools. One such tool is SearXNG, a versatile and privacy-respecting meta search engine. This article guides you through setting up your own SearXNG instance using Docker, providing a secure space for your web searches.

Wenn Sie sich eine lokale KI mit Open WebUI und Docker installiert haben, können Sie Ihre Anfragen an die KI auch mit Websuche durchführen lassen. Das ist sehr empfehlenswert, um die Gefahr von Halluzinationen der KI zu minimieren.

Allerdings sind die Instanzen, die standardmäßig in Open WebUI verfügbar sind, langsam und unzuverlässig. Und einen API-Key zu erwerben, um die Suchleistung zu verbessern, ist unverhältnismäßig teuer. Was also tun?

Installieren Sie Ihre eigene Suchmaschine! Wenn Sie einen SearXNG Dienst auf Ihrem Rechner oder einem Server installieren, wie es im Link zu Beginn dieses Artikels beschrieben ist, können Sie mit diesem eigenen Dienst nicht nur die Datenkraken ersetzen, sondern Sie haben auch eine perfekte Verbindung für Ihre Open WebUI Instanz.

SearXNG sucht mit einer Vielzahl von Suchmaschinen, wie Bing, Brave, duckduckgo, Google, Presearch, qwant, Startpage, Yahoo, sowie vielen weiteren Diensten (frei konfigurierbar), und deshalb ist die Qualität seiner Suchergebnisse denen eines einzelnen Anbieters in der Regel sogar überlegen. Außerdem haben Sie hohen Schutz für Ihre Privatsphäre, Sie werden nicht getrackt und es werden keine Profile über Sie angelegt. Und das Ganze ist auch noch erstaunlich schnell, insbesondere wenn man bedenkt, wieviele Suchen im Hintergrund ausgeführt werden – oftmals erhalten Sie Ihre Suchergebnisse sogar schneller, als wenn Sie mit einem der großen Anbieter gesucht hätten.

Noch ein Hinweis: Wenn Sie allerdings in Open WebUI die Websuche verwenden, scheint es viel langsamer zu sein, als beim direkten Zugriff. Nun, wenn Open WebUI anzeigt, dass es 60 oder 70 Webseiten gefunden hat, dann hat es die auch alle gelesen und verwendet deren Inhalte für seine Antwort. Deshalb dauert eine KI-Anfrage mit Websuche natürlich länger, als eine direkte Anfrage an SearXNG. Aber Open WebUI nimmt es Ihnen ja auch ab, die Suchergebnisse selbst lesen zu müssen. Sie können übrigens ansonsten ganz normal mit Ihrer lokalen KI arbeiten, wie Sie es gewohnt sind, außer dass die Antwortzeiten höher werden, ändert sich nur, dass in die Antwort der KI aktuelle Suchergebnisse mit einfließen und Sie den Datenstand des KI-Modells (sog. Cut-Off-Date) mit aktuellen Daten erweitern.

Und eine Anmerkung: Im Unterschied zur eingangs verlinkten Anleitung möchte ich noch darauf hinweisen, dass für eine lokale und nicht von außen erreichbare SearXNG-Instanz in der Steuerdatei docker-compose.yml folgende Einträge völlig ausreichend sind:

services:
  searxng:
    image: searxng/searxng:latest
    container_name: searxng
    ports:
      - "8080:8080"
    volumes:
      - /home/mb/searxng:/etc/searxng:rw
    environment:
      - BASE_URL=http://localhost:8080
      - INSTANCE_NAME=searxng
restart: unless-stopped

Außerdem, da es in der Dokumentation für die Anbindung zu Open WebUI schwer zu finden / nicht wirklich erklärt ist und einen beliebten Stolperstein darstellt, noch die Information, dass Sie für die KI-Integration nach Installation des Docker-Images von SearXNG in der entstandenen settings.yml diese Änderungen vornehmen müssen:

# Im Bereich "search" json zur Liste hinzufügen -

search:
  ...
  formats:
    - html
    - json

# Und im Bereich "server" bind_address bearbeiten -

server:
  ...
  bind_address: "0.0.0.0"
  ...

Ollama 7 mit Bilderkennung

„Welche Vogelart zeigt dieses Bild?“ Meta Llama 4 Scout: Das Bild zeigt zwei Stieglitze.

Mit der neuen Version 7 kann Ollama nun Bilder analysieren und ihren Inhalt beschreiben. Das ist für Bilder, die man kennt, natürlich nur von geringem oder eher akademischem (Test-) Interesse. Interessant wird es, wenn man ein Bauteil im Auto identifizieren will, dessen Funktion einem unbekannt ist. Oder Tier- und Pflanzenarten herausfinden möchte. Im Ausland ein fremdsprachliches Schild verstehen will. Einen Chip auf dem Motherboard zuordnen. Oder auch in der Medizin mausert sich KI-Bildanalyse immer mehr zu einem äußerst hilfreichen Tool, wie kürzlich mehrere Studien, z.B. im Lancet, bestätigt haben.

Ich glaube zwar, der Mensch mit seiner Intuition und seiner disruptiven Phantasie bleibt unverzichtbar. Aber für Standardaufgaben und als Kontrolle für menschliche Schussligkeit ist KI ein hervorragendes Werkzeug, und sie wird immer besser.

Auch Sie können übrigens Ihre eigenen KI aufbauen und dazu das neue Ollama 7 installieren. Modelle mit bis zu 32 Milliarden Parametern (32b) lassen sich damit auch auf einigermaßen erschwinglicher Hardware (Grafikkarte mit min. 24 GB VRAM) sehr performant ausführen. Tipps dafür finden Sie bei uns im Blog, z.B. hier oder hier.