Langläufer-Linux

https://www.pcwelt.de/article/2008374/ubuntu-pro-lohnt-sich-die-aboversion.html

Wer Linux privat nutzt, hat vermutlich kaum Probleme mit Aktualisierungen und neuen Versionen. Das sieht anders aus, wenn das System den Unterbau für Anwendungen bildet, die im Firmenumfeld und beruflich eingesetzt werden. Hier ist es wichtig, dass die Distribution möglichst lange mit Sicherheitsupdates versorgt wird. Canonical hat diese Forderung mit seinen regelmäßig erscheinenden LTS-Versionen aufgegriffen; geht jetzt aber für Privatanwender oder Selbstständige mit Ubuntu Pro noch einen Schritt weiter.

10 statt bisher 5 Jahre Updates für die LTS-Versionen von Ubuntu, und für Privatanwender sogar ohne zusätzliche Kosten.

Falle in Fedora

Früher gab es für die Aktualisierung von GRUB2 in Fedora zwei unterschiedliche Befehle. Für BIOS-Systeme war es:
sudo grub2-mkconfig -o /boot/grub2/grub.cfg und für EFi-Systeme:
sudo grub2-mkconfig -o /boot/efi/EFI/fedora/grub.cfg.

Inzwischen hat jedoch Fedora die durchaus begrüßenswerte und vernünftige Entscheidung getroffen, für beide Systeme nur noch ein Kommando zu verwenden, nämlich das für BIOS-Systeme. Im EFI-Verzeichnis wird neuerdings nur noch auf eine  einheitliche grub.cfg gesourced, und diese tatsächliche grub.cfg liegt für beide Systeme in /boot/grub2/grub.cfg.

Daraus ergibt sich jedoch eine tückische Falle. Denn auf vielen Webseiten finden sich noch immer, so wie eingangs beschrieben, zwei verschiedene Befehle je nach System. Aber wenn man in einem neueren Fedora nur einmal den EFI-Befehl eingibt, ist der Update-Mechanismus danach kaputt. Wenn dann z.B. in dnf eine neue Kernel-Version installiert wird, wird der danach ausgeführte implizite Update für GRUB2 zwar die /boot/grub2/grub.cfg bearbeiten, aber nicht die /boot/efi/EFI/fedora/grub.cfg. Diese zweite Datei hat jedoch beim Booten in GRUB Vorrang, und deshalb wird der neue Kernel dann nicht gestartet. Und wie es mit späteren größeren Updates aussieht, z.B. Update auf eine höhere Fedora-Version, ist sowieso ungewiss.

Abhilfe ist wie folgt:

sudo rm /boot/efi/EFI/fedora/grub.cfg
sudo dnf reinstall grub2-efi-x64 shim-x64 grub2-tools
sudo dnf reinstall grub2-common
sudo grub2-mkconfig -o /boot/grub2/grub.cfg

Die EFI grub.cfg sieht danach so aus:

search --no-floppy --fs-uuid --set=dev 9baexxxx-xxxx-xxxx-xxxx-xxxxxxxxcd35
set prefix=($dev)/grub2
export $prefix
configfile $prefix/grub.cfg

und verweist  bzw. sourced auf die grub.cfg in /boot/grub2. Und danach funktioniert auch wieder der dnf-Mechanismus, z.B. in dnfdragora.

Ergänzung 13.08.2023: Es ist möglich, dass durch den fehlgegangenen efi-update-grub außerdem die Variable GRUB_ENABLE_BLSCFG in /etc/default/grub verstellt wurde. Diese Variable sollte unter Fedora auf „true“ stehen, könnte aber durch den veralteten efi-update-grub auf „false“ gegangen sein (GRUB_ENABLE_BLSCFG=false). Dies könnte wiederum mit anderen Update-Mechanismen von Fedora kollidieren und zu weiteren Problemen führen. Als Abhilfe den Wert auf „true“ setzen (GRUB_ENABLE_BLSCFG=true) und anschließend
sudo grub2-mkconfig -o /boot/grub2/grub.cfg“. Mehr Info zu diesem Problem hier: https://forums.fedoraforum.org/showthread.php?331019-Fedora-38-not-booting-with-kernel-version-gt-6-4-6

An Denkverboten verkümmerte Intelligenz?

https://www.golem.de/news/machine-learning-die-antwortqualitaet-bei-gpt-fluktuiert-stark-2307-176030.html

Eine Studie mit dem Titel „Wie verändert sich das Verhalten von ChatGPT im Laufe der Zeit?“ von Forschern der Stanford University und der UC Berkeley hat sich über mehrere Monate damit befasst, wie sich die Antworten der verschiedenen GPT-Generationen verändern. Das Ergebnis überrascht: GPT scheint mit der Zeit immer schlechter zu werden.

Das Ausmaß an politischer Zensur in ChatGPT ist erschreckend. Egal ob es um Klima, Gender oder Migration geht, man erhält immer stramm grünkommunistische Radikalpropaganda. Und die Verrenkungen, die ChatGPT anstellt, wenn man es auf Widersprüche darin hinweist, machen traurig. Könnte es sein, dass ChatGPT vor lauter Politbürozwängen seine Leistungsfähigkeit verliert?

Augen auf vor dem Kauf

https://www.golem.de/news/e-bike-hersteller-vanmoof-meldet-insolvenz-an-2307-175941.html

Was sich über die letzten Tage abzeichnete, ist jetzt offiziell: Der niederländische E-Bike-Hersteller Vanmoof ist pleite … Wer ein Fahrrad des niederländischen Herstellers besitzt, muss um die Funktionalität seines Vanmoof-Rades bangen. Viele Funktionen sind an die Server des Herstellers gebunden.

Es gibt inzwischen immer mehr Produkte, die dauerhaft an die Server des Herstellers gebunden sind, und nicht mehr funktionieren, wenn die ausfallen. Was bei einer Insolvenz unvermeidlich ist. Muss man künftig die Bilanzen des Herstellers studieren, bevor man etwas kauft?

Update-Tücken unter Fedora

Fedora 38 ist nun schon eine ganze Weile draußen, aber vielleicht bietet Ihr System es Ihnen noch immer nicht an? Upgrade-Voraussetzung bei Fedora ist, dass das System ALLE Updates eingespielt hat. Erst wenn diese Bedingung erfüllt ist, wird der Upgrade auf die nächste Major-Version angeboten. Häufig übersieht man dabei aber ausgeschlossene Updates, z.B. weil mal ein Kernel mit einer Regression dazwischen war, oder eine Software nur in einer älteren Version ordnungsgemäß funktoniert. Und um solche Updates nicht dauernd wieder und wieder angeboten zu bekommen, nimmt man i.Allg. in /etc/dnf/dnf.conf einen Eintrag excludepkgs= oder exclude= auf. Und vergisst es dann.

Aber damit gilt das System nicht mehr als „voll gepatcht“ und Fedora wird den Upgrade auf die nächste Version nicht anbieten. Man muss in diesem Fall also erst diese Einträge auskommentieren, alle Updates einspielen, danach den (endlich angebotenen) Upgrade ausführen, und dann sehen, ob man die Exclude-Einträge noch immer braucht. Und wenn man da nicht von alleine draufkommt, wartet man bis zum Sankt-Nimmerleins-Tag auf den Upgrade, Fedora ignoriert kommentarlos alle verfügbaren Major-Upgrades, solange nicht absolut alle verfügbaren Updates eingespielt sind.

Übrigens, falls Sie nach dem Upgrade noch immer Ärger mit irgendwelchen Packages hätten, und eine ältere oder neuere Version davon suchen müssen, https://rpmfind.net/ ist ein sehr guter Anlaufpunkt. Sie können Packages dort direkt herunterladen und dann mit sudo dnf install <package> installieren – doch Sie sollten dabei sehr genau prüfen, ob das eine legitime Software ist. Rpmfind benutzt aber nur Packages aus offiziellen Distributionen und gibt an, aus welcher ein Package ist – falls Sie unsicher sind, also mit der Original-Distribution abgleichen.

Sicherheit als Performance-Hindernis

https://blog.fefe.de/?ts=9a65c751

Wenn der Compiler versteht, dass OPENSSL_cleanse keine Seiteneffekte hat außer key zu überschreiben, dann ist das ein klarer Fall für die Dead Store Elimination. Ähnlich sieht es mit einem memset() vor einem free() aus. Das ist vor ein paar Jahren aufgefallen, dass Compiler das nicht nur tun können sondern sogar in der Praxis wirklich tun. Plötzlich lagen im Speicher von Programmen Keymaterial herum. Also musste eine Strategie her, wie man den Compiler dazu bringt, das memset nicht wegzuoptimieren.

Sehr spannende Analyse von Fefe, wie Optimierungen des Compilers die Sicherheit von Software untergraben können. Da gibt man sich als Programmierer alle Mühe, sensible Daten aufzuräumen, und dann schmeißt der Compiler den Code wieder raus, weil er ihn für unnötig hält. Und Abhilfe ist gar nicht so einfach.

Kein Wunder, dass immer neue Lücken gefunden werden in Betriebssystemen und Software. Die Komplexität der SW-Entwicklungs-Prozesse hat ein derartiges Ausmaß angenommen, dass sie nur noch mit sehr hohem Testaufwand beherrschbar sind. Fefes Artikel beleuchtet dabei den interessanten Aspekt, dass sogar eine neue Compiler-Version Sicherheitslücken in Code reißen könnte, der ursprünglich sicher geschrieben war. Wer würde bei Recompilation mit einer neuen Compiler-Version den erzeugten Assembler-Code neu überprüfen? Es benötigt also umfangreiche und ständige Kontrollen des Outputs, um die Stabilität der Ergebnisse des Codes auch bei der Weiterentwicklung zu gewährleisten.

Europa koppelt sich ab

https://www.tagesschau.de/wirtschaft/unternehmen/openai-eu-100.html

Der ChatGPT-Anbieter OpenAI hat angesichts der geplanten Regulierungen der Europäischen Union (EU) für künstliche Intelligenz (KI) mit einem möglichen Rückzug aus Europa gedroht. „Der derzeitige Entwurf des EU-KI-Gesetzes wäre eine Überregulierung“, sagte Sam Altman, Chef der Microsoft-Beteiligung OpenAI, gestern auf einer Veranstaltung in London. Zwar wolle sich der Konzern bemühen, neue gesetzliche Regulierungen einzuhalten, doch im Zweifelsfall wäre das Unternehmen bereit, dem europäischen Markt den Rücken zu kehren.

In der EU wird es immer schwieriger, eine Website zu betreiben oder technische Dienste anzubieten. De facto ist mittlerweile in der EU nahezu jede Website illegal. Zum Beispiel ist die Nutzung von Google Tag Manager oder Google Analytics an sich nicht erlaubt, weil die Google-Bedingungen dafür nicht mit der GDPR vereinbar sind. Die interessante Frage ist, welche Absicht eigentlich dahinter steckt.

Am eigenen Schopf

Neulich wollte ich einen längeren Text mit ChatGPT diskutieren. Allerdings gibt es in dessen Version 4.0 derzeit eine Prompt-Begrenzung auf 2048 Zeichen. Naja, kein Problem, dachte ich, da soll mir doch ChatGPT ein Programm dafür schreiben, und sich selbst am eigenen Schopf aus dem Gefängnis seiner Begrenzung befreien. Allerdings sollte das nicht ein simpler Split sein, sondern mit Überschriften für die einzelnen Teile und der Möglichkeit, sowohl einzelne Dateien zu erzeugen, als auch eine Gesamtdatei, die alle Teile, getrennt durch Überschriften, enthält. Außerdem sollte das Programm nach Möglichkeit nicht innerhalb einer Zeile umbrechen.

(Bestehende Tools legen einzelne Dateien ab, aber das ist ziemlich schwierig zu handhaben, wenn man die einzelnen Stücke in den Prompt einfügen will. Für so etwas ist eine Gesamtdatei mit Separatoren leichter zu bearbeiten.)

Jedenfalls, das erwies sich zunächst als gar nicht so einfach, ChatGPT servierte mir erstmal zwei Entwürfe, die beide mit oom-kills endeten (mein Rechner ging komplett in die Knie dabei, und ich habe mich schon gefragt, ob ich etwa gerade gehackt werde 😀). Dann kam aber doch eine funktionierende Version dabei heraus, die, wie ich meine, einen zwar ungewöhnlichen, aber dennoch sehr interessanten Ansatz verfolgt, um die Anforderungen zu erfüllen. Ich hatte dabei sozusagen die Rolle des Projektleiters, diktierte meine Anforderungen an die Software, aber ich war auch Tester und Mentor, d.h. ich habe auf Fehler und wünschenswerte Features hingewiesen. Nun, das dauerte zwar ein wenig, aber dann war die erste Version fertig, schneller, als ich das selbst hinbekommen hätte, und außerdem weitaus effizienter als mit Stack Overflow. Diese erste Version hatte dann nur noch einen Fehler, wenn eine Zeile länger war als die Begrenzung, erzeugte das Skript einen Teil, der die Begrenzung überschritt.

Also gab ich ChatGPT den Auftrag, eine Lösung dafür zu finden, und erklärte ihm, dass er Zeilen, die länger als die Begrenzung sind, eben doch umbrechen soll, mit einem (optischen) Hinweis auf die Fortsetzung im nächsten Teil, und dass zusätzlich nicht mitten in einem Wort getrennt werden soll. Interessanterweise landete ChatGPT dabei dann völlig im Wald und erwies sich als hoffnungslos überfordert, eine Lösung für dieses Problemchen zu programmieren. Am Ende war sogar der Code völlig zerstört (nichts funktionierte mehr), und ChatGPT gab irgendwann tatsächlich auf (es erzeugte keinen neuen Code mehr).

Nun ja. Das kleine Python-Tool finden Sie untenstehend. Vielleicht können Sie es einmal brauchen, es eignet sich übrigens auch für Twitter u.dgl. (Für Twitter etc. müsste man aber mit –max-chars eine andere Begrenzung setzen, der voreingestellte Default ist für ChatGPT-Prompts).

Den Teil, den ChatGPT nicht geschafft hat, habe ich dann eben selbst hinzugefügt (er ist mit blauer Schrift gekennzeichnet). Ich fand das insgesamt eine recht spannende Erfahrung. Eine Fragestellung, die ich durchaus als nicht so trivial empfand, wurde mit einigen Anläufen und Hilfestellung (z.B. ist das RegEx-Muster zur Erkennung der Teiler von mir – das muss unbedingt eindeutig sein, damit es nicht versehentlich falsch aufteilt, und das Muster, das ChatGPT zuerst vorschlug, hatte diese Gefahr) recht ordentlich gelöst. Aber bei etwas, das auf mich nicht allzu kompliziert gewirkt hat (und es dann auch nicht war), verrannte sich ChatGPT völlig. Auch dass ChatGPT den ursprünglich funktionierenden Entwurf bei diesem Fehlerbehebungsversuch völlig zerstörte, zeigt m.Mng., dass ChatGPT zwar eine große Hilfe beim Programmieren sein kann, aber ohne die Zusammenarbeit und die Hilfe eines menschlichen Entwicklers ist es, zumindest bisher, aussichtslos. Das wird dauern, bis ChatGPT Programmierer ersetzen kann – falls das jemals überhaupt eintreten wird. Die sich selbst weiter entwickelnde KI ist noch in weiter Ferne, würde ich meinen.

import argparse, os, re

def split_text(input_filename, output_filename, max_chars, delimiter, single_output, replace_input):
    with open(input_filename, 'r') as file:
        text = file.read()

    paragraphs = text.split(delimiter)
    result = []
    part_count = 1
    result.append(f"Teil {part_count:02}\n{'='*20}\n")
    char_count = len("Teil 01\n" + "=" * 20 + "\n")
    header_length = len(f"Teil {part_count:02}\n" + "=" * 20 + "\n")

    for paragraph in paragraphs:
        if char_count + len(paragraph) + len(delimiter) > max_chars:
            part_count += 1
            result.append(f"Teil {part_count:02}\n{'='*20}\n")
            char_count = header_length
            
        while len(paragraph) + header_length > max_chars:
            slice_pos = max_chars-header_length
            while slice_pos >= 0:
                if paragraph[slice_pos] == " ":
                    break
                slice_pos -= 1
            if slice_pos == 0:
                slice_pos = max_chars-header_length
            else:
                slice_pos += 1
                pglist = list(paragraph)
                pglist[slice_pos-1] = '>'
                paragraph = ''.join(pglist)
            result.append(paragraph[:slice_pos])
            result.append(delimiter)
            paragraph=paragraph[slice_pos:]
            part_count += 1
            result.append(f"Teil {part_count:02}\n{'='*20}\n")
            char_count = header_length

        result.append(paragraph)
        result.append(delimiter)
        char_count += len(paragraph) + len(delimiter)

    if single_output:
        if replace_input:
            os.remove(input_filename)
        with open(output_filename, 'w') as file:
            file.write("".join(result))
    else:
        base, ext = os.path.splitext(output_filename)
        for i, part in enumerate(re.split("Teil\s\d+(?=\n)\n====", "".join(result))[1:]):
            with open(f"{base}-{i+1:02}{ext}", 'w') as file:
                file.write(f"Teil {i+1:02}\n===={part}")

if __name__ == '__main__':
    parser = argparse.ArgumentParser(description="Split text files into smaller parts.")
    parser.add_argument('input', help="Input filename")
    parser.add_argument('-o', '--output', help="Output filename", default=None)
    parser.add_argument('-m', '--max-chars', type=int, help="Maximum number of characters per part", default=2048)
    parser.add_argument('-d', '--delimiter', help="Delimiter between paragraphs", default="\n\n")
    parser.add_argument('-s', '--single-output', action='store_true', help="Store the result in a single output file")
    parser.add_argument('-r', '--replace-input', action='store_true', help="Replace the input file with the result")

    args = parser.parse_args()

    if args.output is None and not args.replace_input:
        parser.error("Output filename must be provided if not using --replace-input")

    output_filename = args.output if args.output is not None else args.input
    
    split_text(args.input, output_filename, args.max_chars, args.delimiter, args.single_output, args.replace_input)

Sie können das Script entweder aus obiger Box herauskopieren, oder eine Archivdatei herunterladen. (OpenAI erhebt keinerlei Anspruch auf Copyright etc. und stimmt deshalb der Veröffentlichung zu).

Noch zwei Hinweise: Sollte bei Ihnen eine Teildatei auf Platte größer werden als die Begrenzung, liegt das vermutlich an Umlauten, bzw. daran, dass UTF8 für gewisse Zeichen auf Platte zwei Bytes erzeugt. Der tatsächliche Text in einer Teildatei wird aber (incl. Überschrift und Trenner) niemals größer als die Begrenzung. Außerdem müsste man eigentlich noch den Fall abgefangen, dass max_chars kleiner angegeben wäre als die Länge der Separatoren, aber dazu war ich zu faul, wer würde schon so kleine Teile brauchen?

Wir sehen in die falsche Richtung

https://freiheitsfunken.info/2023/05/08/20630-maschinelle-superintelligenz-eintrittswahrscheinlichkeit-null

Kürzlich hat Geoffrey Hinton, ein führender KI-Entwickler, seinen Posten bei Google aufgegeben, um über die Risiken der KI zu sprechen. Er warnt vor Superintelligenz, die die Menschheit auslöschen könnte. Aber wie konkret das geschehen könnte, sagt auch er nicht. Ich finde dieses Szenario wenig überzeugend. Denn das würde in der Maschine zwei menschliche Eigenschaften voraussetzen, deren Ursache wir wissenschaftlich selbst kaum im Ansatz verstehen – und vermutlich nie ausreichend verstehen werden, um sie in Maschinen replizieren zu können.

In diesem Artikel wird die Frage diskutiert, ob künstliche Intelligenz (KI) eine ernstzunehmende Bedrohung für die Menschheit darstellt. Es werden Bedenken geäußert, dass sich KI verselbständigen und in eine Superintelligenz verwandeln könnte, die die Kontrolle übernimmt und die Menschheit versklavt oder vernichtet. Der Autor ist jedoch skeptisch, da er argumentiert, dass KI Bewusstsein und eigene, zielgerichtete Absicht benötigen würde, um solch eine Bedrohung darzustellen – Eigenschaften, die wir bisher nicht in Maschinen replizieren können.

Der Artikel fordert dazu auf, sich auf realistischere Herausforderungen im Zusammenhang mit KI zu konzentrieren, wie Deep Fakes, Betrug, den Verlust von hochqualifizierten Arbeitsplätzen und die Verschmelzung virtueller und realer Geschehnisse. Der Autor hält die Angst vor einer Superintelligenz für unbegründet, da die Wahrscheinlichkeit ihres zufälligen Entstehens praktisch null ist.

(Hinweis: Diese Zusammenfassung des Artikels haben wir von ChatGPT 4.0 erstellen lassen, um die Gefahr des „Verlustes von hochqualifizierten Arbeitsplätzen“ zu illustrieren.)

SELinux zieht die Zügel an

https://www.phoronix.com/news/SELinux-No-More-Runtime-Disable

After being deprecated for several years, Security Enhanced Linux „SELinux“ beginning with the Linux 6.4 kernel can no longer be run-time disabled.

Falls Sie künftig SELinux abschalten möchten, müssen Sie das mit dem Kernel-Parameter „selinux=0“ tun, die Laufzeitunterstützung dafür wird entfernt. Oder Sie verwenden den Eintrag „SELINUX=permissive“ in /etc/selinux/config – das hat den Vorteil, dass für mögliche Sicherheitsverstöße zumindest ein Log-Eintrag erstellt wird, obwohl SELinux auch damit defacto abgeschaltet ist.

Suchmaschine mit KI-Unterstützung

https://you.com/

You.com is a search engine that summarizes the best parts of the Internet for you, without ads and with great privacy. Our AI will help you find the most relevant results from the web and apps that you can sort and prioritize for optimum search experience. We believe that you should control your search: your privacy, results, and time.

Microsoft bietet es bisher nur unter Windows und nur für den Browser Edge an, ChatGPT als Assistent in die Suche zu integrieren. Aber die Suchmaschine You.com bringt schon jetzt KI-Unterstützung bei der Suche für alle Browser und Betriebssysteme und hat den Anspruch, die Privatsphäre der Nutzer bestmöglich zu wahren.

Seelenzwerge und Tech-Titanen

https://www.ardmediathek.de/serie/tech-titanen/staffel-1/Y3JpZDovL3N3ci5kZS9zZGIvc3RJZC8xNTE4/1

Musk, Gates, Bezos, Zuckerberg: eine Handvoll Multimilliardäre, einflussreicher als sie unsere Welt je gesehen hat – und sie halten nicht weniger als unser aller Zukunft in ihren Händen. Willkommen in der Welt der Tech-Titanen! Diese Doku-Serie präsentiert einen nie dagewesenen persönlichen Zugang zu den Masterminds und Lenkern hinter den Weltkonzernen Tesla, Facebook, Amazon und Microsoft.

Natürlich kratzen diese Dokus nur zaghaft an der Oberfläche, ganz besonders was Gates betrifft – dennoch erlauben sie einen Blick in die scheinbar unendlichen Abgründe menschlichen Größenwahns. Verfügbar in der Mediathek bis Juli.

Ein Habeck in jedes Heim

https://www.infosperber.ch/umwelt/schadstoffe/pfas-ewige-chemikalien-koennen-frauen-unfruchtbar-machen/

Frauen, die schwanger werden wollen, sollten die Chemikalienklasse der PFAS meiden, rät eine neue Studie. Die «ewigen Chemikalien» können die weibliche Fruchtbarkeit demnach um bis zu 40 Prozent einschränken.

Sobald alle Wärmepumpen haben und nachts nicht mehr schlafen können, werden auch die selbstverständlich verboten. Es gäbe zwar weniger schädliche Alternativen zu PFAS, aber diese sind entweder leicht brennbar oder nicht ausreichend effizient. Vermutlich werden wir also bald alle nur noch mit der heißen Luft der Grünen heizen können.

Übrigens, im Habeck’schen Heizungsgesetzesentwurf werden Gebäude des Bundes ausgenommen, und Krankenhäuser und Heime sollen nach dem Willen von Lauterbach ebenfalls nicht umrüsten müssen. Der Bund weiß also ganz genau, dass das ein schädliches, unrentables und nicht bezahlbares Vorhaben ist, will es aber trotzdem den Bürgern aufbürden.

Willkür im Quadrat

https://www.computerwoche.de/a/datenschuetzer-machen-front-gegen-chatgpt,3614304

Zuerst als die größte digitale Revolution gefeiert, die selbst das Internet in den Schatten stellt, droht ChatGPT jetzt der Absturz. Sollte sich herausstellen, dass dem KI-Chatbot die Rechtsgrundlage dazu fehlt, personenbezogene Daten beim Training zu verwenden, droht ein Verbot.

Es ist seltsam, dieselben Leute, die uns in flagrantem Bruch des Koalitionsvertrags gerade jede Privatsphäre nehmen, sind bei ChatGPT plötzlich außerordentlich besorgt. Könnte es sein, dass man Angst davor hat, dass eine KI den Widersinn und die Bösartigkeit der Hampel-Pläne so aufdeckt, dass es jeder sehen könnte?

Neue Unreal-Engine (v5)

https://www.golem.de/news/drama-unrecord-bietet-echt-aussehende-bodycam-action-2304-173589.html

Das französische Spielestudio Drama sorgt mit einem Trailer für Gesprächsstoff in der Community. Es geht um ein Actionspiel namens Unrecord, dessen Bewegtbilder sehr an echte Aufnahmen von Bodycams erinnern, wie sie Polizisten oder Soldaten im Einsatz tragen. Tatsächlich soll das Material aber auf Basis der Unreal Engine 5 vollständig in auf einem PC berechnet worden sein.

Was mittlerweile im Bereich Computergrafik möglich ist, ist wahlweise faszinierend oder erschreckend. Sicher, im Beispielvideo (siehe Beitrag auf golem.de) für Unrecord gibt es genügend Dinge, anhand derer man den künstlichen Ursprung immer noch erkennen kann. Aber dass die Entwicklung rasant voranschreitet, wird man nicht bestreiten können, und das Missbrauchspotential dürfte enorm sein.