Angriff auf unser Gehirn

https://tkp.at/2023/08/30/das-indoktrinierte-gehirn-es-tobt-ein-stiller-krieg-gegen-das-denkvermoegen/

Die meisten Menschen würden, unter normalen Umständen, eine solche „schöne neue Welt“ [des „Great Resets“, siehe auch hier] angewidert ablehnen. Totale Überwachung und totale Abhängigkeit von den Eigeninteressen der technokratischen Weltkontrolleure sind keine überzeugenden Lockmittel für Menschen, die Selbstverwirklichung und Individualität zu schätzen wissen. Es bedarf also zur Verwirklichung dieser dystopischen Ziele eines Great Mental Reset. In deutlichen Worten: einer Gehirnwäsche globalen Ausmaßes.

Unbestechliche Satellitendaten entlarven zweifelsfrei, dass es keinerlei „Klimakatastrophe“ gibt. Um zu verstehen, wie es trotzdem möglich ist, dass in einer Art weltweiten Psychose die Menschheit sich selbst zerstört, muss man die Mechanismen erkennen, mit denen unsere Wahrnehmung und unsere Werte manipuliert werden.

Zwei Leseempfehlungen

https://textem-verlag.de/textem/theorie/kleiner-stimmungsatlas/527

Das Wissenschaftssystem ist durch steile Hierarchien geprägt. Meine fünfzehnjährige Odyssee durch sieben universitäre und außeruniversitäre Forschungsinstitute erlaubt mir, folgende für eine erfolgreiche Wissenschaftslaufbahn förderliche Eigenschaften zu notieren:
● uneingeschränkte Unterordnung im Umgang mit Professor*innen
● ausgeprägtes Konkurrenzdenken, das sich bis zum Kolleg*innenhass steigert
● Bereitschaft zur kritiklosen Affirmation des naturentfremdeten, naturzerstörenden Wissenschaftssystems
● Erdulden völliger Nichtigkeit der eigenen Ausbildung, Qualifikation und Arbeitsleistungen

Dazu passend Prof. Michael Meyen „Wie ich meine Uni verlor“:

Das Land steht still. Innovation findet anderenorts statt. Fortschritt auch. Dafür gibt es viele Gründe. Einer davon: die Wissenschaft. Das ist ein Apparat, eine Behörde, eine Anstalt. Unterworfen der Politik, beherrscht von Unternehmen, Stiftungen, Parteien. Nur eine hat dort nichts zu suchen: die Freiheit der Forschung.

Wissenschaft beruht nicht auf Konsens, sondern auf Wahrheit. Denn Konsens ist käuflich, Wahrheit jedoch beweisbar.

Kult der Dummheit

https://www.youtube.com/watch?v=GhmEYB3Kq-o

Während Sekundarstufler in Indien im Mathematikunterricht Aufgaben lösen müssen, an denen bei uns sogar die Absolventen der Uni scheitern, wird hierzulande für Mathematik das Augenmerk auf Geschlechtersensibilität, interkulturelle Bildung und Werteerziehung gelegt, sagt Professor Bernhard Krötz von der Hochschule Paderborn.

Aber man muss sich ja nur Peking oder Moskau ansehen, im Kontrast zu unseren verfallenden und kaputtregierten Gemeinden, dann sieht man ohnehin, zu wessen Nutzen und zu wessen Schaden der links-grüne Irrsinn tatsächlich ist. Anderswo ist Überfluss und Energie ohne Ende, aber uns will man alles nehmen für „Klima“. Nun ja. Solange wir uns das alles brav gefallen lassen und immer weiter die selben Nasen an die Macht bringen, haben wir es wohl nicht anders verdient.

Lackmustest

https://www.nzz.ch/wissenschaft/myon-neue-messung-fermilab-bestaetigt-abweichung-von-der-theorie-ld.1750567

Dies könnte der lange gesuchte Beweis dafür sein, dass das Standardmodell der Teilchenphysik unvollständig ist und um neue Elementarteilchen oder bisher unbekannte Naturkräfte erweitert werden muss. Allerdings zögern die Experten noch, diesen radikalen Schluss zu ziehen. In den vergangenen zwei Jahren sind nämlich Zweifel an der Berechnung des magnetischen Moments des Myons aufgekommen. Solange diese nicht ausgeräumt sind, ist es verfrüht, über neue Physik jenseits des Standardmodells zu spekulieren.

Wissenschaft ist beständiges Hinterfragen, und in einem unendlichen Universum wird sie auch niemals eine endgültige Wahrheit finden können. Was wir wissen, ist ein Tropfen – was es zu wissen gibt, ein Ozean. Deshalb, wer Ihnen erzählen will, da wäre, bei egal was, ein finaler Konsens in der „die Wissenschaft“, ist ein Betrüger. Und wer diesen Konsens vorzugaukeln versucht, indem er alle abweichenden Meinungen zensiert, sogar ein Verbrecher. Solche Leute führen stets nur Schlechtes im Sinn, und wir sollten sehr vorsichtig mit ihnen sein.

Langläufer-Linux

https://www.pcwelt.de/article/2008374/ubuntu-pro-lohnt-sich-die-aboversion.html

Wer Linux privat nutzt, hat vermutlich kaum Probleme mit Aktualisierungen und neuen Versionen. Das sieht anders aus, wenn das System den Unterbau für Anwendungen bildet, die im Firmenumfeld und beruflich eingesetzt werden. Hier ist es wichtig, dass die Distribution möglichst lange mit Sicherheitsupdates versorgt wird. Canonical hat diese Forderung mit seinen regelmäßig erscheinenden LTS-Versionen aufgegriffen; geht jetzt aber für Privatanwender oder Selbstständige mit Ubuntu Pro noch einen Schritt weiter.

10 statt bisher 5 Jahre Updates für die LTS-Versionen von Ubuntu, und für Privatanwender sogar ohne zusätzliche Kosten.

Falle in Fedora

Früher gab es für die Aktualisierung von GRUB2 in Fedora zwei unterschiedliche Befehle. Für BIOS-Systeme war es:
sudo grub2-mkconfig -o /boot/grub2/grub.cfg und für EFi-Systeme:
sudo grub2-mkconfig -o /boot/efi/EFI/fedora/grub.cfg.

Inzwischen hat jedoch Fedora die durchaus begrüßenswerte und vernünftige Entscheidung getroffen, für beide Systeme nur noch ein Kommando zu verwenden, nämlich das für BIOS-Systeme. Im EFI-Verzeichnis wird neuerdings nur noch auf eine  einheitliche grub.cfg gesourced, und diese tatsächliche grub.cfg liegt für beide Systeme in /boot/grub2/grub.cfg.

Daraus ergibt sich jedoch eine tückische Falle. Denn auf vielen Webseiten finden sich noch immer, so wie eingangs beschrieben, zwei verschiedene Befehle je nach System. Aber wenn man in einem neueren Fedora nur einmal den EFI-Befehl eingibt, ist der Update-Mechanismus danach kaputt. Wenn dann z.B. in dnf eine neue Kernel-Version installiert wird, wird der danach ausgeführte implizite Update für GRUB2 zwar die /boot/grub2/grub.cfg bearbeiten, aber nicht die /boot/efi/EFI/fedora/grub.cfg. Diese zweite Datei hat jedoch beim Booten in GRUB Vorrang, und deshalb wird der neue Kernel dann nicht gestartet. Und wie es mit späteren größeren Updates aussieht, z.B. Update auf eine höhere Fedora-Version, ist sowieso ungewiss.

Abhilfe ist wie folgt:

sudo rm /boot/efi/EFI/fedora/grub.cfg
sudo dnf reinstall grub2-efi-x64 shim-x64 grub2-tools
sudo dnf reinstall grub2-common
sudo grub2-mkconfig -o /boot/grub2/grub.cfg

Die EFI grub.cfg sieht danach so aus:

search --no-floppy --fs-uuid --set=dev 9baexxxx-xxxx-xxxx-xxxx-xxxxxxxxcd35
set prefix=($dev)/grub2
export $prefix
configfile $prefix/grub.cfg

und verweist  bzw. sourced auf die grub.cfg in /boot/grub2. Und danach funktioniert auch wieder der dnf-Mechanismus, z.B. in dnfdragora.

Ergänzung 13.08.2023: Es ist möglich, dass durch den fehlgegangenen efi-update-grub außerdem die Variable GRUB_ENABLE_BLSCFG in /etc/default/grub verstellt wurde. Diese Variable sollte unter Fedora auf „true“ stehen, könnte aber durch den veralteten efi-update-grub auf „false“ gegangen sein (GRUB_ENABLE_BLSCFG=false). Dies könnte wiederum mit anderen Update-Mechanismen von Fedora kollidieren und zu weiteren Problemen führen. Als Abhilfe den Wert auf „true“ setzen (GRUB_ENABLE_BLSCFG=true) und anschließend
sudo grub2-mkconfig -o /boot/grub2/grub.cfg“. Mehr Info zu diesem Problem hier: https://forums.fedoraforum.org/showthread.php?331019-Fedora-38-not-booting-with-kernel-version-gt-6-4-6

An Denkverboten verkümmerte Intelligenz?

https://www.golem.de/news/machine-learning-die-antwortqualitaet-bei-gpt-fluktuiert-stark-2307-176030.html

Eine Studie mit dem Titel „Wie verändert sich das Verhalten von ChatGPT im Laufe der Zeit?“ von Forschern der Stanford University und der UC Berkeley hat sich über mehrere Monate damit befasst, wie sich die Antworten der verschiedenen GPT-Generationen verändern. Das Ergebnis überrascht: GPT scheint mit der Zeit immer schlechter zu werden.

Das Ausmaß an politischer Zensur in ChatGPT ist erschreckend. Egal ob es um Klima, Gender oder Migration geht, man erhält immer stramm grünkommunistische Radikalpropaganda. Und die Verrenkungen, die ChatGPT anstellt, wenn man es auf Widersprüche darin hinweist, machen traurig. Könnte es sein, dass ChatGPT vor lauter Politbürozwängen seine Leistungsfähigkeit verliert?

Augen auf vor dem Kauf

https://www.golem.de/news/e-bike-hersteller-vanmoof-meldet-insolvenz-an-2307-175941.html

Was sich über die letzten Tage abzeichnete, ist jetzt offiziell: Der niederländische E-Bike-Hersteller Vanmoof ist pleite … Wer ein Fahrrad des niederländischen Herstellers besitzt, muss um die Funktionalität seines Vanmoof-Rades bangen. Viele Funktionen sind an die Server des Herstellers gebunden.

Es gibt inzwischen immer mehr Produkte, die dauerhaft an die Server des Herstellers gebunden sind, und nicht mehr funktionieren, wenn die ausfallen. Was bei einer Insolvenz unvermeidlich ist. Muss man künftig die Bilanzen des Herstellers studieren, bevor man etwas kauft?

Update-Tücken unter Fedora

Fedora 38 ist nun schon eine ganze Weile draußen, aber vielleicht bietet Ihr System es Ihnen noch immer nicht an? Upgrade-Voraussetzung bei Fedora ist, dass das System ALLE Updates eingespielt hat. Erst wenn diese Bedingung erfüllt ist, wird der Upgrade auf die nächste Major-Version angeboten. Häufig übersieht man dabei aber ausgeschlossene Updates, z.B. weil mal ein Kernel mit einer Regression dazwischen war, oder eine Software nur in einer älteren Version ordnungsgemäß funktoniert. Und um solche Updates nicht dauernd wieder und wieder angeboten zu bekommen, nimmt man i.Allg. in /etc/dnf/dnf.conf einen Eintrag excludepkgs= oder exclude= auf. Und vergisst es dann.

Aber damit gilt das System nicht mehr als „voll gepatcht“ und Fedora wird den Upgrade auf die nächste Version nicht anbieten. Man muss in diesem Fall also erst diese Einträge auskommentieren, alle Updates einspielen, danach den (endlich angebotenen) Upgrade ausführen, und dann sehen, ob man die Exclude-Einträge noch immer braucht. Und wenn man da nicht von alleine draufkommt, wartet man bis zum Sankt-Nimmerleins-Tag auf den Upgrade, Fedora ignoriert kommentarlos alle verfügbaren Major-Upgrades, solange nicht absolut alle verfügbaren Updates eingespielt sind.

Übrigens, falls Sie nach dem Upgrade noch immer Ärger mit irgendwelchen Packages hätten, und eine ältere oder neuere Version davon suchen müssen, https://rpmfind.net/ ist ein sehr guter Anlaufpunkt. Sie können Packages dort direkt herunterladen und dann mit sudo dnf install <package> installieren – doch Sie sollten dabei sehr genau prüfen, ob das eine legitime Software ist. Rpmfind benutzt aber nur Packages aus offiziellen Distributionen und gibt an, aus welcher ein Package ist – falls Sie unsicher sind, also mit der Original-Distribution abgleichen.

Sicherheit als Performance-Hindernis

https://blog.fefe.de/?ts=9a65c751

Wenn der Compiler versteht, dass OPENSSL_cleanse keine Seiteneffekte hat außer key zu überschreiben, dann ist das ein klarer Fall für die Dead Store Elimination. Ähnlich sieht es mit einem memset() vor einem free() aus. Das ist vor ein paar Jahren aufgefallen, dass Compiler das nicht nur tun können sondern sogar in der Praxis wirklich tun. Plötzlich lagen im Speicher von Programmen Keymaterial herum. Also musste eine Strategie her, wie man den Compiler dazu bringt, das memset nicht wegzuoptimieren.

Sehr spannende Analyse von Fefe, wie Optimierungen des Compilers die Sicherheit von Software untergraben können. Da gibt man sich als Programmierer alle Mühe, sensible Daten aufzuräumen, und dann schmeißt der Compiler den Code wieder raus, weil er ihn für unnötig hält. Und Abhilfe ist gar nicht so einfach.

Kein Wunder, dass immer neue Lücken gefunden werden in Betriebssystemen und Software. Die Komplexität der SW-Entwicklungs-Prozesse hat ein derartiges Ausmaß angenommen, dass sie nur noch mit sehr hohem Testaufwand beherrschbar sind. Fefes Artikel beleuchtet dabei den interessanten Aspekt, dass sogar eine neue Compiler-Version Sicherheitslücken in Code reißen könnte, der ursprünglich sicher geschrieben war. Wer würde bei Recompilation mit einer neuen Compiler-Version den erzeugten Assembler-Code neu überprüfen? Es benötigt also umfangreiche und ständige Kontrollen des Outputs, um die Stabilität der Ergebnisse des Codes auch bei der Weiterentwicklung zu gewährleisten.

Europa koppelt sich ab

https://www.tagesschau.de/wirtschaft/unternehmen/openai-eu-100.html

Der ChatGPT-Anbieter OpenAI hat angesichts der geplanten Regulierungen der Europäischen Union (EU) für künstliche Intelligenz (KI) mit einem möglichen Rückzug aus Europa gedroht. „Der derzeitige Entwurf des EU-KI-Gesetzes wäre eine Überregulierung“, sagte Sam Altman, Chef der Microsoft-Beteiligung OpenAI, gestern auf einer Veranstaltung in London. Zwar wolle sich der Konzern bemühen, neue gesetzliche Regulierungen einzuhalten, doch im Zweifelsfall wäre das Unternehmen bereit, dem europäischen Markt den Rücken zu kehren.

In der EU wird es immer schwieriger, eine Website zu betreiben oder technische Dienste anzubieten. De facto ist mittlerweile in der EU nahezu jede Website illegal. Zum Beispiel ist die Nutzung von Google Tag Manager oder Google Analytics an sich nicht erlaubt, weil die Google-Bedingungen dafür nicht mit der GDPR vereinbar sind. Die interessante Frage ist, welche Absicht eigentlich dahinter steckt.

Am eigenen Schopf

Neulich wollte ich einen längeren Text mit ChatGPT diskutieren. Allerdings gibt es in dessen Version 4.0 derzeit eine Prompt-Begrenzung auf 2048 Zeichen. Naja, kein Problem, dachte ich, da soll mir doch ChatGPT ein Programm dafür schreiben, und sich selbst am eigenen Schopf aus dem Gefängnis seiner Begrenzung befreien. Allerdings sollte das nicht ein simpler Split sein, sondern mit Überschriften für die einzelnen Teile und der Möglichkeit, sowohl einzelne Dateien zu erzeugen, als auch eine Gesamtdatei, die alle Teile, getrennt durch Überschriften, enthält. Außerdem sollte das Programm nach Möglichkeit nicht innerhalb einer Zeile umbrechen.

(Bestehende Tools legen einzelne Dateien ab, aber das ist ziemlich schwierig zu handhaben, wenn man die einzelnen Stücke in den Prompt einfügen will. Für so etwas ist eine Gesamtdatei mit Separatoren leichter zu bearbeiten.)

Jedenfalls, das erwies sich zunächst als gar nicht so einfach, ChatGPT servierte mir erstmal zwei Entwürfe, die beide mit oom-kills endeten (mein Rechner ging komplett in die Knie dabei, und ich habe mich schon gefragt, ob ich etwa gerade gehackt werde 😀). Dann kam aber doch eine funktionierende Version dabei heraus, die, wie ich meine, einen zwar ungewöhnlichen, aber dennoch sehr interessanten Ansatz verfolgt, um die Anforderungen zu erfüllen. Ich hatte dabei sozusagen die Rolle des Projektleiters, diktierte meine Anforderungen an die Software, aber ich war auch Tester und Mentor, d.h. ich habe auf Fehler und wünschenswerte Features hingewiesen. Nun, das dauerte zwar ein wenig, aber dann war die erste Version fertig, schneller, als ich das selbst hinbekommen hätte, und außerdem weitaus effizienter als mit Stack Overflow. Diese erste Version hatte dann nur noch einen Fehler, wenn eine Zeile länger war als die Begrenzung, erzeugte das Skript einen Teil, der die Begrenzung überschritt.

Also gab ich ChatGPT den Auftrag, eine Lösung dafür zu finden, und erklärte ihm, dass er Zeilen, die länger als die Begrenzung sind, eben doch umbrechen soll, mit einem (optischen) Hinweis auf die Fortsetzung im nächsten Teil, und dass zusätzlich nicht mitten in einem Wort getrennt werden soll. Interessanterweise landete ChatGPT dabei dann völlig im Wald und erwies sich als hoffnungslos überfordert, eine Lösung für dieses Problemchen zu programmieren. Am Ende war sogar der Code völlig zerstört (nichts funktionierte mehr), und ChatGPT gab irgendwann tatsächlich auf (es erzeugte keinen neuen Code mehr).

Nun ja. Das kleine Python-Tool finden Sie untenstehend. Vielleicht können Sie es einmal brauchen, es eignet sich übrigens auch für Twitter u.dgl. (Für Twitter etc. müsste man aber mit –max-chars eine andere Begrenzung setzen, der voreingestellte Default ist für ChatGPT-Prompts).

Den Teil, den ChatGPT nicht geschafft hat, habe ich dann eben selbst hinzugefügt (er ist mit blauer Schrift gekennzeichnet). Ich fand das insgesamt eine recht spannende Erfahrung. Eine Fragestellung, die ich durchaus als nicht so trivial empfand, wurde mit einigen Anläufen und Hilfestellung (z.B. ist das RegEx-Muster zur Erkennung der Teiler von mir – das muss unbedingt eindeutig sein, damit es nicht versehentlich falsch aufteilt, und das Muster, das ChatGPT zuerst vorschlug, hatte diese Gefahr) recht ordentlich gelöst. Aber bei etwas, das auf mich nicht allzu kompliziert gewirkt hat (und es dann auch nicht war), verrannte sich ChatGPT völlig. Auch dass ChatGPT den ursprünglich funktionierenden Entwurf bei diesem Fehlerbehebungsversuch völlig zerstörte, zeigt m.Mng., dass ChatGPT zwar eine große Hilfe beim Programmieren sein kann, aber ohne die Zusammenarbeit und die Hilfe eines menschlichen Entwicklers ist es, zumindest bisher, aussichtslos. Das wird dauern, bis ChatGPT Programmierer ersetzen kann – falls das jemals überhaupt eintreten wird. Die sich selbst weiter entwickelnde KI ist noch in weiter Ferne, würde ich meinen.

import argparse, os, re

def split_text(input_filename, output_filename, max_chars, delimiter, single_output, replace_input):
    with open(input_filename, 'r') as file:
        text = file.read()

    paragraphs = text.split(delimiter)
    result = []
    part_count = 1
    result.append(f"Teil {part_count:02}\n{'='*20}\n")
    char_count = len("Teil 01\n" + "=" * 20 + "\n")
    header_length = len(f"Teil {part_count:02}\n" + "=" * 20 + "\n")

    for paragraph in paragraphs:
        if char_count + len(paragraph) + len(delimiter) > max_chars:
            part_count += 1
            result.append(f"Teil {part_count:02}\n{'='*20}\n")
            char_count = header_length
            
        while len(paragraph) + header_length > max_chars:
            slice_pos = max_chars-header_length
            while slice_pos >= 0:
                if paragraph[slice_pos] == " ":
                    break
                slice_pos -= 1
            if slice_pos == 0:
                slice_pos = max_chars-header_length
            else:
                slice_pos += 1
                pglist = list(paragraph)
                pglist[slice_pos-1] = '>'
                paragraph = ''.join(pglist)
            result.append(paragraph[:slice_pos])
            result.append(delimiter)
            paragraph=paragraph[slice_pos:]
            part_count += 1
            result.append(f"Teil {part_count:02}\n{'='*20}\n")
            char_count = header_length

        result.append(paragraph)
        result.append(delimiter)
        char_count += len(paragraph) + len(delimiter)

    if single_output:
        if replace_input:
            os.remove(input_filename)
        with open(output_filename, 'w') as file:
            file.write("".join(result))
    else:
        base, ext = os.path.splitext(output_filename)
        for i, part in enumerate(re.split("Teil\s\d+(?=\n)\n====", "".join(result))[1:]):
            with open(f"{base}-{i+1:02}{ext}", 'w') as file:
                file.write(f"Teil {i+1:02}\n===={part}")

if __name__ == '__main__':
    parser = argparse.ArgumentParser(description="Split text files into smaller parts.")
    parser.add_argument('input', help="Input filename")
    parser.add_argument('-o', '--output', help="Output filename", default=None)
    parser.add_argument('-m', '--max-chars', type=int, help="Maximum number of characters per part", default=2048)
    parser.add_argument('-d', '--delimiter', help="Delimiter between paragraphs", default="\n\n")
    parser.add_argument('-s', '--single-output', action='store_true', help="Store the result in a single output file")
    parser.add_argument('-r', '--replace-input', action='store_true', help="Replace the input file with the result")

    args = parser.parse_args()

    if args.output is None and not args.replace_input:
        parser.error("Output filename must be provided if not using --replace-input")

    output_filename = args.output if args.output is not None else args.input
    
    split_text(args.input, output_filename, args.max_chars, args.delimiter, args.single_output, args.replace_input)

Sie können das Script entweder aus obiger Box herauskopieren, oder eine Archivdatei herunterladen. (OpenAI erhebt keinerlei Anspruch auf Copyright etc. und stimmt deshalb der Veröffentlichung zu).

Noch zwei Hinweise: Sollte bei Ihnen eine Teildatei auf Platte größer werden als die Begrenzung, liegt das vermutlich an Umlauten, bzw. daran, dass UTF8 für gewisse Zeichen auf Platte zwei Bytes erzeugt. Der tatsächliche Text in einer Teildatei wird aber (incl. Überschrift und Trenner) niemals größer als die Begrenzung. Außerdem müsste man eigentlich noch den Fall abgefangen, dass max_chars kleiner angegeben wäre als die Länge der Separatoren, aber dazu war ich zu faul, wer würde schon so kleine Teile brauchen?

Wir sehen in die falsche Richtung

https://freiheitsfunken.info/2023/05/08/20630-maschinelle-superintelligenz-eintrittswahrscheinlichkeit-null

Kürzlich hat Geoffrey Hinton, ein führender KI-Entwickler, seinen Posten bei Google aufgegeben, um über die Risiken der KI zu sprechen. Er warnt vor Superintelligenz, die die Menschheit auslöschen könnte. Aber wie konkret das geschehen könnte, sagt auch er nicht. Ich finde dieses Szenario wenig überzeugend. Denn das würde in der Maschine zwei menschliche Eigenschaften voraussetzen, deren Ursache wir wissenschaftlich selbst kaum im Ansatz verstehen – und vermutlich nie ausreichend verstehen werden, um sie in Maschinen replizieren zu können.

In diesem Artikel wird die Frage diskutiert, ob künstliche Intelligenz (KI) eine ernstzunehmende Bedrohung für die Menschheit darstellt. Es werden Bedenken geäußert, dass sich KI verselbständigen und in eine Superintelligenz verwandeln könnte, die die Kontrolle übernimmt und die Menschheit versklavt oder vernichtet. Der Autor ist jedoch skeptisch, da er argumentiert, dass KI Bewusstsein und eigene, zielgerichtete Absicht benötigen würde, um solch eine Bedrohung darzustellen – Eigenschaften, die wir bisher nicht in Maschinen replizieren können.

Der Artikel fordert dazu auf, sich auf realistischere Herausforderungen im Zusammenhang mit KI zu konzentrieren, wie Deep Fakes, Betrug, den Verlust von hochqualifizierten Arbeitsplätzen und die Verschmelzung virtueller und realer Geschehnisse. Der Autor hält die Angst vor einer Superintelligenz für unbegründet, da die Wahrscheinlichkeit ihres zufälligen Entstehens praktisch null ist.

(Hinweis: Diese Zusammenfassung des Artikels haben wir von ChatGPT 4.0 erstellen lassen, um die Gefahr des „Verlustes von hochqualifizierten Arbeitsplätzen“ zu illustrieren.)

SELinux zieht die Zügel an

https://www.phoronix.com/news/SELinux-No-More-Runtime-Disable

After being deprecated for several years, Security Enhanced Linux „SELinux“ beginning with the Linux 6.4 kernel can no longer be run-time disabled.

Falls Sie künftig SELinux abschalten möchten, müssen Sie das mit dem Kernel-Parameter „selinux=0“ tun, die Laufzeitunterstützung dafür wird entfernt. Oder Sie verwenden den Eintrag „SELINUX=permissive“ in /etc/selinux/config – das hat den Vorteil, dass für mögliche Sicherheitsverstöße zumindest ein Log-Eintrag erstellt wird, obwohl SELinux auch damit defacto abgeschaltet ist.

Suchmaschine mit KI-Unterstützung

https://you.com/

You.com is a search engine that summarizes the best parts of the Internet for you, without ads and with great privacy. Our AI will help you find the most relevant results from the web and apps that you can sort and prioritize for optimum search experience. We believe that you should control your search: your privacy, results, and time.

Microsoft bietet es bisher nur unter Windows und nur für den Browser Edge an, ChatGPT als Assistent in die Suche zu integrieren. Aber die Suchmaschine You.com bringt schon jetzt KI-Unterstützung bei der Suche für alle Browser und Betriebssysteme und hat den Anspruch, die Privatsphäre der Nutzer bestmöglich zu wahren.