Künstliche Intelligenz ist ein Schlachtfeld – nicht nur technisch, sondern auch moralisch. Letzte Woche hat ein Amicus Curiae Brief (eine Art „Gutachten“ im US-Recht, mit dem Außenstehende dem Gericht ihre Sicht liefern) von zwölf Ex-OpenAI-Mitarbeitern für Wirbel gesorgt: Sie unterstützen Elon Musks Klage gegen OpenAI, weil die Firma ihre gemeinnützige Seele für eine profitorientierte Struktur opfern wolle. Der Vorwurf? OpenAI-Chef Sam Altman habe die Mission, KI zum Wohl der Menschheit zu entwickeln, nur als Marketing-Trick genutzt, um Talente zu ködern. Klingt nach einem Hollywood-Drama, oder? Aber bevor wir applaudieren, lohnt ein zweiter Blick.
Die Ex-Mitarbeiter – darunter Namen wie Daniel Kokotajlo und William Saunders – behaupten im Brief, dass OpenAIs Wandel zu einer Public Benefit Corporation die Kontrolle an Investoren wie Microsoft übergibt und die ursprüngliche Vision verrät. Einer von ihnen, Todor Markov, geht hart ins Gericht: Altman habe die Non-Profit-Struktur als „Fassade“ missbraucht, um Talente zu ködern, und Mitarbeiter mit Schweigeklauseln geknebelt, um Kritik zu ersticken. Der ganze Brief: Amicus Curiae Brief, 11. April 2025.
Doch hier wird’s spannend: Mehrere der Unterzeichner arbeiten jetzt bei Anthropic, einem OpenAI-Konkurrenten, der sich als ethischer Ritter in der KI-Welt verkauft. Zufall? Oder steckt da mehr dahinter? Wenn OpenAI durch diesen Streit geschwächt wird, profitiert Anthropic – und vielleicht auch Musk mit seiner Firma xAI. Ist das ein echter Warnruf vor einer gekaperten Mission, oder spielen die Ex-Mitarbeiter Schach mit ihrer alten Firma? Und warum ausgerechnet Musk, der selbst große finanzielle Interessen an KI hat?
Für uns Unternehmen, die KI nutzen oder einsetzen wollen, ist das mehr als Klatsch aus dem Silicon Valley. Es geht um Vertrauen: Wem können wir glauben, wenn selbst die „Guten“ in der KI-Welt ihre eigenen Interessen verfolgen? Wer wird mit den massenhaft anfallenden Daten verlässlich umgehen? Sollen wir auf Firmen setzen, die große Versprechen machen, oder lieber kritisch bleiben und KI verantwortungsvoll selbst implementieren? Wir haben keine Antworten – aber wir stellen Fragen.