DeepSeek V4 ist am 24. April in zwei Versionen „Pro“ und „Flash“ erschienen, und wie versprochen ist es Open Source. Die Qualität ist sehr gut, und die Preise bemerkenswert niedrig. Läutet schon das Totenglöcklein für OpenAI und Anthropic?
Mehrere Coding-Spezialisten haben das neue Modell von DeepSeek schon unter die Lupe genommen, und deren Urteil ist einhellig: GPT 5.5 von OpenAI hat derzeit die Krone im Coding inne, es folgt Opus 4.7 von Anthropic, dann DeepSeek mit V4, dann Kimi mit K2.6.
Das könnte Open Source-Fans enttäuschen, aber man muss das in Relation setzen. DeepSeek ist nur noch ca. 3 Monate zurück, und es kostet nur einen Bruchteil. OpenAI hat ja mal eben die Token-Preise für GPT 5.5 verdoppelt, und Anthropic, das sowieso schon ein Token-Burner immer war, braucht für Opus 4.7 35% noch mehr Token gegenüber dem bisher schon heftigen Tokenverbrauch.
Und es ist außerdem ja so, nicht jedes Problem ist in der schwierigsten Liga. Anders gesagt: Da DeepSeek nun so weit aufgeholt hat, ist die Anzahl der Probleme, an denen es scheitert, viel kleiner geworden.
Besonders interessant ist auch, dass man DeepSeek V4 Flash lokal auf einem eigenen System fahren kann (und damit volle Datensicherheit und Privatsphäre erreicht). DeepSeek hat sehr viele Optimierungen gemacht, die den Hardware-Bedarf stark gesenkt haben. Zugegeben, das muss als Consumer-System schon ein ziemlich leistungsfähiges System sein, aber mit Apple Unified Memory-Systemen oder zwei Blackwell RTX 6000-Karten mit je 96 GB ist es problemlos und sehr performant machbar.
Wie können Sie DSV4 ausprobieren? Sie können natürlich einen Account direkt bei DeepSeek machen. Das ist sehr günstig, aber Ihre Daten gehen nach China. Außerdem haben schon viele Open Source-Anbieter DeepSeek im Portfolio. Bei Ollama Cloud gibt es bisher aber nur die Flash-Variante, die haben dort noch ein Problem mit der Pro-Version, haben jedoch versprochen, die bald nachzuliefern. Opencode AI hat schon beide Versionen verfügbar, Chatbox AI nur Flash, NVIDIA NIM beide, Novita AI beide, OpenRouter beide, Galaxy AI beide.
Vielleicht wundert Sie, warum manche freie Anbieter die Pro-Version noch nicht haben (obwohl sie bestimmt kommen wird auch bei denen, die sie noch nicht haben). Das liegt wohl vorwiegend an llama.cpp, das ein Fundament vieler KI-Provider ist. llama.cpp hat derzeit noch ein Problem mit der Unterstützung einiger neuer Features von DeepSeek V4. DSV4 benötigt spezielle Attention- / Memory- / MoE- / Quantisierungslogik. Model Request gibt es, gearbeitet wird auch schon daran, und kommen wird es sicher bald. Bis dahin, auch wenn Sie schon jetzt DeepSeek V4 Flash lokal bei sich installieren möchten, müssten Sie auf SGLang ausweichen, das ist bereits für DeepSeek V4 adaptiert, hat aber deutlich höhere Hardware-Anforderungen.
Spannendes Detail am Rande: Während OpenAI und Anthropic einen erbitterten Wirtschaftskrieg ausfechten und sich gegenseitig nicht die Butter auf dem Brot gönnen, arbeiten die chinesischen Anbieter Hand in Hand (Quelle, Quelle). DeepSeek hat Moonshot (Kimi) bei der Entwicklung von K2.6 kräftig unterstützt, und jetzt sind viele Entwicklungen aus Kimi K2.6 wiederum in die neue DeepSeek-Version eingeflossen.
Hinzu kommt: Die Modelle selbst sind nicht das, womit Geld zu verdienen ist. Es ist die Infrastruktur. Denn, wie gesagt, die Anzahl der Probleme, die überhaupt die zu einem Zeitpunkt verfügbare höchste Leistung benötigen, wird mit fortschreitender Entwicklung zwangsläufig immer kleiner. Und dann rücken die Kosten für die Infrastruktur immer weiter in den Vordergrund, und Infrastruktur wird vermutlich schon bald das einzige sein, wofür die Kunden noch bereit sind, zu bezahlen. In der Industrie hat bereits ein großer Run weg von Anthropic und OpenAI hin zu günstiger Open Source eingesetzt, weil die Kosten für die Closed Source-Anbieter so durch die Decke gehen. Und im Open Source-Bereich hat DeepSeek mit der neuen Version die Nase nun deutlich vorn. Die Token bei DeepSeek kosten ein Zwanzigstel der Preise bei Anthropic oder OpenAI! Und das liegt nicht nur an staatlicher Subvention (die es vermutlich gibt), sondern vor allem daran, dass – eine Folge der Sanktionen – die chinesischen Ingenieure mit viel weniger GPU und VRAM fast die gleiche Leistung erzielen wie Anthropic und OpenAI.
Anmerkung: Der Titel dieses Beitrags meint nicht „Timmy“, sondern das Symbol von DeepSeek, welches ebenfalls ein Wal ist.

