https://www.cultofmac.com/news/mac-studio-ai-performance
Apple is perceived as a laggard in the AI race — despite that, Apple has developed the single best computer for AI research. The new Mac Studio with an M3 Ultra chip, which supports up to 512 GB of unified memory, is the easiest and cheapest way to run powerful, cutting-edge LLMs on your own hardware.
The latest DeepSeek v3 model, which sent shockwaves through the AI space for its comparable performance to ChatGPT, can run entirely on a single Mac, Apple AI researchers revealed on Monday.
Am 9. März 2025 hat Apple mit dem neuen Mac Studio für Aufsehen gesorgt – und das aus gutem Grund. Laut einem Bericht von „Cult of Mac“ ist das Gerät mit dem M3 Ultra Chip und bis zu 512 GB Unified Memory in der Lage, große Sprachmodelle wie DeepSeek V3 lokal auszuführen. Dieses Modell, das in der KI-Welt für seine, mit ChatGPT vergleichbare, Leistung viel Aufsehen hervorgerufen hat, läuft auf einem einzigen Mac Studio mit über 20 Token pro Sekunde – eine sehr gute und alltagstaugliche Leistung, die bisher teure Cloud-Lösungen oder Nvidia-Datenzentren erfordert hat.
Für Unternehmen ist das eine spannende Entwicklung. Lokale KI-Verarbeitung bietet nicht nur höhere Datensicherheit, sondern auch schnellere Verarbeitung ohne Abhängigkeit von Cloud-Diensten. Der Mac Studio mit M3 Ultra mit 512 GB Unified Memory, der bei ca. 12.000 € liegt, ist zudem eine kostengünstige Alternative zu Nvidia-Hardware mit ähnlichem Speicher, die oft teurer ist. Besonders beeindruckend: Drei Mac Studios, über Thunderbolt 5 verbunden, können sogar das noch größere DeepSeek R1-Modell mit 670 Milliarden Parametern betreiben – ein Durchbruch, der die Dominanz von Cloud-Anbietern wie OpenAI herausfordert.
Doch Apple ist nicht allein: Nvidia hat mit Project DIGITS, das im Mai 2025 erscheinen soll, eine ähnliche Vision. Dieses Gerät, ausgestattet mit dem GB10 Grace Blackwell Superchip und 128 GB Unified Memory, kann Modelle mit bis zu 200 Milliarden Parametern lokal verarbeiten – und das für nur 3.000 US-Dollar. Beide Ansätze zeigen, wie wichtig Unified Memory für die Zukunft der KI ist: Es ermöglicht effiziente, sichere und kostengünstige Verarbeitung direkt am Arbeitsplatz.
Als Programmierer sehe ich hier großes Potenzial. Modelle wie DeepSeek V3 lokal zu testen, ohne auf Cloud-Lösungen angewiesen zu sein, könnte unsere Workflows beschleunigen und die Kosten senken. Gleichzeitig beweisen Apple und Nvidia, dass der Westen mit China – wo Modelle wie QwQ-32B oder Manus dominieren – mithalten kann. Und es wird spannend, wie diese Entwicklung sich auf die großen Cloud-Anbieter auswirken wird.