Nachdem Sie eine KI auf Ihrem Rechner lokal zum Laufen gebracht haben, möchten Sie vielleicht auch selbst KI-Bilder erzeugen können?
Nun, da gibt es etwas Neues und es kommt aus dem Schwarzwald. Flux.1-schnell ist ein Open Source (Apache2-Lizenz) Modell des deutschen Unternehmens Black Forest Labs. In Windeseile hat es die aktuelle Krone der KI-Bildgeneratoren errungen. Es ist sehr schnell, wie der Name schon sagt, und generiert beeindruckende Bilder.
Es gibt davon auch eine sog. Dev-Variante, die ist nur für nicht-kommerzielle Nutzung freigegeben. Während aber die Schnell-Variante nur eingeschränkt modifiziert werden kann, weil es sich um ein hoch optimiertes Modell handelt, stehen für die Dev-Variante sehr viele Möglichkeiten des Feintunings zur Verfügung. Es gibt deshalb für Dev eine rege Szene von Enthusiasten, die alle möglichen Anpassungen und Modifikationen mit unterschiedlichen Bildstilen für das Dev-Modell erstellen und teilen.
Außerdem sind noch Pro-Varianten verfügbar, die sind zahlungspflichtig, und eine solche betreibt übrigens unter anderem X/Twitter. Wenn Sie zum Beispiel Grok um ein Bild fragen, wird eine Flux-Pro-Engine aus dem Schwarzwald verwendet.
Aber schon die Ergebnisse von Schnell und Dev sind bereits außerordentlich gut und lohnen allemal, sich das auf dem eigenen Rechner zu installieren. Dazu braucht man noch nicht einmal einen superstarken Rechner, ein einigermaßen brauchbarer Gaming-PC reicht. Mit einem Klick auf „Weiterlesen“ finden Sie eine Anleitung, wie Sie das auf dem eigenen Rechner umsetzen können.
(Beispielbilder am Schluss des Beitrags)
Zuerst brauchen Sie ComfyUI. Das ist eine freie Open Source KI-Bildsoftware, die es erlaubt, eine Vielzahl von Bildgeneratoren auszuführen, auch Flux.
Am einfachsten geht das mit Windows. Hier außerdem die Links zu den Anleitungen für Mac und für Linux.
Danach müssen Sie die Bestandteile von Flux herunterladen. Gehen Sie dazu für Schnell auf das Repository bei Huggingface https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main und laden Sie dort flux1_schnell.safetensors und ae.safetensors.
Sie brauchen außerdem aus dem Repository „Flux Text Encoders“ huggingface.co/comfyanonymous/flux_text_encoders/tree/main
die Dateien t5xxl_fp16.safetensors und clip_l.safetensors.
(Falls Sie eine Grafikkarte mit weniger als 12GB VRAM haben, sollten Sie für t5xxl_fp16.safetensors besser t5xxl_fp8_e4m3fn.safetensors nehmen. Das können Sie in den Workflows von ComfyUI anpassen und die fp8-Variante benötigt weniger Speicher. Unsere Anleitung bezieht sich aber ansonsten auf das 16 Bit Modell.)
Falls Sie außerdem das nicht-kommerzielle und besser anpassbare Dev-Modell möchten, gehen Sie auf https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main. Sie müssen sich dort registrieren und die Lizenzvereinbarung bestätigen, dann erhalten Sie Zugriff. Sie benötigen nur flux1-dev.safetensors – die anderen Dateien aus Schnell sind für Dev identisch.
Als Nächstes verschieben Sie die heruntergeladenen Dateien wie folgt:
Verschieben Sie flux1_schnell.safetensors und flux1-dev.safetensors nach ComfyUI/models/unet/ (mit ComfyUI ist das Top-Level Directory des Ziels Ihrer ComfyUI-Installation gemeint).
Erzeugen Sie symbolische Links zu diesen beiden Dateien in ComfyUI/models/checkpoints/ (manche Workflows erwarten die Daten in unet, manche in checkpoints – mit den symbolischen Links werden sie in beiden Verzeichnissen gefunden).
Die Datei ae.safetensors geht nach ComfyUI/models/vae/.
Die Dateien t5xxl_fp16.safetensors, clip_l.safetensors und (ggfs.) t5xxl_fp8_e4m3fn.safetensors müssen in ComfyUI/models/clip/.
Damit haben Sie die Installation soweit abgeschlossen. Starten Sie ComfyUI und erschrecken Sie nicht über die Fehlermeldung, mit der Sie begrüßt werden. ComfyUI hat einen Tutorial-Workflow zu Beginn, der braucht eine Tensor-Datei (v1-5-pruned-emaonly-fp16.safetensors). ComfyUI bietet Ihnen aber direkt an, diese herunterzuladen, wir würden empfehlen, das zu tun.
Jetzt kommt der haarige Teil. ComfyUI ist sehr mächtig und hat außerdem eine steile Lernkurve. Erstmal kapiert man als Neuling in der KI-Bilderzeugung überhaupt nichts. Sie brauchen Workflows, um Bilder zu generieren, und da die richtigen zu finden, kann sehr mühsam sein.
Deshalb bieten wir Ihnen zwei vorkonfigurierte Workflows für Schnell und für Dev an. Öffnen Sie den gewünschten Workflow in ComfyUI und Sie können loslegen (drücken Sie auf die Schaltfläche „Queue“, um mit dem geladenen Workflow und dem Text im Node „CLIP Text Encode (Prompt)“ Ihr erstes Bild zu rechnen). Von da an sind Ihrer Fantasie und Ihren Möglichkeiten kaum Grenzen gesetzt. Man kann sich tagelang verlieren in all den zusätzlichen Filtern, Adaptern und Modifikationen, die von einer begeisterten Fangemeinde frei ins Netz gestellt werden. Gute erste Anlaufpunkte sind https://comfyui-wiki.com/en und https://github.com/comfyanonymous.
Sie können hunderte von zusätzlichen Plugins installieren. Eines davon empfehlen wir jedoch unbedingt, das ist der „ComfyUI Manager“. Sie finden ihn unter https://github.com/ltdrdata/ComfyUI-Manager und Sie installieren ihn (ohne vorherigen Download), indem Sie in das Verzeichnis ComfyUI/custom_nodes/ wechseln und dort
git clone https://github.com/ltdrdata/ComfyUI-Manager comfyui-manager
ausführen. (git ist, falls noch nicht installiert, für alle Betriebssysteme leicht verfügbar, aber das wussten Sie vermutlich bereits). Nach Neustart ComfyUI haben Sie eine zusätzliche Schaltfläche „Manager“ in ComfyUI für die Installation aller folgenden Plugins sowie mit vielen weiteren nützlichen Funktionen.
Das Beitragsbild dieses Artikels wurde mit Flux.1-Schnell und dem oben angebotenen Schnell-Muster-Workflow erstellt. Im Folgenden weitere Beispielbilder, alle mit Flux.1-Schnell und ebenfalls diesem Workflow generiert (mit, für die Publikation im Blog, allerdings anderer Auflösung als im Muster eingestellt).
Viel Spaß!