Open Source KI-Integration für VSCodium

Roboter balanciert Geschirr und stolpert. KI-generiert (Nana Banana 2).

Manchmal findet man eine coole Anwendung, und dann scheitert man an etwas völlig Banalem. Eine solche fiese Stolperfalle, die kaum dokumentiert ist, noch nicht einmal beim Hersteller, möchten wir Ihnen heute vorstellen.

Neulich schrieben wir über VSCodium, die Open Source Alternative zu VS Code von Microsoft. Wer die Hoheit über seine Daten und keine Telemetrie möchte, ist mit der Open Source-Variante sehr gut aufgehoben, weil auch VS Code auf VSCodium basiert, es aber (nur) mit Closed Source-Erweiterungen von Microsoft ergänzt. Funktional ist VSCodium genauso gut wie VS Code, und wer sich mit VS Code auskennt, findet sich bei VSCodium sofort zurecht.

Wir hatten in unserem Artikel vorgeschlagen, VSCodium mit einer CLI-KI zu kombinieren, also in einem Terminal von VSCodium eine Command Line KI-Unterstützung zu benutzen.

Aber wie sieht es aus, wenn Sie eine native KI-Integration in VSCodium möchten? So wie in Cursor AI, oder mit Copilot? Und, da wir mit Open Source und Datensouveränität unterwegs sein wollen, wie erreicht man eine solche Integration mit Open Source-Tools?

Es gibt eine Erweiterung für VSCodium, die sich wunderbar dafür eignet: Continue. Gehen Sie zu den Extensions, suchen Sie „Continue“ vom Hersteller „Continue“ und installieren Sie es. Klicken Sie das Continue-Symbol in der Activity Bar (Default: linker Rand). Danach müssen Sie Continue für die zu verwendenden Modelle konfigurieren. Das geschieht in der Datei config.yaml und Sie öffnen sie mit dem Werkzeugrad. Achtung, es gibt zwei solche Werkzeugräder: Eines ganz oben für Continue selbst, und eines in der Chatbox, wenn Sie die Konfiguration (Default: „Local Config“) anklicken, und dann im sich öffnenden Drop-Down-Menu das Zahnrad oben rechts von  „Configs“.

Hier ist eine Beispiel config.yaml mit mehreren Anwendungsfällen:

name: Local Config
version: 1.0.0
schema: v1

models:
  - name: Claude Sonnet 4.5
    provider: anthropic
    model: claude-sonnet-4-5
    apiKey: {withheld}
  - name: Claude Opus 4.5
    provider: anthropic
    model: claude-opus-4-5
    apiKey: {withheld}
  - name: OpenAI GPT-4.1
    provider: openai
    model: gpt-4.1
    apiKey: {withheld}
  - name: GLM 4.7
    provider: openai
    model: glm-4.7:cloud
    apiBase: https://server.ai/api/
    apiKey: {withheld}
  - name: Qwen3 Coder (Small)
    provider: openai
    model: qwen3-coder:latest
    apiBase: https://server.ai/api/
    apiKey: {withheld}
  - name: Mistral 3.2 (Small)
    provider: ollama
    model: mistral-small3.2:latest
    apiBase: http://localhost:11434

tabAutocompleteModel:
  name: Remote Autocomplete
  provider: openai
  model: gpt-oss:20b
  apiBase: https://server.ai/api/
  apiKey: {withheld}

Sie sehen Beispiele für Anthropic, OpenAI, Open WebUI, und Ollama lokal. Die Continue Extension unterstützt aber auch das Einbinden noch sehr vieler weiterer KI-Provider, hier finden Sie eine Liste.

Den „apiKey“ brauchen Sie für eine lokale Ollama-Installation nicht. Das Feld „provider“ beschreibt das Protokoll, über das Continue mit dem Provider spricht, und für viele Protokolle ist damit auch der Endpunkt „apiBase“ vorgegeben. Deshalb haben die Einträge für Anthropic und für OpenAI keinen Endpunkt, er ergibt sich aus dem verwendeten Protokoll.

Aber unser Ziel war ja Open Source und Datensouveränität, nicht schon wieder große Closed Source-Provider, und deshalb möchten wir naürlich eigene Open Source-Provider einsetzen. Dafür finden Sie zwei Einträge in der obigen Beispiel-Konfiguration: https://server.ai/ steht für Ihre eigene Open WebUI-Instanz (Anm. Open WebUI wird über das OpenAI Protokoll angesprochen, deshalb Protokoll „openai“), und http://localhost:11434 für ein auf Ihrem lokalen Rechner ausgeführtes Ollama.

(Sie können übrigens die Modelle auch umfangreich parametrisieren, solche Dinge wie temperature, topP, topK usw., hier mehr dazu.)

Gut, nun haben Sie alles konfiguriert, Continue meckert nicht mehr und Sie können auch schon mit den Modellen chatten. Also wird es ernst, Sie sagen dem Modell „Erstelle ein Python-Script, das Primzahlen ausgibt“, und … bumm. Continue kann weder etwas schreiben, noch etwas verändern.

Und damit sind Sie bei der Stolperfalle, die ich eingangs meinte. Es gibt nämlich einen Haken. Durchaus gut gemeint möchte VSCodium, dass Sie das Arbeitsverzeichnis in die Liste der Trusted Workspaces aufnehmen, bevor eine Erweiterung dort schreiben darf. Wenn bereits etwas in dem Verzeichnis ist, werden Sie beim Öffnen gefragt, ob das Verzeichnis in die Liste der Trusted Workspaces aufgenommen werden soll. Aber bei einem neuen Projekt ist Ihr Verzeichnis vielleicht noch leer. VSCodium fragt Sie in diesem Fall nicht, und Continue wird Sie auch nicht fragen, ob Sie das Verzeichnis als Trusted Workspace erlauben möchten.

Also: Falls Continue nicht schreiben / verändern kann, denken Sie daran, dass das Workspace-Verzeichnis, in dem Continue operieren soll, als Trusted Workspace eingetragen sein muss.

Und damit wünschen wir Ihnen viel Erfolg mit Ihrer Open Source Alternative für eine KI-angereicherte IDE 😀

PS: Seit heute 22.01.26 ist Ollama 0.14.3 verfügbar und es unterstützt nun GLM 4.7 Flash. In der kleinsten Quantisierung passt dieses Modell in 24GB VRAM und es bietet sensationelle Qualität und Geschwindigkeit – Open Source lokal auf dem eigenen System, bei voller Datensouveränität, und mit einer Qualität, die nicht weit hinter den ganz großen kommerziellen Anbietern ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert