KI-Anbieter
VMark's KI-Genies benötigen einen KI-Anbieter, um Vorschläge zu generieren. Sie können ein lokal installiertes CLI-Tool verwenden oder sich direkt mit einer REST-API verbinden.
Schnelleinrichtung
Der schnellste Einstieg:
- Öffnen Sie Einstellungen > Integrationen
- Klicken Sie auf Erkennen, um nach installierten CLI-Tools zu suchen
- Wenn ein CLI gefunden wird (z.B. Claude, Gemini), wählen Sie es aus — fertig
- Wenn kein CLI verfügbar ist, wählen Sie einen REST-Anbieter, geben Sie Ihren API-Schlüssel ein und wählen Sie ein Modell
Es kann immer nur ein Anbieter gleichzeitig aktiv sein.
CLI-Anbieter
CLI-Anbieter verwenden lokal installierte KI-Tools. VMark führt diese als Unterprozesse aus und streamt deren Ausgabe zurück in den Editor.
| Anbieter | CLI-Befehl | Installation |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
Wie CLI-Erkennung funktioniert
Klicken Sie in Einstellungen > Integrationen auf Erkennen. VMark durchsucht Ihren $PATH nach jedem CLI-Befehl und meldet die Verfügbarkeit. Wenn ein CLI gefunden wird, wird sein Optionsfeld wählbar.
Vorteile
- Kein API-Schlüssel erforderlich — Das CLI verwaltet die Authentifizierung mit Ihrem bestehenden Login
- Drastisch günstiger — CLI-Tools nutzen Ihren Abonnementplan (z.B. Claude Max, ChatGPT Plus/Pro, Google One AI Premium), der eine feste monatliche Gebühr kostet. REST-API-Anbieter berechnen pro Token und können bei intensiver Nutzung 10–30× mehr kosten
- Verwendet Ihre CLI-Konfiguration — Modelleinstellungen, System-Prompts und Abrechnung werden vom CLI selbst verwaltet
Abonnement vs. API für Entwickler
Wenn Sie diese Tools auch für Vibe-Coding verwenden (Claude Code, Codex CLI, Gemini CLI), deckt dasselbe Abonnement sowohl VMark's KI-Genies als auch Ihre Coding-Sitzungen ab — ohne Mehrkosten.
Einrichtung: Claude CLI
- Claude Code installieren:
npm install -g @anthropic-ai/claude-code claudeeinmal im Terminal ausführen, um sich zu authentifizieren- In VMark auf Erkennen klicken, dann Claude auswählen
Einrichtung: Gemini CLI
- Gemini CLI installieren:
npm install -g @google/gemini-cli(oder über das offizielle Repository) geminieinmal ausführen, um sich mit Ihrem Google-Konto zu authentifizieren- In VMark auf Erkennen klicken, dann Gemini auswählen
REST-API-Anbieter
REST-Anbieter verbinden sich direkt mit Cloud-APIs. Jeder benötigt einen Endpunkt, API-Schlüssel und Modellnamen.
| Anbieter | Standard-Endpunkt | Umgebungsvariable |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (integriert) | GOOGLE_API_KEY oder GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
Konfigurationsfelder
Wenn Sie einen REST-Anbieter auswählen, erscheinen drei Felder:
- API-Endpunkt — Die Basis-URL (für Google AI ausgeblendet, da ein fester Endpunkt verwendet wird)
- API-Schlüssel — Ihr geheimer Schlüssel (nur im Speicher gespeichert — nie auf Festplatte geschrieben)
- Modell — Der Modell-Bezeichner (z.B.
claude-sonnet-4-5-20250929,gpt-4o,gemini-2.0-flash)
Automatisches Ausfüllen von Umgebungsvariablen
VMark liest beim Start standardmäßige Umgebungsvariablen. Wenn ANTHROPIC_API_KEY, OPENAI_API_KEY oder GEMINI_API_KEY in Ihrem Shell-Profil gesetzt ist, wird das API-Schlüsselfeld automatisch ausgefüllt, wenn Sie diesen Anbieter auswählen.
Das bedeutet, Sie können Ihren Schlüssel einmal in ~/.zshrc oder ~/.bashrc festlegen:
export ANTHROPIC_API_KEY="sk-ant-..."Dann VMark neu starten — keine manuelle Schlüsseleingabe erforderlich.
Einrichtung: Anthropic (REST)
- API-Schlüssel von console.anthropic.com abrufen
- In VMark Einstellungen > Integrationen Anthropic auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
claude-sonnet-4-5-20250929)
Einrichtung: OpenAI (REST)
- API-Schlüssel von platform.openai.com abrufen
- In VMark Einstellungen > Integrationen OpenAI auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
gpt-4o)
Einrichtung: Google AI (REST)
- API-Schlüssel von aistudio.google.com abrufen
- In VMark Einstellungen > Integrationen Google AI auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
gemini-2.0-flash)
Einrichtung: Ollama API (REST)
Verwenden Sie dies, wenn Sie REST-ähnlichen Zugriff auf eine lokale Ollama-Instanz wünschen oder Ollama auf einem anderen Rechner in Ihrem Netzwerk läuft.
- Sicherstellen, dass Ollama läuft:
ollama serve - In VMark Einstellungen > Integrationen Ollama (API) auswählen
- Endpunkt auf
http://localhost:11434setzen (oder Ihren Ollama-Host) - API-Schlüssel leer lassen
- Modell auf Ihren heruntergeladenen Modellnamen setzen (z.B.
llama3.2)
Anbieter auswählen
| Situation | Empfehlung |
|---|---|
| Claude Code bereits installiert | Claude (CLI) — null Konfiguration, nutzt Ihr Abonnement |
| Codex oder Gemini bereits installiert | Codex / Gemini (CLI) — nutzt Ihr Abonnement |
| Privatsphäre / Offline benötigt | Ollama installieren → Ollama (CLI) |
| Benutzerdefiniertes oder selbstgehostetes Modell | Ollama (API) mit Ihrem Endpunkt |
| Günstigste Cloud-Option gewünscht | Jeder CLI-Anbieter — Abonnement ist drastisch günstiger als API |
| Kein Abonnement, nur leichte Nutzung | API-Schlüssel-Umgebungsvariable setzen → REST-Anbieter (pro Token) |
| Höchste Ausgabequalität benötigt | Claude (CLI) oder Anthropic (REST) mit claude-sonnet-4-5-20250929 |
Pro-Genie-Modellüberschreibung
Einzelne Genies können das Standardmodell des Anbieters mithilfe des model-Frontmatter-Felds überschreiben:
---
name: quick-fix
description: Schnelle Grammatikkorrektur
scope: selection
model: claude-haiku-4-5-20251001
---Dies ist nützlich, um einfache Aufgaben an schnellere/günstigere Modelle zu leiten, während ein leistungsfähiges Standardmodell beibehalten wird.
Sicherheitshinweise
- API-Schlüssel sind flüchtig — nur im Speicher gespeichert, nie auf Festplatte oder
localStorage - Umgebungsvariablen werden einmalig beim Start gelesen und im Speicher zwischengespeichert
- CLI-Anbieter verwenden Ihre bestehende CLI-Authentifizierung — VMark sieht Ihre Zugangsdaten nie
- Alle Anfragen gehen direkt von Ihrem Rechner an den Anbieter — keine VMark-Server dazwischen
Fehlerbehebung
"Kein KI-Anbieter verfügbar" — Klicken Sie auf Erkennen, um nach CLIs zu suchen, oder konfigurieren Sie einen REST-Anbieter mit API-Schlüssel.
CLI zeigt "Nicht gefunden" — Das CLI ist nicht in Ihrem $PATH. Installieren Sie es oder überprüfen Sie Ihr Shell-Profil. Auf macOS erben GUI-Apps möglicherweise nicht den Terminal-$PATH — versuchen Sie, den Pfad zu /etc/paths.d/ hinzuzufügen.
REST-Anbieter gibt 401 zurück — Ihr API-Schlüssel ist ungültig oder abgelaufen. Generieren Sie einen neuen von der Konsole des Anbieters.
REST-Anbieter gibt 429 zurück — Sie haben ein Ratenlimit überschritten. Warten Sie einen Moment und versuchen Sie es erneut, oder wechseln Sie zu einem anderen Anbieter.
Langsame Antworten — CLI-Anbieter fügen Unterprozess-Overhead hinzu. Für schnellere Antworten verwenden Sie REST-Anbieter, die direkt verbinden. Für die schnellste lokale Option verwenden Sie Ollama mit einem kleinen Modell.
Fehler "Modell nicht gefunden" — Der Modell-Bezeichner stimmt nicht mit dem überein, was der Anbieter anbietet. Überprüfen Sie die Dokumentation des Anbieters auf gültige Modellnamen.
Siehe auch
- KI-Genies — KI-gestützte Schreibassistenz verwenden
- MCP-Einrichtung — Externe KI-Integration über Model Context Protocol