KI-Anbieter
VMark's KI-Genies benötigen einen KI-Anbieter, um Vorschläge zu generieren. Sie können ein lokal installiertes CLI-Tool verwenden oder sich direkt mit einer REST-API verbinden.
Schnelleinrichtung
Der schnellste Einstieg:
- Öffnen Sie Einstellungen > Integrationen
- Klicken Sie auf Erkennen, um nach installierten CLI-Tools zu suchen
- Wenn ein CLI gefunden wird (z.B. Claude, Gemini), wählen Sie es aus — fertig
- Wenn kein CLI verfügbar ist, wählen Sie einen REST-Anbieter, geben Sie Ihren API-Schlüssel ein und wählen Sie ein Modell
Es kann immer nur ein Anbieter gleichzeitig aktiv sein.
CLI-Anbieter
CLI-Anbieter verwenden lokal installierte KI-Tools. VMark führt diese als Unterprozesse aus und streamt deren Ausgabe zurück in den Editor.
| Anbieter | CLI-Befehl | Installation |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
Wie CLI-Erkennung funktioniert
Klicken Sie in Einstellungen > Integrationen auf Erkennen. VMark durchsucht Ihren $PATH nach jedem CLI-Befehl und meldet die Verfügbarkeit. Wenn ein CLI gefunden wird, wird sein Optionsfeld wählbar.
Vorteile
- Kein API-Schlüssel erforderlich — Das CLI verwaltet die Authentifizierung mit Ihrem bestehenden Login
- Drastisch günstiger — CLI-Tools nutzen Ihren Abonnementplan (z.B. Claude Max, ChatGPT Plus/Pro, Google One AI Premium), der eine feste monatliche Gebühr kostet. REST-API-Anbieter berechnen pro Token und können bei intensiver Nutzung 10–30× mehr kosten
- Verwendet Ihre CLI-Konfiguration — Modelleinstellungen, System-Prompts und Abrechnung werden vom CLI selbst verwaltet
Abonnement vs. API für Entwickler
Wenn Sie diese Tools auch für Vibe-Coding verwenden (Claude Code, Codex CLI, Gemini CLI), deckt dasselbe Abonnement sowohl VMark's KI-Genies als auch Ihre Coding-Sitzungen ab — ohne Mehrkosten.
Einrichtung: Claude CLI
- Claude Code installieren:
npm install -g @anthropic-ai/claude-code claudeeinmal im Terminal ausführen, um sich zu authentifizieren- In VMark auf Erkennen klicken, dann Claude auswählen
Einrichtung: Gemini CLI
- Gemini CLI installieren:
npm install -g @google/gemini-cli(oder über das offizielle Repository) geminieinmal ausführen, um sich mit Ihrem Google-Konto zu authentifizieren- In VMark auf Erkennen klicken, dann Gemini auswählen
REST-API-Anbieter
REST-Anbieter verbinden sich direkt mit Cloud-APIs. Jeder benötigt einen Endpunkt, API-Schlüssel und Modellnamen.
| Anbieter | Standard-Endpunkt | Umgebungsvariable |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (integriert) | GOOGLE_API_KEY oder GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
Konfigurationsfelder
Wenn Sie einen REST-Anbieter auswählen, erscheinen drei Felder:
- API-Endpunkt — Die Basis-URL (für Google AI ausgeblendet, da ein fester Endpunkt verwendet wird)
- API-Schlüssel — Ihr geheimer Schlüssel (nur im Speicher gespeichert — nie auf Festplatte geschrieben)
- Modell — Der Modell-Bezeichner (z.B.
claude-sonnet-4-5-20250929,gpt-4o,gemini-2.0-flash)
Automatisches Ausfüllen von Umgebungsvariablen
VMark liest beim Start standardmäßige Umgebungsvariablen. Wenn ANTHROPIC_API_KEY, OPENAI_API_KEY oder GEMINI_API_KEY in Ihrem Shell-Profil gesetzt ist, wird das API-Schlüsselfeld automatisch ausgefüllt, wenn Sie diesen Anbieter auswählen.
Das bedeutet, Sie können Ihren Schlüssel einmal in ~/.zshrc oder ~/.bashrc festlegen:
export ANTHROPIC_API_KEY="sk-ant-..."Dann VMark neu starten — keine manuelle Schlüsseleingabe erforderlich.
Einrichtung: Anthropic (REST)
- API-Schlüssel von console.anthropic.com abrufen
- In VMark Einstellungen > Integrationen Anthropic auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
claude-sonnet-4-5-20250929)
Einrichtung: OpenAI (REST)
- API-Schlüssel von platform.openai.com abrufen
- In VMark Einstellungen > Integrationen OpenAI auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
gpt-4o)
Einrichtung: Google AI (REST)
- API-Schlüssel von aistudio.google.com abrufen
- In VMark Einstellungen > Integrationen Google AI auswählen
- API-Schlüssel einfügen
- Modell auswählen (Standard:
gemini-2.0-flash)
Einrichtung: Ollama API (REST)
Verwenden Sie dies, wenn Sie REST-ähnlichen Zugriff auf eine lokale Ollama-Instanz wünschen oder Ollama auf einem anderen Rechner in Ihrem Netzwerk läuft.
- Sicherstellen, dass Ollama läuft:
ollama serve - In VMark Einstellungen > Integrationen Ollama (API) auswählen
- Endpunkt auf
http://localhost:11434setzen (oder Ihren Ollama-Host) - API-Schlüssel leer lassen
- Modell auf Ihren heruntergeladenen Modellnamen setzen (z.B.
llama3.2)
Anbieter auswählen
| Situation | Empfehlung |
|---|---|
| Claude Code bereits installiert | Claude (CLI) — null Konfiguration, nutzt Ihr Abonnement |
| Codex oder Gemini bereits installiert | Codex / Gemini (CLI) — nutzt Ihr Abonnement |
| Privatsphäre / Offline benötigt | Ollama installieren → Ollama (API) unter http://localhost:11434 |
| Benutzerdefiniertes oder selbstgehostetes Modell | Ollama (API) mit Ihrem Endpunkt |
| Günstigste Cloud-Option gewünscht | Jeder CLI-Anbieter — Abonnement ist drastisch günstiger als API |
| Kein Abonnement, nur leichte Nutzung | API-Schlüssel-Umgebungsvariable setzen → REST-Anbieter (pro Token) |
| Höchste Ausgabequalität benötigt | Claude (CLI) oder Anthropic (REST) mit claude-sonnet-4-5-20250929 |
Pro-Genie-Modellüberschreibung
Einzelne Genies können das Standardmodell des Anbieters mithilfe des model-Frontmatter-Felds überschreiben:
---
name: quick-fix
description: Schnelle Grammatikkorrektur
scope: selection
model: claude-haiku-4-5-20251001
---Dies ist nützlich, um einfache Aufgaben an schnellere/günstigere Modelle zu leiten, während ein leistungsfähiges Standardmodell beibehalten wird.
Zuverlässigkeit und Timeouts
VMark sichert jeden Anbieteraufruf ab, sodass ein blockiertes CLI oder eine fehlerhafte API-Antwort den Editor niemals blockieren kann:
- CLI-Unterprozess-Timeout: Jede CLI-Anbieter-Anfrage wird unter einem Ausführungs-Timeout ausgeführt. Reagiert das CLI nicht, bricht VMark den Aufruf ab, gibt den Fehler an das Genie zurück und gibt den Worker frei — der Thread-Pool kann durch einen außer Kontrolle geratenen Unterprozess nicht blockiert werden.
- REST-JSON-Parse-Sicherheit: Gibt ein REST-Anbieter eine unerwartete Antwortstruktur zurück (HTML-Fehlerseite, abgeschnittenes JSON, Schema-Drift nach einer vorgelagerten Änderung), zeigt VMark dem Frontend einen typisierten Fehler an, anstatt den KI-Listener endlos warten zu lassen. Der Fehler wird im Status-Banner des Genies mit einer Option zum erneuten Versuch angezeigt.
- Abbruch-Token: Lang laufende Genie- oder Workflow-Schritte können jederzeit abgebrochen werden — Abbrechen im Genie-Picker oder Schließen des Panels bricht die laufende Anfrage sauber ab.
- Gemeinsamer HTTP-Client: REST-Anbieter teilen sich einen einzelnen verbindungsgepoolten
reqwest-Client, sodass aufeinanderfolgende Genie-Aufrufe nicht jedes Mal den TCP/TLS-Handshake-Aufwand zahlen. - Windows-Pfaderkennung: Unter Windows liest VMark beim Erkennen von CLIs den vollständigen
PATHdes Benutzers (einschließlich PowerShell-exklusiver Einträge), sodass benutzerseitig installierte Tools, die im Terminal funktionieren, auch in VMark funktionieren.
Sicherheitshinweise
- API-Schlüssel sind flüchtig — nur im Speicher gespeichert, nie auf Festplatte oder
localStorage - Umgebungsvariablen werden einmalig beim Start gelesen und im Speicher zwischengespeichert
- CLI-Anbieter verwenden Ihre bestehende CLI-Authentifizierung — VMark sieht Ihre Zugangsdaten nie
- Alle Anfragen gehen direkt von Ihrem Rechner an den Anbieter — keine VMark-Server dazwischen
Fehlerbehebung
"Kein KI-Anbieter verfügbar" — Klicken Sie auf Erkennen, um nach CLIs zu suchen, oder konfigurieren Sie einen REST-Anbieter mit API-Schlüssel.
CLI zeigt "Nicht gefunden" — Das CLI ist nicht in Ihrem $PATH. Installieren Sie es oder überprüfen Sie Ihr Shell-Profil. Auf macOS erben GUI-Apps möglicherweise nicht den Terminal-$PATH — versuchen Sie, den Pfad zu /etc/paths.d/ hinzuzufügen.
CLI hängt / keine Antwort — VMark's Ausführungs-Timeout bricht den Aufruf automatisch ab; im Status-Banner des Genies erscheint eine Fehlermeldung. Wenn ein bestimmtes CLI den Timeout regelmäßig überschreitet, führen Sie es einmal im Terminal aus, um zu bestätigen, dass es dort funktioniert, und prüfen Sie dann, ob eine interaktive Authentifizierung erforderlich ist.
REST-Anbieter gibt 401 zurück — Ihr API-Schlüssel ist ungültig oder abgelaufen. Generieren Sie einen neuen von der Konsole des Anbieters.
REST-Anbieter gibt 429 zurück — Sie haben ein Ratenlimit überschritten. Warten Sie einen Moment und versuchen Sie es erneut, oder wechseln Sie zu einem anderen Anbieter.
REST-Anbieter gibt korrumpierten / unerwarteten JSON zurück — VMark zeigt einen typisierten Parse-Fehler an (z. B. „list_models hat eine unerwartete Antwortstruktur zurückgegeben"). Überprüfen Sie die Endpunkt-URL und stellen Sie sicher, dass der API-Vertrag zum ausgewählten Anbietertyp passt; manche selbstgehosteten Gateways kündigen OpenAI-kompatible URLs an, liefern aber ein anderes Schema aus.
Langsame Antworten — CLI-Anbieter fügen Unterprozess-Overhead hinzu. Für schnellere Antworten verwenden Sie REST-Anbieter, die direkt verbinden. Für die schnellste lokale Option verwenden Sie Ollama mit einem kleinen Modell.
Fehler "Modell nicht gefunden" — Der Modell-Bezeichner stimmt nicht mit dem überein, was der Anbieter anbietet. Überprüfen Sie die Dokumentation des Anbieters auf gültige Modellnamen.
Siehe auch
- KI-Genies — KI-gestützte Schreibassistenz verwenden
- MCP-Einrichtung — Externe KI-Integration über Model Context Protocol