Skip to content

KI-Anbieter

VMark's KI-Genies benötigen einen KI-Anbieter, um Vorschläge zu generieren. Sie können ein lokal installiertes CLI-Tool verwenden oder sich direkt mit einer REST-API verbinden.

Schnelleinrichtung

Der schnellste Einstieg:

  1. Öffnen Sie Einstellungen > Integrationen
  2. Klicken Sie auf Erkennen, um nach installierten CLI-Tools zu suchen
  3. Wenn ein CLI gefunden wird (z.B. Claude, Gemini), wählen Sie es aus — fertig
  4. Wenn kein CLI verfügbar ist, wählen Sie einen REST-Anbieter, geben Sie Ihren API-Schlüssel ein und wählen Sie ein Modell

Es kann immer nur ein Anbieter gleichzeitig aktiv sein.

CLI-Anbieter

CLI-Anbieter verwenden lokal installierte KI-Tools. VMark führt diese als Unterprozesse aus und streamt deren Ausgabe zurück in den Editor.

AnbieterCLI-BefehlInstallation
ClaudeclaudeClaude Code
CodexcodexOpenAI Codex CLI
GeminigeminiGoogle Gemini CLI

Wie CLI-Erkennung funktioniert

Klicken Sie in Einstellungen > Integrationen auf Erkennen. VMark durchsucht Ihren $PATH nach jedem CLI-Befehl und meldet die Verfügbarkeit. Wenn ein CLI gefunden wird, wird sein Optionsfeld wählbar.

Vorteile

  • Kein API-Schlüssel erforderlich — Das CLI verwaltet die Authentifizierung mit Ihrem bestehenden Login
  • Drastisch günstiger — CLI-Tools nutzen Ihren Abonnementplan (z.B. Claude Max, ChatGPT Plus/Pro, Google One AI Premium), der eine feste monatliche Gebühr kostet. REST-API-Anbieter berechnen pro Token und können bei intensiver Nutzung 10–30× mehr kosten
  • Verwendet Ihre CLI-Konfiguration — Modelleinstellungen, System-Prompts und Abrechnung werden vom CLI selbst verwaltet

Abonnement vs. API für Entwickler

Wenn Sie diese Tools auch für Vibe-Coding verwenden (Claude Code, Codex CLI, Gemini CLI), deckt dasselbe Abonnement sowohl VMark's KI-Genies als auch Ihre Coding-Sitzungen ab — ohne Mehrkosten.

Einrichtung: Claude CLI

  1. Claude Code installieren: npm install -g @anthropic-ai/claude-code
  2. claude einmal im Terminal ausführen, um sich zu authentifizieren
  3. In VMark auf Erkennen klicken, dann Claude auswählen

Einrichtung: Gemini CLI

  1. Gemini CLI installieren: npm install -g @google/gemini-cli (oder über das offizielle Repository)
  2. gemini einmal ausführen, um sich mit Ihrem Google-Konto zu authentifizieren
  3. In VMark auf Erkennen klicken, dann Gemini auswählen

REST-API-Anbieter

REST-Anbieter verbinden sich direkt mit Cloud-APIs. Jeder benötigt einen Endpunkt, API-Schlüssel und Modellnamen.

AnbieterStandard-EndpunktUmgebungsvariable
Anthropichttps://api.anthropic.comANTHROPIC_API_KEY
OpenAIhttps://api.openai.comOPENAI_API_KEY
Google AI(integriert)GOOGLE_API_KEY oder GEMINI_API_KEY
Ollama (API)http://localhost:11434

Konfigurationsfelder

Wenn Sie einen REST-Anbieter auswählen, erscheinen drei Felder:

  • API-Endpunkt — Die Basis-URL (für Google AI ausgeblendet, da ein fester Endpunkt verwendet wird)
  • API-Schlüssel — Ihr geheimer Schlüssel (nur im Speicher gespeichert — nie auf Festplatte geschrieben)
  • Modell — Der Modell-Bezeichner (z.B. claude-sonnet-4-5-20250929, gpt-4o, gemini-2.0-flash)

Automatisches Ausfüllen von Umgebungsvariablen

VMark liest beim Start standardmäßige Umgebungsvariablen. Wenn ANTHROPIC_API_KEY, OPENAI_API_KEY oder GEMINI_API_KEY in Ihrem Shell-Profil gesetzt ist, wird das API-Schlüsselfeld automatisch ausgefüllt, wenn Sie diesen Anbieter auswählen.

Das bedeutet, Sie können Ihren Schlüssel einmal in ~/.zshrc oder ~/.bashrc festlegen:

bash
export ANTHROPIC_API_KEY="sk-ant-..."

Dann VMark neu starten — keine manuelle Schlüsseleingabe erforderlich.

Einrichtung: Anthropic (REST)

  1. API-Schlüssel von console.anthropic.com abrufen
  2. In VMark Einstellungen > Integrationen Anthropic auswählen
  3. API-Schlüssel einfügen
  4. Modell auswählen (Standard: claude-sonnet-4-5-20250929)

Einrichtung: OpenAI (REST)

  1. API-Schlüssel von platform.openai.com abrufen
  2. In VMark Einstellungen > Integrationen OpenAI auswählen
  3. API-Schlüssel einfügen
  4. Modell auswählen (Standard: gpt-4o)

Einrichtung: Google AI (REST)

  1. API-Schlüssel von aistudio.google.com abrufen
  2. In VMark Einstellungen > Integrationen Google AI auswählen
  3. API-Schlüssel einfügen
  4. Modell auswählen (Standard: gemini-2.0-flash)

Einrichtung: Ollama API (REST)

Verwenden Sie dies, wenn Sie REST-ähnlichen Zugriff auf eine lokale Ollama-Instanz wünschen oder Ollama auf einem anderen Rechner in Ihrem Netzwerk läuft.

  1. Sicherstellen, dass Ollama läuft: ollama serve
  2. In VMark Einstellungen > Integrationen Ollama (API) auswählen
  3. Endpunkt auf http://localhost:11434 setzen (oder Ihren Ollama-Host)
  4. API-Schlüssel leer lassen
  5. Modell auf Ihren heruntergeladenen Modellnamen setzen (z.B. llama3.2)

Anbieter auswählen

SituationEmpfehlung
Claude Code bereits installiertClaude (CLI) — null Konfiguration, nutzt Ihr Abonnement
Codex oder Gemini bereits installiertCodex / Gemini (CLI) — nutzt Ihr Abonnement
Privatsphäre / Offline benötigtOllama installieren → Ollama (CLI)
Benutzerdefiniertes oder selbstgehostetes ModellOllama (API) mit Ihrem Endpunkt
Günstigste Cloud-Option gewünschtJeder CLI-Anbieter — Abonnement ist drastisch günstiger als API
Kein Abonnement, nur leichte NutzungAPI-Schlüssel-Umgebungsvariable setzen → REST-Anbieter (pro Token)
Höchste Ausgabequalität benötigtClaude (CLI) oder Anthropic (REST) mit claude-sonnet-4-5-20250929

Pro-Genie-Modellüberschreibung

Einzelne Genies können das Standardmodell des Anbieters mithilfe des model-Frontmatter-Felds überschreiben:

markdown
---
name: quick-fix
description: Schnelle Grammatikkorrektur
scope: selection
model: claude-haiku-4-5-20251001
---

Dies ist nützlich, um einfache Aufgaben an schnellere/günstigere Modelle zu leiten, während ein leistungsfähiges Standardmodell beibehalten wird.

Sicherheitshinweise

  • API-Schlüssel sind flüchtig — nur im Speicher gespeichert, nie auf Festplatte oder localStorage
  • Umgebungsvariablen werden einmalig beim Start gelesen und im Speicher zwischengespeichert
  • CLI-Anbieter verwenden Ihre bestehende CLI-Authentifizierung — VMark sieht Ihre Zugangsdaten nie
  • Alle Anfragen gehen direkt von Ihrem Rechner an den Anbieter — keine VMark-Server dazwischen

Fehlerbehebung

"Kein KI-Anbieter verfügbar" — Klicken Sie auf Erkennen, um nach CLIs zu suchen, oder konfigurieren Sie einen REST-Anbieter mit API-Schlüssel.

CLI zeigt "Nicht gefunden" — Das CLI ist nicht in Ihrem $PATH. Installieren Sie es oder überprüfen Sie Ihr Shell-Profil. Auf macOS erben GUI-Apps möglicherweise nicht den Terminal-$PATH — versuchen Sie, den Pfad zu /etc/paths.d/ hinzuzufügen.

REST-Anbieter gibt 401 zurück — Ihr API-Schlüssel ist ungültig oder abgelaufen. Generieren Sie einen neuen von der Konsole des Anbieters.

REST-Anbieter gibt 429 zurück — Sie haben ein Ratenlimit überschritten. Warten Sie einen Moment und versuchen Sie es erneut, oder wechseln Sie zu einem anderen Anbieter.

Langsame Antworten — CLI-Anbieter fügen Unterprozess-Overhead hinzu. Für schnellere Antworten verwenden Sie REST-Anbieter, die direkt verbinden. Für die schnellste lokale Option verwenden Sie Ollama mit einem kleinen Modell.

Fehler "Modell nicht gefunden" — Der Modell-Bezeichner stimmt nicht mit dem überein, was der Anbieter anbietet. Überprüfen Sie die Dokumentation des Anbieters auf gültige Modellnamen.

Siehe auch

  • KI-Genies — KI-gestützte Schreibassistenz verwenden
  • MCP-Einrichtung — Externe KI-Integration über Model Context Protocol