Skip to content

Provider IA

I Genies IA di VMark necessitano di un provider IA per generare suggerimenti. Puoi usare uno strumento CLI installato localmente o connetterti direttamente a un'API REST.

Configurazione Rapida

Il modo più veloce per iniziare:

  1. Apri Impostazioni > Integrazioni
  2. Fai clic su Rileva per cercare gli strumenti CLI installati
  3. Se viene trovato un CLI (es. Claude, Gemini), selezionalo — hai finito
  4. Se non è disponibile alcun CLI, scegli un provider REST, inserisci la tua chiave API e seleziona un modello

È attivo un solo provider alla volta.

Provider CLI

I provider CLI utilizzano strumenti IA installati localmente. VMark li esegue come sottoprocessi e trasmette il loro output all'editor.

ProviderComando CLIInstallazione
ClaudeclaudeClaude Code
CodexcodexOpenAI Codex CLI
GeminigeminiGoogle Gemini CLI

Come Funziona il Rilevamento CLI

Fai clic su Rileva in Impostazioni > Integrazioni. VMark cerca ogni comando CLI nel tuo $PATH e ne riporta la disponibilità. Se un CLI viene trovato, il suo pulsante di selezione diventa attivabile.

Vantaggi

  • Nessuna chiave API necessaria — il CLI gestisce l'autenticazione usando il tuo login esistente
  • Molto più economico — gli strumenti CLI usano il tuo piano in abbonamento (es. Claude Max, ChatGPT Plus/Pro, Google One AI Premium), che costa un importo fisso mensile. I provider API REST addebitano per token e possono costare 10–30 volte di più per un utilizzo intenso
  • Usa la tua configurazione CLI — le preferenze del modello, i prompt di sistema e la fatturazione sono gestiti dal CLI stesso

Abbonamento vs API per Sviluppatori

Se stai usando questi strumenti anche per il vibe-coding (Claude Code, Codex CLI, Gemini CLI), lo stesso abbonamento copre sia i Genies IA di VMark che le tue sessioni di codifica — senza costi aggiuntivi.

Configurazione: Claude CLI

  1. Installa Claude Code: npm install -g @anthropic-ai/claude-code
  2. Esegui claude una volta nel tuo terminale per autenticarti
  3. In VMark, fai clic su Rileva, poi seleziona Claude

Configurazione: Gemini CLI

  1. Installa Gemini CLI: npm install -g @google/gemini-cli (o tramite il repository ufficiale)
  2. Esegui gemini una volta per autenticarti con il tuo account Google
  3. In VMark, fai clic su Rileva, poi seleziona Gemini

Provider API REST

I provider REST si connettono direttamente alle API cloud. Ognuno richiede un endpoint, una chiave API e il nome del modello.

ProviderEndpoint PredefinitoVariabile d'Ambiente
Anthropichttps://api.anthropic.comANTHROPIC_API_KEY
OpenAIhttps://api.openai.comOPENAI_API_KEY
Google AI(integrato)GOOGLE_API_KEY o GEMINI_API_KEY
Ollama (API)http://localhost:11434

Campi di Configurazione

Quando selezioni un provider REST, appaiono tre campi:

  • Endpoint API — L'URL base (nascosto per Google AI, che usa un endpoint fisso)
  • Chiave API — La tua chiave segreta (conservata solo in memoria — mai scritta su disco)
  • Modello — L'identificatore del modello (es. claude-sonnet-4-5-20250929, gpt-4o, gemini-2.0-flash)

Compilazione Automatica tramite Variabili d'Ambiente

VMark legge le variabili d'ambiente standard all'avvio. Se ANTHROPIC_API_KEY, OPENAI_API_KEY o GEMINI_API_KEY è impostata nel tuo profilo shell, il campo della chiave API si compila automaticamente quando selezioni quel provider.

Ciò significa che puoi impostare la tua chiave una volta in ~/.zshrc o ~/.bashrc:

bash
export ANTHROPIC_API_KEY="sk-ant-..."

Poi riavvia VMark — nessuna inserzione manuale della chiave necessaria.

Configurazione: Anthropic (REST)

  1. Ottieni una chiave API da console.anthropic.com
  2. In Impostazioni VMark > Integrazioni, seleziona Anthropic
  3. Incolla la tua chiave API
  4. Scegli un modello (predefinito: claude-sonnet-4-5-20250929)

Configurazione: OpenAI (REST)

  1. Ottieni una chiave API da platform.openai.com
  2. In Impostazioni VMark > Integrazioni, seleziona OpenAI
  3. Incolla la tua chiave API
  4. Scegli un modello (predefinito: gpt-4o)

Configurazione: Google AI (REST)

  1. Ottieni una chiave API da aistudio.google.com
  2. In Impostazioni VMark > Integrazioni, seleziona Google AI
  3. Incolla la tua chiave API
  4. Scegli un modello (predefinito: gemini-2.0-flash)

Configurazione: Ollama API (REST)

Usa questo quando vuoi accesso in stile REST a un'istanza Ollama locale, o quando Ollama è in esecuzione su un altro computer della tua rete.

  1. Assicurati che Ollama sia in esecuzione: ollama serve
  2. In Impostazioni VMark > Integrazioni, seleziona Ollama (API)
  3. Imposta l'endpoint su http://localhost:11434 (o il tuo host Ollama)
  4. Lascia vuota la chiave API
  5. Imposta il modello con il nome del tuo modello scaricato (es. llama3.2)

Scegliere un Provider

SituazioneRaccomandazione
Hai già Claude Code installatoClaude (CLI) — configurazione zero, usa il tuo abbonamento
Hai già Codex o Gemini installatoCodex / Gemini (CLI) — usa il tuo abbonamento
Necessiti di privacy / offlineInstalla Ollama → Ollama (CLI)
Modello personalizzato o self-hostedOllama (API) con il tuo endpoint
Vuoi l'opzione cloud più economicaQualsiasi provider CLI — l'abbonamento è molto più economico dell'API
Nessun abbonamento, uso leggeroImposta la chiave API come variabile d'ambiente → Provider REST (paga per token)
Hai bisogno dell'output di qualità più altaClaude (CLI) o Anthropic (REST) con claude-sonnet-4-5-20250929

Override del Modello per Genie

I singoli genies possono sovrascrivere il modello predefinito del provider usando il campo model nel frontmatter:

markdown
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---

Questo è utile per indirizzare i compiti semplici verso modelli più veloci/economici mantenendo un modello predefinito potente.

Note sulla Sicurezza

  • Le chiavi API sono effimere — conservate solo in memoria, mai scritte su disco o in localStorage
  • Le variabili d'ambiente vengono lette una volta all'avvio e memorizzate nella cache in memoria
  • I provider CLI usano la tua autenticazione CLI esistente — VMark non vede mai le tue credenziali
  • Tutte le richieste vanno direttamente dalla tua macchina al provider — nessun server VMark intermedio

Risoluzione dei Problemi

"Nessun provider IA disponibile" — Fai clic su Rileva per cercare i CLI, o configura un provider REST con una chiave API.

Il CLI mostra "Non trovato" — Il CLI non è nel tuo $PATH. Installalo o controlla il tuo profilo shell. Su macOS, le app GUI potrebbero non ereditare il $PATH del terminale — prova ad aggiungere il percorso a /etc/paths.d/.

Il provider REST restituisce 401 — La tua chiave API non è valida o è scaduta. Genera una nuova dalla console del provider.

Il provider REST restituisce 429 — Hai raggiunto un limite di frequenza. Attendi un momento e riprova, o passa a un provider diverso.

Risposte lente — I provider CLI aggiungono un overhead da sottoprocesso. Per risposte più veloci, usa i provider REST che si connettono direttamente. Per l'opzione locale più veloce, usa Ollama con un modello piccolo.

Errore modello non trovato — L'identificatore del modello non corrisponde a quello offerto dal provider. Controlla la documentazione del provider per i nomi di modello validi.

Vedi Anche

  • Genies IA — Come usare l'assistenza alla scrittura con IA
  • Configurazione MCP — Integrazione IA esterna tramite Model Context Protocol