Provider IA
I Genies IA di VMark necessitano di un provider IA per generare suggerimenti. Puoi usare uno strumento CLI installato localmente o connetterti direttamente a un'API REST.
Configurazione Rapida
Il modo più veloce per iniziare:
- Apri Impostazioni > Integrazioni
- Fai clic su Rileva per cercare gli strumenti CLI installati
- Se viene trovato un CLI (es. Claude, Gemini), selezionalo — hai finito
- Se non è disponibile alcun CLI, scegli un provider REST, inserisci la tua chiave API e seleziona un modello
È attivo un solo provider alla volta.
Provider CLI
I provider CLI utilizzano strumenti IA installati localmente. VMark li esegue come sottoprocessi e trasmette il loro output all'editor.
| Provider | Comando CLI | Installazione |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
Come Funziona il Rilevamento CLI
Fai clic su Rileva in Impostazioni > Integrazioni. VMark cerca ogni comando CLI nel tuo $PATH e ne riporta la disponibilità. Se un CLI viene trovato, il suo pulsante di selezione diventa attivabile.
Vantaggi
- Nessuna chiave API necessaria — il CLI gestisce l'autenticazione usando il tuo login esistente
- Molto più economico — gli strumenti CLI usano il tuo piano in abbonamento (es. Claude Max, ChatGPT Plus/Pro, Google One AI Premium), che costa un importo fisso mensile. I provider API REST addebitano per token e possono costare 10–30 volte di più per un utilizzo intenso
- Usa la tua configurazione CLI — le preferenze del modello, i prompt di sistema e la fatturazione sono gestiti dal CLI stesso
Abbonamento vs API per Sviluppatori
Se stai usando questi strumenti anche per il vibe-coding (Claude Code, Codex CLI, Gemini CLI), lo stesso abbonamento copre sia i Genies IA di VMark che le tue sessioni di codifica — senza costi aggiuntivi.
Configurazione: Claude CLI
- Installa Claude Code:
npm install -g @anthropic-ai/claude-code - Esegui
claudeuna volta nel tuo terminale per autenticarti - In VMark, fai clic su Rileva, poi seleziona Claude
Configurazione: Gemini CLI
- Installa Gemini CLI:
npm install -g @google/gemini-cli(o tramite il repository ufficiale) - Esegui
geminiuna volta per autenticarti con il tuo account Google - In VMark, fai clic su Rileva, poi seleziona Gemini
Provider API REST
I provider REST si connettono direttamente alle API cloud. Ognuno richiede un endpoint, una chiave API e il nome del modello.
| Provider | Endpoint Predefinito | Variabile d'Ambiente |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (integrato) | GOOGLE_API_KEY o GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
Campi di Configurazione
Quando selezioni un provider REST, appaiono tre campi:
- Endpoint API — L'URL base (nascosto per Google AI, che usa un endpoint fisso)
- Chiave API — La tua chiave segreta (conservata solo in memoria — mai scritta su disco)
- Modello — L'identificatore del modello (es.
claude-sonnet-4-5-20250929,gpt-4o,gemini-2.0-flash)
Compilazione Automatica tramite Variabili d'Ambiente
VMark legge le variabili d'ambiente standard all'avvio. Se ANTHROPIC_API_KEY, OPENAI_API_KEY o GEMINI_API_KEY è impostata nel tuo profilo shell, il campo della chiave API si compila automaticamente quando selezioni quel provider.
Ciò significa che puoi impostare la tua chiave una volta in ~/.zshrc o ~/.bashrc:
export ANTHROPIC_API_KEY="sk-ant-..."Poi riavvia VMark — nessuna inserzione manuale della chiave necessaria.
Configurazione: Anthropic (REST)
- Ottieni una chiave API da console.anthropic.com
- In Impostazioni VMark > Integrazioni, seleziona Anthropic
- Incolla la tua chiave API
- Scegli un modello (predefinito:
claude-sonnet-4-5-20250929)
Configurazione: OpenAI (REST)
- Ottieni una chiave API da platform.openai.com
- In Impostazioni VMark > Integrazioni, seleziona OpenAI
- Incolla la tua chiave API
- Scegli un modello (predefinito:
gpt-4o)
Configurazione: Google AI (REST)
- Ottieni una chiave API da aistudio.google.com
- In Impostazioni VMark > Integrazioni, seleziona Google AI
- Incolla la tua chiave API
- Scegli un modello (predefinito:
gemini-2.0-flash)
Configurazione: Ollama API (REST)
Usa questo quando vuoi accesso in stile REST a un'istanza Ollama locale, o quando Ollama è in esecuzione su un altro computer della tua rete.
- Assicurati che Ollama sia in esecuzione:
ollama serve - In Impostazioni VMark > Integrazioni, seleziona Ollama (API)
- Imposta l'endpoint su
http://localhost:11434(o il tuo host Ollama) - Lascia vuota la chiave API
- Imposta il modello con il nome del tuo modello scaricato (es.
llama3.2)
Scegliere un Provider
| Situazione | Raccomandazione |
|---|---|
| Hai già Claude Code installato | Claude (CLI) — configurazione zero, usa il tuo abbonamento |
| Hai già Codex o Gemini installato | Codex / Gemini (CLI) — usa il tuo abbonamento |
| Necessiti di privacy / offline | Installa Ollama → Ollama (CLI) |
| Modello personalizzato o self-hosted | Ollama (API) con il tuo endpoint |
| Vuoi l'opzione cloud più economica | Qualsiasi provider CLI — l'abbonamento è molto più economico dell'API |
| Nessun abbonamento, uso leggero | Imposta la chiave API come variabile d'ambiente → Provider REST (paga per token) |
| Hai bisogno dell'output di qualità più alta | Claude (CLI) o Anthropic (REST) con claude-sonnet-4-5-20250929 |
Override del Modello per Genie
I singoli genies possono sovrascrivere il modello predefinito del provider usando il campo model nel frontmatter:
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---Questo è utile per indirizzare i compiti semplici verso modelli più veloci/economici mantenendo un modello predefinito potente.
Note sulla Sicurezza
- Le chiavi API sono effimere — conservate solo in memoria, mai scritte su disco o in
localStorage - Le variabili d'ambiente vengono lette una volta all'avvio e memorizzate nella cache in memoria
- I provider CLI usano la tua autenticazione CLI esistente — VMark non vede mai le tue credenziali
- Tutte le richieste vanno direttamente dalla tua macchina al provider — nessun server VMark intermedio
Risoluzione dei Problemi
"Nessun provider IA disponibile" — Fai clic su Rileva per cercare i CLI, o configura un provider REST con una chiave API.
Il CLI mostra "Non trovato" — Il CLI non è nel tuo $PATH. Installalo o controlla il tuo profilo shell. Su macOS, le app GUI potrebbero non ereditare il $PATH del terminale — prova ad aggiungere il percorso a /etc/paths.d/.
Il provider REST restituisce 401 — La tua chiave API non è valida o è scaduta. Genera una nuova dalla console del provider.
Il provider REST restituisce 429 — Hai raggiunto un limite di frequenza. Attendi un momento e riprova, o passa a un provider diverso.
Risposte lente — I provider CLI aggiungono un overhead da sottoprocesso. Per risposte più veloci, usa i provider REST che si connettono direttamente. Per l'opzione locale più veloce, usa Ollama con un modello piccolo.
Errore modello non trovato — L'identificatore del modello non corrisponde a quello offerto dal provider. Controlla la documentazione del provider per i nomi di modello validi.
Vedi Anche
- Genies IA — Come usare l'assistenza alla scrittura con IA
- Configurazione MCP — Integrazione IA esterna tramite Model Context Protocol