Provedores de IA
Os Gênios de IA do VMark precisam de um provedor de IA para gerar sugestões. Você pode usar uma ferramenta CLI instalada localmente ou conectar diretamente a uma API REST.
Configuração Rápida
A maneira mais rápida de começar:
- Abra Configurações > Integrações
- Clique em Detectar para verificar as ferramentas CLI instaladas
- Se um CLI for encontrado (por exemplo, Claude, Gemini), selecione-o — pronto
- Se nenhum CLI estiver disponível, escolha um provedor REST, insira sua chave de API e selecione um modelo
Apenas um provedor pode estar ativo por vez.
Provedores CLI
Os provedores CLI usam ferramentas de IA instaladas localmente. O VMark as executa como subprocessos e transmite a saída de volta ao editor.
| Provedor | Comando CLI | Instalação |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
Como Funciona a Detecção de CLI
Clique em Detectar em Configurações > Integrações. O VMark pesquisa seu $PATH para cada comando CLI e informa a disponibilidade. Se um CLI for encontrado, seu botão de rádio fica selecionável.
Vantagens
- Sem necessidade de chave de API — o CLI gerencia a autenticação usando seu login existente
- Dramaticamente mais barato — as ferramentas CLI usam seu plano de assinatura (por exemplo, Claude Max, ChatGPT Plus/Pro, Google One AI Premium), que tem uma taxa mensal fixa. Os provedores de API REST cobram por token e podem custar 10–30x mais para uso intensivo
- Usa sua configuração de CLI — preferências de modelo, prompts de sistema e faturamento são gerenciados pelo próprio CLI
Assinatura vs API para Desenvolvedores
Se você também usa essas ferramentas para programação com IA (Claude Code, Codex CLI, Gemini CLI), a mesma assinatura cobre tanto os Gênios de IA do VMark quanto suas sessões de programação — sem custo extra.
Configuração: Claude CLI
- Instale o Claude Code:
npm install -g @anthropic-ai/claude-code - Execute
claudeuma vez no seu terminal para autenticar - No VMark, clique em Detectar e selecione Claude
Configuração: Gemini CLI
- Instale o Gemini CLI:
npm install -g @google/gemini-cli(ou via o repositório oficial) - Execute
geminiuma vez para autenticar com sua conta Google - No VMark, clique em Detectar e selecione Gemini
Provedores de API REST
Os provedores REST se conectam diretamente a APIs de nuvem. Cada um requer um endpoint, chave de API e nome de modelo.
| Provedor | Endpoint Padrão | Variável de Ambiente |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (integrado) | GOOGLE_API_KEY ou GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
Campos de Configuração
Quando você seleciona um provedor REST, três campos aparecem:
- Endpoint da API — A URL base (oculta para Google AI, que usa um endpoint fixo)
- Chave de API — Sua chave secreta (armazenada apenas na memória — nunca gravada em disco)
- Modelo — O identificador do modelo (por exemplo,
claude-sonnet-4-5-20250929,gpt-4o,gemini-2.0-flash)
Preenchimento Automático de Variáveis de Ambiente
O VMark lê variáveis de ambiente padrão ao iniciar. Se ANTHROPIC_API_KEY, OPENAI_API_KEY ou GEMINI_API_KEY estiver definida no seu perfil de shell, o campo de chave de API é preenchido automaticamente ao selecionar esse provedor.
Isso significa que você pode definir sua chave uma vez em ~/.zshrc ou ~/.bashrc:
export ANTHROPIC_API_KEY="sk-ant-..."Depois reinicie o VMark — sem necessidade de entrada manual de chave.
Configuração: Anthropic (REST)
- Obtenha uma chave de API em console.anthropic.com
- Em Configurações > Integrações do VMark, selecione Anthropic
- Cole sua chave de API
- Escolha um modelo (padrão:
claude-sonnet-4-5-20250929)
Configuração: OpenAI (REST)
- Obtenha uma chave de API em platform.openai.com
- Em Configurações > Integrações do VMark, selecione OpenAI
- Cole sua chave de API
- Escolha um modelo (padrão:
gpt-4o)
Configuração: Google AI (REST)
- Obtenha uma chave de API em aistudio.google.com
- Em Configurações > Integrações do VMark, selecione Google AI
- Cole sua chave de API
- Escolha um modelo (padrão:
gemini-2.0-flash)
Configuração: Ollama API (REST)
Use isso quando quiser acesso no estilo REST a uma instância local do Ollama, ou quando o Ollama estiver rodando em outra máquina na sua rede.
- Certifique-se de que o Ollama está em execução:
ollama serve - Em Configurações > Integrações do VMark, selecione Ollama (API)
- Defina o endpoint como
http://localhost:11434(ou seu host Ollama) - Deixe a chave de API vazia
- Defina o modelo para o nome do seu modelo baixado (por exemplo,
llama3.2)
Escolhendo um Provedor
| Situação | Recomendação |
|---|---|
| Já tem o Claude Code instalado | Claude (CLI) — zero configuração, usa sua assinatura |
| Já tem Codex ou Gemini instalado | Codex / Gemini (CLI) — usa sua assinatura |
| Precisa de privacidade / offline | Instale o Ollama → Ollama (CLI) |
| Modelo personalizado ou auto-hospedado | Ollama (API) com seu endpoint |
| Quer a opção de nuvem mais barata | Qualquer provedor CLI — assinatura é dramaticamente mais barata que API |
| Sem assinatura, uso leve apenas | Defina a variável de ambiente da chave de API → provedor REST (pague por token) |
| Precisa da maior qualidade de saída | Claude (CLI) ou Anthropic (REST) com claude-sonnet-4-5-20250929 |
Substituição de Modelo por Gênio
Gênios individuais podem substituir o modelo padrão do provedor usando o campo model no frontmatter:
---
name: quick-fix
description: Correção rápida de gramática
scope: selection
model: claude-haiku-4-5-20251001
---Isso é útil para encaminhar tarefas simples para modelos mais rápidos/baratos enquanto mantém um padrão poderoso.
Notas de Segurança
- As chaves de API são efêmeras — armazenadas apenas na memória, nunca gravadas em disco ou
localStorage - Variáveis de ambiente são lidas uma vez ao iniciar e armazenadas em cache na memória
- Provedores CLI usam sua autenticação CLI existente — o VMark nunca vê suas credenciais
- Todas as solicitações vão diretamente da sua máquina para o provedor — sem servidores VMark no caminho
Solução de Problemas
"Nenhum provedor de IA disponível" — Clique em Detectar para verificar CLIs, ou configure um provedor REST com uma chave de API.
CLI mostra "Não encontrado" — O CLI não está no seu $PATH. Instale-o ou verifique seu perfil de shell. No macOS, aplicativos GUI podem não herdar o $PATH do terminal — tente adicionar o caminho a /etc/paths.d/.
Provedor REST retorna 401 — Sua chave de API é inválida ou expirou. Gere uma nova no console do provedor.
Provedor REST retorna 429 — Você atingiu um limite de taxa. Aguarde um momento e tente novamente, ou mude para um provedor diferente.
Respostas lentas — Provedores CLI adicionam overhead de subprocesso. Para respostas mais rápidas, use provedores REST que se conectam diretamente. Para a opção local mais rápida, use o Ollama com um modelo pequeno.
Erro de modelo não encontrado — O identificador do modelo não corresponde ao que o provedor oferece. Verifique os documentos do provedor para nomes de modelos válidos.
Veja Também
- Gênios de IA — Como usar a assistência de escrita com IA
- Configuração MCP — Integração de IA externa via Model Context Protocol