Skip to content

Provedores de IA

Os Gênios de IA do VMark precisam de um provedor de IA para gerar sugestões. Você pode usar uma ferramenta CLI instalada localmente ou conectar diretamente a uma API REST.

Configuração Rápida

A maneira mais rápida de começar:

  1. Abra Configurações > Integrações
  2. Clique em Detectar para verificar as ferramentas CLI instaladas
  3. Se um CLI for encontrado (por exemplo, Claude, Gemini), selecione-o — pronto
  4. Se nenhum CLI estiver disponível, escolha um provedor REST, insira sua chave de API e selecione um modelo

Apenas um provedor pode estar ativo por vez.

Provedores CLI

Os provedores CLI usam ferramentas de IA instaladas localmente. O VMark as executa como subprocessos e transmite a saída de volta ao editor.

ProvedorComando CLIInstalação
ClaudeclaudeClaude Code
CodexcodexOpenAI Codex CLI
GeminigeminiGoogle Gemini CLI

Como Funciona a Detecção de CLI

Clique em Detectar em Configurações > Integrações. O VMark pesquisa seu $PATH para cada comando CLI e informa a disponibilidade. Se um CLI for encontrado, seu botão de rádio fica selecionável.

Vantagens

  • Sem necessidade de chave de API — o CLI gerencia a autenticação usando seu login existente
  • Dramaticamente mais barato — as ferramentas CLI usam seu plano de assinatura (por exemplo, Claude Max, ChatGPT Plus/Pro, Google One AI Premium), que tem uma taxa mensal fixa. Os provedores de API REST cobram por token e podem custar 10–30x mais para uso intensivo
  • Usa sua configuração de CLI — preferências de modelo, prompts de sistema e faturamento são gerenciados pelo próprio CLI

Assinatura vs API para Desenvolvedores

Se você também usa essas ferramentas para programação com IA (Claude Code, Codex CLI, Gemini CLI), a mesma assinatura cobre tanto os Gênios de IA do VMark quanto suas sessões de programação — sem custo extra.

Configuração: Claude CLI

  1. Instale o Claude Code: npm install -g @anthropic-ai/claude-code
  2. Execute claude uma vez no seu terminal para autenticar
  3. No VMark, clique em Detectar e selecione Claude

Configuração: Gemini CLI

  1. Instale o Gemini CLI: npm install -g @google/gemini-cli (ou via o repositório oficial)
  2. Execute gemini uma vez para autenticar com sua conta Google
  3. No VMark, clique em Detectar e selecione Gemini

Provedores de API REST

Os provedores REST se conectam diretamente a APIs de nuvem. Cada um requer um endpoint, chave de API e nome de modelo.

ProvedorEndpoint PadrãoVariável de Ambiente
Anthropichttps://api.anthropic.comANTHROPIC_API_KEY
OpenAIhttps://api.openai.comOPENAI_API_KEY
Google AI(integrado)GOOGLE_API_KEY ou GEMINI_API_KEY
Ollama (API)http://localhost:11434

Campos de Configuração

Quando você seleciona um provedor REST, três campos aparecem:

  • Endpoint da API — A URL base (oculta para Google AI, que usa um endpoint fixo)
  • Chave de API — Sua chave secreta (armazenada apenas na memória — nunca gravada em disco)
  • Modelo — O identificador do modelo (por exemplo, claude-sonnet-4-5-20250929, gpt-4o, gemini-2.0-flash)

Preenchimento Automático de Variáveis de Ambiente

O VMark lê variáveis de ambiente padrão ao iniciar. Se ANTHROPIC_API_KEY, OPENAI_API_KEY ou GEMINI_API_KEY estiver definida no seu perfil de shell, o campo de chave de API é preenchido automaticamente ao selecionar esse provedor.

Isso significa que você pode definir sua chave uma vez em ~/.zshrc ou ~/.bashrc:

bash
export ANTHROPIC_API_KEY="sk-ant-..."

Depois reinicie o VMark — sem necessidade de entrada manual de chave.

Configuração: Anthropic (REST)

  1. Obtenha uma chave de API em console.anthropic.com
  2. Em Configurações > Integrações do VMark, selecione Anthropic
  3. Cole sua chave de API
  4. Escolha um modelo (padrão: claude-sonnet-4-5-20250929)

Configuração: OpenAI (REST)

  1. Obtenha uma chave de API em platform.openai.com
  2. Em Configurações > Integrações do VMark, selecione OpenAI
  3. Cole sua chave de API
  4. Escolha um modelo (padrão: gpt-4o)

Configuração: Google AI (REST)

  1. Obtenha uma chave de API em aistudio.google.com
  2. Em Configurações > Integrações do VMark, selecione Google AI
  3. Cole sua chave de API
  4. Escolha um modelo (padrão: gemini-2.0-flash)

Configuração: Ollama API (REST)

Use isso quando quiser acesso no estilo REST a uma instância local do Ollama, ou quando o Ollama estiver rodando em outra máquina na sua rede.

  1. Certifique-se de que o Ollama está em execução: ollama serve
  2. Em Configurações > Integrações do VMark, selecione Ollama (API)
  3. Defina o endpoint como http://localhost:11434 (ou seu host Ollama)
  4. Deixe a chave de API vazia
  5. Defina o modelo para o nome do seu modelo baixado (por exemplo, llama3.2)

Escolhendo um Provedor

SituaçãoRecomendação
Já tem o Claude Code instaladoClaude (CLI) — zero configuração, usa sua assinatura
Já tem Codex ou Gemini instaladoCodex / Gemini (CLI) — usa sua assinatura
Precisa de privacidade / offlineInstale o Ollama → Ollama (CLI)
Modelo personalizado ou auto-hospedadoOllama (API) com seu endpoint
Quer a opção de nuvem mais barataQualquer provedor CLI — assinatura é dramaticamente mais barata que API
Sem assinatura, uso leve apenasDefina a variável de ambiente da chave de API → provedor REST (pague por token)
Precisa da maior qualidade de saídaClaude (CLI) ou Anthropic (REST) com claude-sonnet-4-5-20250929

Substituição de Modelo por Gênio

Gênios individuais podem substituir o modelo padrão do provedor usando o campo model no frontmatter:

markdown
---
name: quick-fix
description: Correção rápida de gramática
scope: selection
model: claude-haiku-4-5-20251001
---

Isso é útil para encaminhar tarefas simples para modelos mais rápidos/baratos enquanto mantém um padrão poderoso.

Notas de Segurança

  • As chaves de API são efêmeras — armazenadas apenas na memória, nunca gravadas em disco ou localStorage
  • Variáveis de ambiente são lidas uma vez ao iniciar e armazenadas em cache na memória
  • Provedores CLI usam sua autenticação CLI existente — o VMark nunca vê suas credenciais
  • Todas as solicitações vão diretamente da sua máquina para o provedor — sem servidores VMark no caminho

Solução de Problemas

"Nenhum provedor de IA disponível" — Clique em Detectar para verificar CLIs, ou configure um provedor REST com uma chave de API.

CLI mostra "Não encontrado" — O CLI não está no seu $PATH. Instale-o ou verifique seu perfil de shell. No macOS, aplicativos GUI podem não herdar o $PATH do terminal — tente adicionar o caminho a /etc/paths.d/.

Provedor REST retorna 401 — Sua chave de API é inválida ou expirou. Gere uma nova no console do provedor.

Provedor REST retorna 429 — Você atingiu um limite de taxa. Aguarde um momento e tente novamente, ou mude para um provedor diferente.

Respostas lentas — Provedores CLI adicionam overhead de subprocesso. Para respostas mais rápidas, use provedores REST que se conectam diretamente. Para a opção local mais rápida, use o Ollama com um modelo pequeno.

Erro de modelo não encontrado — O identificador do modelo não corresponde ao que o provedor oferece. Verifique os documentos do provedor para nomes de modelos válidos.

Veja Também