Proveedores de IA
Los Genios de IA de VMark necesitan un proveedor de IA para generar sugerencias. Puedes usar una herramienta CLI instalada localmente o conectarte directamente a una API REST.
Configuración Rápida
La forma más rápida de comenzar:
- Abre Configuración > Integraciones
- Haz clic en Detectar para buscar herramientas CLI instaladas
- Si se encuentra una CLI (por ejemplo, Claude, Gemini), selecciónala — ya está listo
- Si no hay ninguna CLI disponible, elige un proveedor REST, introduce tu clave API y selecciona un modelo
Solo puede haber un proveedor activo a la vez.
Proveedores CLI
Los proveedores CLI usan herramientas de IA instaladas localmente. VMark las ejecuta como subprocesos y transmite su salida de vuelta al editor.
| Proveedor | Comando CLI | Instalación |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
Cómo Funciona la Detección CLI
Haz clic en Detectar en Configuración > Integraciones. VMark busca en tu $PATH cada comando CLI e informa sobre su disponibilidad. Si se encuentra una CLI, su botón de radio queda disponible para selección.
Ventajas
- Sin clave API — la CLI gestiona la autenticación usando tu inicio de sesión existente
- Mucho más barato — las herramientas CLI usan tu plan de suscripción (por ejemplo, Claude Max, ChatGPT Plus/Pro, Google One AI Premium), que tiene una tarifa mensual fija. Los proveedores de API REST cobran por token y pueden costar entre 10 y 30 veces más para un uso intensivo
- Usa tu configuración CLI — las preferencias de modelo, los prompts del sistema y la facturación son gestionados por la propia CLI
Suscripción vs API para Desarrolladores
Si también usas estas herramientas para programación asistida por IA (Claude Code, Codex CLI, Gemini CLI), la misma suscripción cubre tanto los Genios de IA de VMark como tus sesiones de programación — sin coste adicional.
Configuración: Claude CLI
- Instala Claude Code:
npm install -g @anthropic-ai/claude-code - Ejecuta
claudeuna vez en tu terminal para autenticarte - En VMark, haz clic en Detectar y luego selecciona Claude
Configuración: Gemini CLI
- Instala Gemini CLI:
npm install -g @google/gemini-cli(o desde el repositorio oficial) - Ejecuta
geminiuna vez para autenticarte con tu cuenta de Google - En VMark, haz clic en Detectar y luego selecciona Gemini
Proveedores de API REST
Los proveedores REST se conectan directamente a APIs en la nube. Cada uno requiere un endpoint, una clave API y un nombre de modelo.
| Proveedor | Endpoint Predeterminado | Variable de Entorno |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (integrado) | GOOGLE_API_KEY o GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
Campos de Configuración
Al seleccionar un proveedor REST, aparecen tres campos:
- Endpoint API — La URL base (oculta para Google AI, que usa un endpoint fijo)
- Clave API — Tu clave secreta (almacenada solo en memoria — nunca se escribe en disco)
- Modelo — El identificador del modelo (por ejemplo,
claude-sonnet-4-5-20250929,gpt-4o,gemini-2.0-flash)
Auto-Relleno con Variables de Entorno
VMark lee las variables de entorno estándar al iniciarse. Si ANTHROPIC_API_KEY, OPENAI_API_KEY o GEMINI_API_KEY está definida en tu perfil de shell, el campo de clave API se rellena automáticamente al seleccionar ese proveedor.
Esto significa que puedes configurar tu clave una vez en ~/.zshrc o ~/.bashrc:
export ANTHROPIC_API_KEY="sk-ant-..."Luego reinicia VMark — no es necesario introducir la clave manualmente.
Configuración: Anthropic (REST)
- Obtén una clave API en console.anthropic.com
- En Configuración > Integraciones de VMark, selecciona Anthropic
- Pega tu clave API
- Elige un modelo (predeterminado:
claude-sonnet-4-5-20250929)
Configuración: OpenAI (REST)
- Obtén una clave API en platform.openai.com
- En Configuración > Integraciones de VMark, selecciona OpenAI
- Pega tu clave API
- Elige un modelo (predeterminado:
gpt-4o)
Configuración: Google AI (REST)
- Obtén una clave API en aistudio.google.com
- En Configuración > Integraciones de VMark, selecciona Google AI
- Pega tu clave API
- Elige un modelo (predeterminado:
gemini-2.0-flash)
Configuración: Ollama API (REST)
Úsalo cuando quieras acceso estilo REST a una instancia local de Ollama, o cuando Ollama esté ejecutándose en otra máquina de tu red.
- Asegúrate de que Ollama esté en ejecución:
ollama serve - En Configuración > Integraciones de VMark, selecciona Ollama (API)
- Establece el endpoint en
http://localhost:11434(o tu host de Ollama) - Deja la clave API vacía
- Establece el modelo con el nombre del modelo que hayas descargado (por ejemplo,
llama3.2)
Elegir un Proveedor
| Situación | Recomendación |
|---|---|
| Ya tienes Claude Code instalado | Claude (CLI) — cero configuración, usa tu suscripción |
| Ya tienes Codex o Gemini instalado | Codex / Gemini (CLI) — usa tu suscripción |
| Necesitas privacidad / uso sin conexión | Instala Ollama → Ollama (CLI) |
| Modelo personalizado o alojado en tu servidor | Ollama (API) con tu endpoint |
| Quieres la opción en la nube más económica | Cualquier proveedor CLI — la suscripción es mucho más barata que la API |
| Sin suscripción, solo uso ocasional | Configura la variable de entorno con la clave API → Proveedor REST (pago por token) |
| Necesitas la mayor calidad de salida | Claude (CLI) o Anthropic (REST) con claude-sonnet-4-5-20250929 |
Modelo Personalizado por Genio
Los genios individuales pueden anular el modelo predeterminado del proveedor usando el campo model en el frontmatter:
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---Esto es útil para dirigir tareas simples a modelos más rápidos y económicos, manteniendo un modelo potente como predeterminado.
Notas de Seguridad
- Las claves API son efímeras — se almacenan solo en memoria, nunca se escriben en disco ni en
localStorage - Las variables de entorno se leen una vez al inicio y se almacenan en memoria
- Los proveedores CLI usan tu autenticación CLI existente — VMark nunca ve tus credenciales
- Todas las solicitudes van directamente desde tu máquina al proveedor — no hay servidores de VMark intermediarios
Solución de Problemas
"No hay proveedor de IA disponible" — Haz clic en Detectar para buscar CLIs, o configura un proveedor REST con una clave API.
La CLI muestra "No encontrado" — La CLI no está en tu $PATH. Instálala o verifica tu perfil de shell. En macOS, las aplicaciones GUI pueden no heredar el $PATH del terminal — intenta añadir la ruta a /etc/paths.d/.
El proveedor REST devuelve 401 — Tu clave API no es válida o ha expirado. Genera una nueva desde la consola del proveedor.
El proveedor REST devuelve 429 — Has alcanzado el límite de solicitudes. Espera un momento e inténtalo de nuevo, o cambia a un proveedor diferente.
Respuestas lentas — Los proveedores CLI añaden sobrecarga de subprocesos. Para respuestas más rápidas, usa proveedores REST que se conectan directamente. Para la opción local más rápida, usa Ollama con un modelo pequeño.
Error de modelo no encontrado — El identificador del modelo no coincide con lo que ofrece el proveedor. Consulta la documentación del proveedor para los nombres de modelo válidos.
Ver También
- Genios de IA — Cómo usar la asistencia de escritura con IA
- Configuración de MCP — Integración de IA externa mediante el Protocolo de Contexto de Modelo