AI 提供商
VMark 的 AI 精灵需要 AI 提供商来生成建议。你可以使用本地安装的 CLI 工具,或直接连接到 REST API。
快速设置
最快的上手方式:
- 打开 设置 > 集成
- 点击 检测 扫描已安装的 CLI 工具
- 如果找到 CLI(例如 Claude、Gemini),选择它——完成
- 如果没有可用的 CLI,选择 REST 提供商,输入 API 密钥,然后选择模型
每次只能激活一个提供商。
CLI 提供商
CLI 提供商使用本地安装的 AI 工具。VMark 将它们作为子进程运行,并将输出流式传输回编辑器。
| 提供商 | CLI 命令 | 安装方式 |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
CLI 检测工作原理
在设置 > 集成中点击 检测。VMark 在你的 $PATH 中搜索每个 CLI 命令并报告可用性。如果找到 CLI,其单选按钮变为可选。
优势
- 无需 API 密钥——CLI 使用你现有的登录凭据处理认证
- 大幅降低成本——CLI 工具使用你的订阅计划(例如 Claude Max、ChatGPT Plus/Pro、Google One AI Premium),这是固定的月费。REST API 提供商按 token 计费,大量使用时可能贵 10–30 倍
- 使用你的 CLI 配置——模型偏好、系统提示词和计费均由 CLI 自身管理
面向开发者的订阅与 API 对比
如果你同时使用这些工具进行代码生成(Claude Code、Codex CLI、Gemini CLI),同一订阅涵盖 VMark 的 AI 精灵和你的编码会话——无额外费用。
设置:Claude CLI
- 安装 Claude Code:
npm install -g @anthropic-ai/claude-code - 在终端运行一次
claude进行认证 - 在 VMark 中点击 检测,然后选择 Claude
设置:Gemini CLI
- 安装 Gemini CLI:
npm install -g @google/gemini-cli(或通过官方仓库) - 运行一次
gemini,用 Google 账号认证 - 在 VMark 中点击 检测,然后选择 Gemini
REST API 提供商
REST 提供商直接连接到云端 API。每个提供商需要端点、API 密钥和模型名称。
| 提供商 | 默认端点 | 环境变量 |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (内置) | GOOGLE_API_KEY 或 GEMINI_API_KEY |
| Ollama (API) | http://localhost:11434 | — |
配置字段
选择 REST 提供商后,会出现三个字段:
- API 端点——基础 URL(Google AI 使用固定端点,该字段隐藏)
- API 密钥——你的密钥(仅存储在内存中——不写入磁盘)
- 模型——模型标识符(例如
claude-sonnet-4-5-20250929、gpt-4o、gemini-2.0-flash)
环境变量自动填充
VMark 在启动时读取标准环境变量。如果你的 Shell 配置文件中设置了 ANTHROPIC_API_KEY、OPENAI_API_KEY 或 GEMINI_API_KEY,选择该提供商时 API 密钥字段会自动填充。
这意味着你只需在 ~/.zshrc 或 ~/.bashrc 中设置一次密钥:
export ANTHROPIC_API_KEY="sk-ant-..."然后重启 VMark——无需手动输入密钥。
设置:Anthropic(REST)
- 从 console.anthropic.com 获取 API 密钥
- 在 VMark 设置 > 集成中选择 Anthropic
- 粘贴你的 API 密钥
- 选择模型(默认:
claude-sonnet-4-5-20250929)
设置:OpenAI(REST)
- 从 platform.openai.com 获取 API 密钥
- 在 VMark 设置 > 集成中选择 OpenAI
- 粘贴你的 API 密钥
- 选择模型(默认:
gpt-4o)
设置:Google AI(REST)
- 从 aistudio.google.com 获取 API 密钥
- 在 VMark 设置 > 集成中选择 Google AI
- 粘贴你的 API 密钥
- 选择模型(默认:
gemini-2.0-flash)
设置:Ollama API(REST)
当你想以 REST 方式访问本地 Ollama 实例,或 Ollama 运行在网络中的另一台机器上时使用。
- 确保 Ollama 正在运行:
ollama serve - 在 VMark 设置 > 集成中选择 Ollama (API)
- 将端点设置为
http://localhost:11434(或你的 Ollama 主机地址) - 留空 API 密钥
- 将模型设置为你已拉取的模型名称(例如
llama3.2)
选择提供商
| 情况 | 推荐 |
|---|---|
| 已安装 Claude Code | Claude(CLI)——零配置,使用你的订阅 |
| 已安装 Codex 或 Gemini | Codex / Gemini(CLI)——使用你的订阅 |
| 需要隐私/离线 | 安装 Ollama → Ollama(CLI) |
| 自定义或自托管模型 | 使用你的端点的 Ollama(API) |
| 想要最便宜的云服务 | 任意 CLI 提供商——订阅费比 API 便宜得多 |
| 无订阅,仅轻量使用 | 设置 API 密钥环境变量 → REST 提供商(按 token 付费) |
| 需要最高质量输出 | Claude(CLI) 或 Anthropic(REST),使用 claude-sonnet-4-5-20250929 |
单个精灵模型覆盖
单个精灵可以使用 model 前置内容字段覆盖提供商的默认模型:
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---
```---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---这对于将简单任务路由到更快/更便宜的模型同时保持强大的默认值非常有用。
安全说明
- API 密钥是临时的——仅存储在内存中,不写入磁盘或
localStorage - 环境变量 在启动时读取一次并缓存在内存中
- CLI 提供商 使用你现有的 CLI 认证——VMark 从不接触你的凭据
- 所有请求 直接从你的机器发送到提供商——中间没有 VMark 服务器
故障排除
"无可用 AI 提供商"——点击 检测 扫描 CLI,或用 API 密钥配置 REST 提供商。
CLI 显示"未找到"——CLI 不在你的 $PATH 中。安装它或检查你的 Shell 配置文件。在 macOS 上,GUI 应用可能不继承终端的 $PATH——尝试将路径添加到 /etc/paths.d/。
REST 提供商返回 401——你的 API 密钥无效或已过期。从提供商的控制台生成新密钥。
REST 提供商返回 429——你已触及速率限制。稍等片刻后重试,或切换到其他提供商。
响应缓慢——CLI 提供商会产生子进程开销。要获得更快的响应,请使用直接连接的 REST 提供商。本地最快的选项是使用小型模型的 Ollama。
模型未找到错误——模型标识符与提供商提供的不匹配。查阅提供商文档获取有效模型名称。