Skip to content

AI 提供商

VMark 的 AI 精灵需要 AI 提供商来生成建议。你可以使用本地安装的 CLI 工具,或直接连接到 REST API。

快速设置

最快的上手方式:

  1. 打开 设置 > 集成
  2. 点击 检测 扫描已安装的 CLI 工具
  3. 如果找到 CLI(例如 Claude、Gemini),选择它——完成
  4. 如果没有可用的 CLI,选择 REST 提供商,输入 API 密钥,然后选择模型

每次只能激活一个提供商。

CLI 提供商

CLI 提供商使用本地安装的 AI 工具。VMark 将它们作为子进程运行,并将输出流式传输回编辑器。

提供商CLI 命令安装方式
ClaudeclaudeClaude Code
CodexcodexOpenAI Codex CLI
GeminigeminiGoogle Gemini CLI

CLI 检测工作原理

在设置 > 集成中点击 检测。VMark 在你的 $PATH 中搜索每个 CLI 命令并报告可用性。如果找到 CLI,其单选按钮变为可选。

优势

  • 无需 API 密钥——CLI 使用你现有的登录凭据处理认证
  • 大幅降低成本——CLI 工具使用你的订阅计划(例如 Claude Max、ChatGPT Plus/Pro、Google One AI Premium),这是固定的月费。REST API 提供商按 token 计费,大量使用时可能贵 10–30 倍
  • 使用你的 CLI 配置——模型偏好、系统提示词和计费均由 CLI 自身管理

面向开发者的订阅与 API 对比

如果你同时使用这些工具进行代码生成(Claude Code、Codex CLI、Gemini CLI),同一订阅涵盖 VMark 的 AI 精灵和你的编码会话——无额外费用。

设置:Claude CLI

  1. 安装 Claude Code:npm install -g @anthropic-ai/claude-code
  2. 在终端运行一次 claude 进行认证
  3. 在 VMark 中点击 检测,然后选择 Claude

设置:Gemini CLI

  1. 安装 Gemini CLI:npm install -g @google/gemini-cli(或通过官方仓库
  2. 运行一次 gemini,用 Google 账号认证
  3. 在 VMark 中点击 检测,然后选择 Gemini

REST API 提供商

REST 提供商直接连接到云端 API。每个提供商需要端点、API 密钥和模型名称。

提供商默认端点环境变量
Anthropichttps://api.anthropic.comANTHROPIC_API_KEY
OpenAIhttps://api.openai.comOPENAI_API_KEY
Google AI(内置)GOOGLE_API_KEYGEMINI_API_KEY
Ollama (API)http://localhost:11434

配置字段

选择 REST 提供商后,会出现三个字段:

  • API 端点——基础 URL(Google AI 使用固定端点,该字段隐藏)
  • API 密钥——你的密钥(仅存储在内存中——不写入磁盘)
  • 模型——模型标识符(例如 claude-sonnet-4-5-20250929gpt-4ogemini-2.0-flash

环境变量自动填充

VMark 在启动时读取标准环境变量。如果你的 Shell 配置文件中设置了 ANTHROPIC_API_KEYOPENAI_API_KEYGEMINI_API_KEY,选择该提供商时 API 密钥字段会自动填充。

这意味着你只需在 ~/.zshrc~/.bashrc 中设置一次密钥:

bash
export ANTHROPIC_API_KEY="sk-ant-..."

然后重启 VMark——无需手动输入密钥。

设置:Anthropic(REST)

  1. console.anthropic.com 获取 API 密钥
  2. 在 VMark 设置 > 集成中选择 Anthropic
  3. 粘贴你的 API 密钥
  4. 选择模型(默认:claude-sonnet-4-5-20250929

设置:OpenAI(REST)

  1. platform.openai.com 获取 API 密钥
  2. 在 VMark 设置 > 集成中选择 OpenAI
  3. 粘贴你的 API 密钥
  4. 选择模型(默认:gpt-4o

设置:Google AI(REST)

  1. aistudio.google.com 获取 API 密钥
  2. 在 VMark 设置 > 集成中选择 Google AI
  3. 粘贴你的 API 密钥
  4. 选择模型(默认:gemini-2.0-flash

设置:Ollama API(REST)

当你想以 REST 方式访问本地 Ollama 实例,或 Ollama 运行在网络中的另一台机器上时使用。

  1. 确保 Ollama 正在运行:ollama serve
  2. 在 VMark 设置 > 集成中选择 Ollama (API)
  3. 将端点设置为 http://localhost:11434(或你的 Ollama 主机地址)
  4. 留空 API 密钥
  5. 将模型设置为你已拉取的模型名称(例如 llama3.2

选择提供商

情况推荐
已安装 Claude CodeClaude(CLI)——零配置,使用你的订阅
已安装 Codex 或 GeminiCodex / Gemini(CLI)——使用你的订阅
需要隐私/离线安装 Ollama → Ollama(CLI)
自定义或自托管模型使用你的端点的 Ollama(API)
想要最便宜的云服务任意 CLI 提供商——订阅费比 API 便宜得多
无订阅,仅轻量使用设置 API 密钥环境变量 → REST 提供商(按 token 付费)
需要最高质量输出Claude(CLI)Anthropic(REST),使用 claude-sonnet-4-5-20250929

单个精灵模型覆盖

单个精灵可以使用 model 前置内容字段覆盖提供商的默认模型:

markdown
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---
```---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---

这对于将简单任务路由到更快/更便宜的模型同时保持强大的默认值非常有用。

安全说明

  • API 密钥是临时的——仅存储在内存中,不写入磁盘或 localStorage
  • 环境变量 在启动时读取一次并缓存在内存中
  • CLI 提供商 使用你现有的 CLI 认证——VMark 从不接触你的凭据
  • 所有请求 直接从你的机器发送到提供商——中间没有 VMark 服务器

故障排除

"无可用 AI 提供商"——点击 检测 扫描 CLI,或用 API 密钥配置 REST 提供商。

CLI 显示"未找到"——CLI 不在你的 $PATH 中。安装它或检查你的 Shell 配置文件。在 macOS 上,GUI 应用可能不继承终端的 $PATH——尝试将路径添加到 /etc/paths.d/

REST 提供商返回 401——你的 API 密钥无效或已过期。从提供商的控制台生成新密钥。

REST 提供商返回 429——你已触及速率限制。稍等片刻后重试,或切换到其他提供商。

响应缓慢——CLI 提供商会产生子进程开销。要获得更快的响应,请使用直接连接的 REST 提供商。本地最快的选项是使用小型模型的 Ollama。

模型未找到错误——模型标识符与提供商提供的不匹配。查阅提供商文档获取有效模型名称。

另请参阅

  • AI 精灵——如何使用 AI 写作辅助
  • MCP 设置——通过模型上下文协议进行外部 AI 集成