Skip to content

AI 供應商

VMark 的 AI 精靈需要 AI 供應商來生成建議。你可以使用本地安裝的 CLI 工具,或直接連接至 REST API。

快速設定

最快的入門方式:

  1. 開啟 設定 > 整合
  2. 點擊 偵測 以掃描已安裝的 CLI 工具
  3. 若找到 CLI(例如 Claude、Gemini),選取它即可完成設定
  4. 若無可用的 CLI,選擇 REST 供應商,輸入 API 金鑰,然後選取模型

每次只能有一個活躍的供應商。

CLI 供應商

CLI 供應商使用本地安裝的 AI 工具。VMark 以子程序方式執行它們,並將輸出串流回編輯器。

供應商CLI 指令安裝
ClaudeclaudeClaude Code
CodexcodexOpenAI Codex CLI
GeminigeminiGoogle Gemini CLI

CLI 偵測的運作原理

點擊設定 > 整合中的 偵測。VMark 在你的 $PATH 中搜尋每個 CLI 指令並回報可用性。若找到 CLI,其選鈕即可選取。

優點

  • 無需 API 金鑰 — CLI 使用你現有的登入憑證進行身份驗證
  • 大幅降低費用 — CLI 工具使用你的訂閱方案(例如 Claude Max、ChatGPT Plus/Pro、Google One AI Premium),收取固定月費。REST API 供應商按 Token 計費,大量使用時費用可能是 10–30 倍
  • 使用你的 CLI 設定 — 模型偏好設定、系統提示和帳單均由 CLI 本身管理

開發者的訂閱 vs API 費用比較

若你也將這些工具用於 vibe 編程(Claude Code、Codex CLI、Gemini CLI),同一個訂閱同時涵蓋 VMark 的 AI 精靈和你的編程工作階段 — 無需額外費用。

設定:Claude CLI

  1. 安裝 Claude Code:npm install -g @anthropic-ai/claude-code
  2. 在終端機中執行一次 claude 進行身份驗證
  3. 在 VMark 中點擊 偵測,然後選取 Claude

設定:Gemini CLI

  1. 安裝 Gemini CLI:npm install -g @google/gemini-cli(或透過官方倉庫
  2. 執行一次 gemini 以使用 Google 帳戶進行身份驗證
  3. 在 VMark 中點擊 偵測,然後選取 Gemini

REST API 供應商

REST 供應商直接連接至雲端 API。每個供應商需要端點、API 金鑰和模型名稱。

供應商預設端點環境變數
Anthropichttps://api.anthropic.comANTHROPIC_API_KEY
OpenAIhttps://api.openai.comOPENAI_API_KEY
Google AI(內建)GOOGLE_API_KEYGEMINI_API_KEY
Ollama(API)http://localhost:11434

設定欄位

選取 REST 供應商時,會出現三個欄位:

  • API 端點 — 基礎 URL(Google AI 為隱藏,使用固定端點)
  • API 金鑰 — 你的秘密金鑰(僅儲存在記憶體中 — 永不寫入磁碟)
  • 模型 — 模型識別符(例如 claude-sonnet-4-5-20250929gpt-4ogemini-2.0-flash

環境變數自動填入

VMark 在啟動時讀取標準環境變數。若 ANTHROPIC_API_KEYOPENAI_API_KEYGEMINI_API_KEY 已在你的 shell 設定檔中設定,選取該供應商時 API 金鑰欄位會自動填入。

這意味著你可以在 ~/.zshrc~/.bashrc 中設定一次金鑰:

bash
export ANTHROPIC_API_KEY="sk-ant-..."

然後重新啟動 VMark — 無需手動輸入金鑰。

設定:Anthropic(REST)

  1. console.anthropic.com 取得 API 金鑰
  2. 在 VMark 設定 > 整合中,選取 Anthropic
  3. 貼上你的 API 金鑰
  4. 選擇模型(預設:claude-sonnet-4-5-20250929

設定:OpenAI(REST)

  1. platform.openai.com 取得 API 金鑰
  2. 在 VMark 設定 > 整合中,選取 OpenAI
  3. 貼上你的 API 金鑰
  4. 選擇模型(預設:gpt-4o

設定:Google AI(REST)

  1. aistudio.google.com 取得 API 金鑰
  2. 在 VMark 設定 > 整合中,選取 Google AI
  3. 貼上你的 API 金鑰
  4. 選擇模型(預設:gemini-2.0-flash

設定:Ollama API(REST)

當你希望以 REST 方式存取本地 Ollama 實例,或 Ollama 在網路中的其他電腦上執行時,使用此方式。

  1. 確認 Ollama 正在執行:ollama serve
  2. 在 VMark 設定 > 整合中,選取 Ollama (API)
  3. 將端點設為 http://localhost:11434(或你的 Ollama 主機)
  4. 將 API 金鑰留空
  5. 將模型設為你已下載的模型名稱(例如 llama3.2

選擇供應商

情境建議
已安裝 Claude CodeClaude (CLI) — 零設定,使用你的訂閱
已安裝 Codex 或 GeminiCodex / Gemini (CLI) — 使用你的訂閱
需要隱私/離線使用安裝 Ollama → 在 http://localhost:11434 使用 Ollama (API)
自訂或自架模型Ollama (API),使用你的端點
想要最便宜的雲端選項任何 CLI 供應商 — 訂閱比 API 便宜得多
無訂閱,僅輕度使用設定 API 金鑰環境變數 → REST 供應商(按 Token 計費)
需要最高品質輸出Claude (CLI)Anthropic (REST),使用 claude-sonnet-4-5-20250929

每個精靈的模型覆蓋

個別精靈可使用 model 前置資料欄位覆蓋供應商的預設模型:

markdown
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---
```---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---

這適合將簡單任務路由至更快/更便宜的模型,同時保留強大的預設值。

可靠性與逾時機制

VMark 對每個供應商的呼叫都設有防護機制,確保 CLI 卡住或 API 回應格式錯誤時,不會封鎖編輯器:

  • CLI 子程序逾時:每次 CLI 供應商的呼叫都會在執行逾時限制下運行。若 CLI 未回應,VMark 會取消呼叫,將錯誤回傳給精靈,並釋放工作執行緒 — 執行緒池不會被失控的子程序卡住。
  • REST JSON 解析安全:若 REST 供應商回傳非預期的回應格式(HTML 錯誤頁面、截斷的 JSON、上游變更後的結構偏移),VMark 會向前端回傳型別化錯誤,而非讓 AI 監聽器永久等待。你會在精靈的狀態橫幅中看到錯誤,並可選擇重試。
  • 取消權杖:長時間執行的精靈或工作流程步驟可隨時取消 — 在精靈選取器中點擊取消,或關閉面板,即可乾淨地中止進行中的請求。
  • 共用 HTTP 用戶端:REST 供應商共用單一具連線池的 reqwest 用戶端,因此連續的精靈執行不需要每次都重新進行 TCP/TLS 握手。
  • Windows 路徑探索:在 Windows 上,VMark 在偵測 CLI 時會讀取使用者的完整 PATH(包含僅限 PowerShell 的項目),因此在終端機中可用的使用者安裝工具,在 VMark 內也能正常使用。

安全注意事項

  • API 金鑰為暫存 — 只儲存在記憶體中,永不寫入磁碟或 localStorage
  • 環境變數 在啟動時讀取一次並快取在記憶體中
  • CLI 供應商 使用你現有的 CLI 身份驗證 — VMark 永遠看不到你的憑證
  • 所有請求直接 從你的電腦發送至供應商 — 中間沒有 VMark 伺服器

疑難排解

「無可用的 AI 供應商」 — 點擊 偵測 掃描 CLI,或設定帶有 API 金鑰的 REST 供應商。

CLI 顯示「未找到」 — CLI 不在你的 $PATH 中。安裝它或檢查你的 shell 設定檔。在 macOS 上,GUI 應用程式可能無法繼承終端機的 $PATH — 嘗試將路徑加入 /etc/paths.d/

REST 供應商返回 401 — 你的 API 金鑰無效或已過期。從供應商控制台生成新的金鑰。

REST 供應商返回 429 — 你已達到速率上限。稍等後重試,或切換至其他供應商。

CLI 卡住 / 無回應 — VMark 的執行逾時會自動取消呼叫;你會在精靈狀態橫幅中看到錯誤。若特定 CLI 持續觸發逾時,請先在終端機中直接執行該 CLI 確認可正常運作,再確認是否需要互動式驗證。

REST 供應商回傳亂碼 / 非預期的 JSON — VMark 會顯示型別化解析錯誤(例如「list_models 回傳非預期的回應格式」)。請確認端點 URL 正確,且所選供應商類型的 API 合約相符;某些自架閘道雖宣稱相容於 OpenAI 的 URL,但實際上使用不同結構。

回應緩慢 — CLI 供應商會增加子程序開銷。如需更快的回應,請使用直接連接的 REST 供應商。最快的本地選項是使用小型模型的 Ollama。

找不到模型錯誤 — 模型識別符與供應商提供的不符。查閱供應商文件以取得有效的模型名稱。

延伸閱讀

  • AI 精靈 — 如何使用 AI 寫作輔助
  • MCP 設定 — 透過模型情境協定進行外部 AI 整合