AI 供應商
VMark 的 AI 精靈需要 AI 供應商來生成建議。你可以使用本地安裝的 CLI 工具,或直接連接至 REST API。
快速設定
最快的入門方式:
- 開啟 設定 > 整合
- 點擊 偵測 以掃描已安裝的 CLI 工具
- 若找到 CLI(例如 Claude、Gemini),選取它即可完成設定
- 若無可用的 CLI,選擇 REST 供應商,輸入 API 金鑰,然後選取模型
每次只能有一個活躍的供應商。
CLI 供應商
CLI 供應商使用本地安裝的 AI 工具。VMark 以子程序方式執行它們,並將輸出串流回編輯器。
| 供應商 | CLI 指令 | 安裝 |
|---|---|---|
| Claude | claude | Claude Code |
| Codex | codex | OpenAI Codex CLI |
| Gemini | gemini | Google Gemini CLI |
CLI 偵測的運作原理
點擊設定 > 整合中的 偵測。VMark 在你的 $PATH 中搜尋每個 CLI 指令並回報可用性。若找到 CLI,其選鈕即可選取。
優點
- 無需 API 金鑰 — CLI 使用你現有的登入憑證進行身份驗證
- 大幅降低費用 — CLI 工具使用你的訂閱方案(例如 Claude Max、ChatGPT Plus/Pro、Google One AI Premium),收取固定月費。REST API 供應商按 Token 計費,大量使用時費用可能是 10–30 倍
- 使用你的 CLI 設定 — 模型偏好設定、系統提示和帳單均由 CLI 本身管理
開發者的訂閱 vs API 費用比較
若你也將這些工具用於 vibe 編程(Claude Code、Codex CLI、Gemini CLI),同一個訂閱同時涵蓋 VMark 的 AI 精靈和你的編程工作階段 — 無需額外費用。
設定:Claude CLI
- 安裝 Claude Code:
npm install -g @anthropic-ai/claude-code - 在終端機中執行一次
claude進行身份驗證 - 在 VMark 中點擊 偵測,然後選取 Claude
設定:Gemini CLI
- 安裝 Gemini CLI:
npm install -g @google/gemini-cli(或透過官方倉庫) - 執行一次
gemini以使用 Google 帳戶進行身份驗證 - 在 VMark 中點擊 偵測,然後選取 Gemini
REST API 供應商
REST 供應商直接連接至雲端 API。每個供應商需要端點、API 金鑰和模型名稱。
| 供應商 | 預設端點 | 環境變數 |
|---|---|---|
| Anthropic | https://api.anthropic.com | ANTHROPIC_API_KEY |
| OpenAI | https://api.openai.com | OPENAI_API_KEY |
| Google AI | (內建) | GOOGLE_API_KEY 或 GEMINI_API_KEY |
| Ollama(API) | http://localhost:11434 | — |
設定欄位
選取 REST 供應商時,會出現三個欄位:
- API 端點 — 基礎 URL(Google AI 為隱藏,使用固定端點)
- API 金鑰 — 你的秘密金鑰(僅儲存在記憶體中 — 永不寫入磁碟)
- 模型 — 模型識別符(例如
claude-sonnet-4-5-20250929、gpt-4o、gemini-2.0-flash)
環境變數自動填入
VMark 在啟動時讀取標準環境變數。若 ANTHROPIC_API_KEY、OPENAI_API_KEY 或 GEMINI_API_KEY 已在你的 shell 設定檔中設定,選取該供應商時 API 金鑰欄位會自動填入。
這意味著你可以在 ~/.zshrc 或 ~/.bashrc 中設定一次金鑰:
export ANTHROPIC_API_KEY="sk-ant-..."然後重新啟動 VMark — 無需手動輸入金鑰。
設定:Anthropic(REST)
- 從 console.anthropic.com 取得 API 金鑰
- 在 VMark 設定 > 整合中,選取 Anthropic
- 貼上你的 API 金鑰
- 選擇模型(預設:
claude-sonnet-4-5-20250929)
設定:OpenAI(REST)
- 從 platform.openai.com 取得 API 金鑰
- 在 VMark 設定 > 整合中,選取 OpenAI
- 貼上你的 API 金鑰
- 選擇模型(預設:
gpt-4o)
設定:Google AI(REST)
- 從 aistudio.google.com 取得 API 金鑰
- 在 VMark 設定 > 整合中,選取 Google AI
- 貼上你的 API 金鑰
- 選擇模型(預設:
gemini-2.0-flash)
設定:Ollama API(REST)
當你希望以 REST 方式存取本地 Ollama 實例,或 Ollama 在網路中的其他電腦上執行時,使用此方式。
- 確認 Ollama 正在執行:
ollama serve - 在 VMark 設定 > 整合中,選取 Ollama (API)
- 將端點設為
http://localhost:11434(或你的 Ollama 主機) - 將 API 金鑰留空
- 將模型設為你已下載的模型名稱(例如
llama3.2)
選擇供應商
| 情境 | 建議 |
|---|---|
| 已安裝 Claude Code | Claude (CLI) — 零設定,使用你的訂閱 |
| 已安裝 Codex 或 Gemini | Codex / Gemini (CLI) — 使用你的訂閱 |
| 需要隱私/離線使用 | 安裝 Ollama → 在 http://localhost:11434 使用 Ollama (API) |
| 自訂或自架模型 | Ollama (API),使用你的端點 |
| 想要最便宜的雲端選項 | 任何 CLI 供應商 — 訂閱比 API 便宜得多 |
| 無訂閱,僅輕度使用 | 設定 API 金鑰環境變數 → REST 供應商(按 Token 計費) |
| 需要最高品質輸出 | Claude (CLI) 或 Anthropic (REST),使用 claude-sonnet-4-5-20250929 |
每個精靈的模型覆蓋
個別精靈可使用 model 前置資料欄位覆蓋供應商的預設模型:
---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---
```---
name: quick-fix
description: Quick grammar fix
scope: selection
model: claude-haiku-4-5-20251001
---這適合將簡單任務路由至更快/更便宜的模型,同時保留強大的預設值。
可靠性與逾時機制
VMark 對每個供應商的呼叫都設有防護機制,確保 CLI 卡住或 API 回應格式錯誤時,不會封鎖編輯器:
- CLI 子程序逾時:每次 CLI 供應商的呼叫都會在執行逾時限制下運行。若 CLI 未回應,VMark 會取消呼叫,將錯誤回傳給精靈,並釋放工作執行緒 — 執行緒池不會被失控的子程序卡住。
- REST JSON 解析安全:若 REST 供應商回傳非預期的回應格式(HTML 錯誤頁面、截斷的 JSON、上游變更後的結構偏移),VMark 會向前端回傳型別化錯誤,而非讓 AI 監聽器永久等待。你會在精靈的狀態橫幅中看到錯誤,並可選擇重試。
- 取消權杖:長時間執行的精靈或工作流程步驟可隨時取消 — 在精靈選取器中點擊取消,或關閉面板,即可乾淨地中止進行中的請求。
- 共用 HTTP 用戶端:REST 供應商共用單一具連線池的
reqwest用戶端,因此連續的精靈執行不需要每次都重新進行 TCP/TLS 握手。 - Windows 路徑探索:在 Windows 上,VMark 在偵測 CLI 時會讀取使用者的完整
PATH(包含僅限 PowerShell 的項目),因此在終端機中可用的使用者安裝工具,在 VMark 內也能正常使用。
安全注意事項
- API 金鑰為暫存 — 只儲存在記憶體中,永不寫入磁碟或
localStorage - 環境變數 在啟動時讀取一次並快取在記憶體中
- CLI 供應商 使用你現有的 CLI 身份驗證 — VMark 永遠看不到你的憑證
- 所有請求直接 從你的電腦發送至供應商 — 中間沒有 VMark 伺服器
疑難排解
「無可用的 AI 供應商」 — 點擊 偵測 掃描 CLI,或設定帶有 API 金鑰的 REST 供應商。
CLI 顯示「未找到」 — CLI 不在你的 $PATH 中。安裝它或檢查你的 shell 設定檔。在 macOS 上,GUI 應用程式可能無法繼承終端機的 $PATH — 嘗試將路徑加入 /etc/paths.d/。
REST 供應商返回 401 — 你的 API 金鑰無效或已過期。從供應商控制台生成新的金鑰。
REST 供應商返回 429 — 你已達到速率上限。稍等後重試,或切換至其他供應商。
CLI 卡住 / 無回應 — VMark 的執行逾時會自動取消呼叫;你會在精靈狀態橫幅中看到錯誤。若特定 CLI 持續觸發逾時,請先在終端機中直接執行該 CLI 確認可正常運作,再確認是否需要互動式驗證。
REST 供應商回傳亂碼 / 非預期的 JSON — VMark 會顯示型別化解析錯誤(例如「list_models 回傳非預期的回應格式」)。請確認端點 URL 正確,且所選供應商類型的 API 合約相符;某些自架閘道雖宣稱相容於 OpenAI 的 URL,但實際上使用不同結構。
回應緩慢 — CLI 供應商會增加子程序開銷。如需更快的回應,請使用直接連接的 REST 供應商。最快的本地選項是使用小型模型的 Ollama。
找不到模型錯誤 — 模型識別符與供應商提供的不符。查閱供應商文件以取得有效的模型名稱。