透過 OpenRouter 在 Claude Code 使用 DeepSeek V4 Pro 的方法
Claude Code 是 Anthropic 官方的程式碼代理工具,但透過設定環境變數可以經由 OpenRouter 使用像 DeepSeek V4 Pro 這類其他模型。本文說明該設定方法。
Claude Code 是 Anthropic 官方的程式碼代理工具,但透過設定環境變數可以經由 OpenRouter 使用像 DeepSeek V4 Pro 這類其他模型。本文說明該設定方法。
Claude 若要透過 API 使用,除了直接使用 Anthropic API 外,也能經由 AWS Bedrock、Google Vertex AI、Microsoft Azure (Azure AI Foundry) 使用。基本價格各路徑幾乎相同,但在批次處理與與雲端生態系統整合面會有差異。
單位:USD / 1M 代幣 (MTok)。資料截至 2026 年 3 月。
| 模型 | 項目 | Anthropic API | Bedrock | Vertex AI | Azure |
|---|---|---|---|---|---|
| Claude Opus 4.6 | 輸入 | $5.00 | $5.00 | $5.00 | $5.00 |
| 輸出 | $25.00 | $25.00 | $25.00 | $25.00 | |
| Claude Sonnet 4.6 | 輸入 | $3.00 | $3.00 | $3.00 | $3.00 |
| 輸出 | $15.00 | $15.00 | $15.00 | $15.00 | |
| Claude Haiku 4.5 | 輸入 | $1.00 | $1.00 | $1.00 | $1.00 |
| 輸出 | $5.00 | $5.00 | $5.00 | $5.00 | |
| Claude Sonnet 4.5 | 輸入 | $3.00 | $3.00 | $3.00 | $3.00 |
| 輸出 | $15.00 | $15.00 | $15.00 | $15.00 |
基本價格在各路徑相同。
不過在 Vertex AI 若不是使用全球端點而指定區域端點(regional endpoint),標準價格會額外加收 10%。Bedrock 有 Long Context 變體(另有 SKU),但價格相同。Anthropic API 則已將 Long Context 整合在一般模型中。
Prompt 快取(Prompt Caching)的費用在各路徑也相同。
| 模型 | 快取類型 | Anthropic API | Bedrock | Vertex AI | Azure |
|---|---|---|---|---|---|
| Claude Opus 4.6 | 5 分快取寫入 | $6.25 | $6.25 | $6.25 | $6.25 |
| 1 小時快取寫入 | $10.00 | $10.00 | $10.00 | $10.00 | |
| 快取讀取 | $0.50 | $0.50 | $0.50 | $0.50 | |
| Claude Sonnet 4.6 | 5 分快取寫入 | $3.75 | $3.75 | $3.75 | $3.75 |
| 1 小時快取寫入 | $6.00 | $6.00 | $6.00 | $6.00 | |
| 快取讀取 | $0.30 | $0.30 | $0.30 | $0.30 | |
| Claude Haiku 4.5 | 5 分快取寫入 | $1.25 | $1.25 | $1.25 | $1.25 |
| 1 小時快取寫入 | $2.00 | $2.00 | $2.00 | $2.00 | |
| 快取讀取 | $0.10 | $0.10 | $0.10 | $0.10 |
快取寫入依 TTL 分為 5 分(短期)和 1 小時(長期)兩種。長期快取的寫入成本較高,但如果系統提示(system prompt)很長且會被重複參考,透過節省讀取費用通常是划得來的。
Bedrock、Vertex AI、Anthropic API 三者的非同步批次 API 可享按需價格的 50% 折扣。Azure 目前未明示。
| 模型 | 批次輸入 | 批次輸出 |
|---|---|---|
| Claude Opus 4.6 | $2.50 | $12.50 |
| Claude Sonnet 4.6 | $1.50 | $7.50 |
| Claude Haiku 4.5 | $0.50 | $2.50 |
| Claude Sonnet 4.5 | $1.50 | $7.50 |
若要大量處理資料(例如日誌分析、向量嵌入生成等)並頻繁使用批次處理,無論走哪個路徑都能把成本砍半。
| 比較重點 | Anthropic API | Bedrock | Vertex AI | Azure |
|---|---|---|---|---|
| 基本價格 | 相同 | 相同 | 相同 | 相同 |
| 區域加價 | — | — | +10%(區域端點) | — |
| 批次處理(50% OFF) | ○ | ○ | ○ | 未明示 |
| 東京區域 | — | ○ | ○ | — |
| IAM / 審計日誌整合 | — | AWS | Google Cloud | Azure |
| VPC / PrivateLink | — | ○ | ○ | ○ |
| 計費整合 | Anthropic 直接 | AWS | Google Cloud | Azure |
| 新功能推出速度 | 最快 | 會延遲 | 會延遲 | 會延遲 |
新功能(例如 Extended Thinking)通常會先在 Anthropic API 上推出,向 Vertex AI、Bedrock、Azure 的推展有時會晚幾週。
將「技能」加入 AI 代理人,就像在應用程式安裝功能擴充一樣,可以增加它能做的事情。本文解說 Agent Skills 的運作方式,以及代理人在內部如何處理任務。
首先作為前提,AI 代理人是指「接受指示並能自主執行任務的 AI 程式」。
與像 ChatGPT 那種「問了就回答」的 AI 不同,代理人可以做以下事情:
Agent Skills 是一種「用來為代理人新增能力或專業知識的機制」。
比喻成人類的話,就像把「新的工作手冊」交給對方一樣。閱讀了手冊(技能)的代理人就能理解該任務應如何進行,並據此行動。
無技能: 「寫一篇部落格」→ 代理人隨便寫
有技能: 「寫一篇部落格」→ 按照手冊步驟,以一定品質寫出文章
技能主要以 Markdown 檔案(SKILL.md)描述,通常包含以下要素:
AI 代理人能力很強,但不會預先具備你專案特有的知識。
例如:
這類資訊如果不以技能方式提供,代理人無從得知。有了技能,代理人就能在知道「正確做法」的前提下執行任務。
接下來看看代理人在內部如何運作。
重點如下:
代理人一開始會載入技能。技能內容成為輸入給 LLM 的一部分(提示)。LLM 讀到後會理解「這個任務的正確做法」。
LLM 根據收到的步驟,將任務拆成小步驟。例如「先閱讀既有文章 3 篇」「接著決定檔名」「寫 front matter」等。
在每個步驟中,視需要呼叫工具:讀檔、搜尋網路、執行程式碼等,依照技能定義的流程執行。
工具執行的結果會再次傳回給 LLM。LLM 根據結果判斷「下一步要做什麼」,並持續迴圈直到任務完成。
技能可以透過斜線指令(/命令名)來呼叫。
呼叫指令時,對應的 Markdown 檔內容會被展開為提示,代理人就會開始依該步驟執行。
Agent Skills 的格式是 由 Anthropic 開發並開放的,目前支援許多工具。
| 工具 | 是否支援 |
|---|---|
| Claude Code | ✅ |
| GitHub Copilot | ✅ |
| Cursor | ✅ |
| Gemini CLI | ✅ |
| OpenAI Codex | ✅ |
| VS Code | ✅ |
同一套技能能在多個工具間重複使用,這是很大的優勢。
SKILL.md)描述步驟與規則,就能建立技能善用技能可以省去「每次都要向 AI 解釋同一件事」的麻煩,讓代理人以一致的品質完成任務。