Appearance
本页是 OpenClaw 模型 provider 的完整参考:内置 pi-ai 目录(OpenAI、Anthropic、Gemini、Codex、OpenCode 等)和自定义 provider(Moonshot/Kimi、火山引擎、BytePlus、Ollama、vLLM 等)的配置示例。包含 API Key 环境变量、模型 ID 规则、key 轮换配置。
模型 Provider
本页覆盖 LLM/模型 provider(不包括 WhatsApp/Telegram 等聊天渠道)。模型选择规则参考模型概念页。
快速规则
- 模型引用格式:
provider/model(例如opencode/claude-opus-4-6) - 设置了
agents.defaults.models后,它成为 allowlist - CLI 辅助命令:
openclaw onboard、openclaw models list、openclaw models set <provider/model> - 故障转移运行时规则、冷却探测和 session override 持久化详见模型故障转移
内置 Provider(pi-ai 目录)
以下 provider 无需额外配置 models.providers,只需设置 Auth 并选择模型。
OpenAI
- Provider ID:
openai - Auth:
OPENAI_API_KEY - Key 轮换:
OPENAI_API_KEYS、OPENAI_API_KEY_1/2、OPENCLAW_LIVE_OPENAI_KEY(单 key 实时覆盖) - 示例模型:
openai/gpt-5.4、openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key
json5
{
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}Anthropic
- Provider ID:
anthropic - Auth:
ANTHROPIC_API_KEY - 示例模型:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 计费说明:Anthropic 于 2026-04-04 通知 OpenClaw 用户,OpenClaw 属于第三方工具,通过 Claude 账号登录需要额外的 Extra Usage 计费(与订阅分开)。推荐使用 API Key。
json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}OpenAI Codex(ChatGPT OAuth)
- Provider ID:
openai-codex - Auth:ChatGPT OAuth
- 示例模型:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codex
json5
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}OpenCode(Zen / Go 运行时)
- Auth:
OPENCODE_API_KEY或OPENCODE_ZEN_API_KEY - Zen 运行时:
opencode;Go 运行时:opencode-go - 示例模型:
opencode/claude-opus-4-6、opencode-go/kimi-k2.5
json5
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}Google Gemini(API Key)
- Provider ID:
google - Auth:
GEMINI_API_KEY(也支持GOOGLE_API_KEY作为回退) - 示例模型:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
Z.AI(GLM 系列)
- Provider ID:
zai - Auth:
ZAI_API_KEY - 示例模型:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key
其他内置 Provider(快速参考)
| Provider | ID | Auth 环境变量 | 示例模型 |
|---|---|---|---|
| OpenRouter | openrouter | OPENROUTER_API_KEY | openrouter/auto |
| Kilo Gateway | kilocode | KILOCODE_API_KEY | kilocode/kilo/auto |
| MiniMax | minimax / minimax-portal | MINIMAX_API_KEY | minimax/MiniMax-M2.7 |
| Moonshot (Kimi) | moonshot | MOONSHOT_API_KEY | moonshot/kimi-k2.5 |
| Kimi Coding | kimi | KIMI_API_KEY | kimi/kimi-code |
| Mistral | mistral | MISTRAL_API_KEY | mistral/mistral-large-latest |
| Groq | groq | GROQ_API_KEY | — |
| Qwen Cloud | qwen | QWEN_API_KEY | qwen/qwen3.5-plus |
| xAI | xai | XAI_API_KEY | — |
| GitHub Copilot | github-copilot | COPILOT_GITHUB_TOKEN | — |
| Hugging Face | huggingface | HUGGINGFACE_HUB_TOKEN | huggingface/deepseek-ai/DeepSeek-R1 |
自定义 Provider(models.providers)
火山引擎(Volcengine / 豆包)
面向中国用户,提供豆包等模型。
- Provider ID:
volcengine(编程:volcengine-plan) - Auth:
VOLCANO_ENGINE_API_KEY - CLI:
openclaw onboard --auth-choice volcengine-api-key
json5
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}可用编程模型:volcengine-plan/ark-code-latest、volcengine-plan/kimi-k2.5、volcengine-plan/glm-4.7
BytePlus(国际版)
- Provider ID:
byteplus(编程:byteplus-plan) - Auth:
BYTEPLUS_API_KEY - CLI:
openclaw onboard --auth-choice byteplus-api-key
Ollama(本地运行)
无需 Auth,本地服务器运行:
bash
ollama pull llama3.3json5
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}自动在 http://127.0.0.1:11434 检测。设置 OLLAMA_API_KEY 任意值即可 opt-in。
vLLM(本地/自托管)
- Provider ID:
vllm - 默认 baseUrl:
http://127.0.0.1:8000/v1
bash
export VLLM_API_KEY="vllm-local"json5
{
agents: { defaults: { model: { primary: "vllm/your-model-id" } } },
}本地代理(LM Studio、LiteLLM 等)
json5
{
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "LMSTUDIO_KEY",
api: "openai-completions",
models: [{ id: "my-local-model", name: "Local Model" }],
},
},
},
}API Key 轮换
支持以下格式配置多个 key,按优先级从高到低:
OPENCLAW_LIVE_<PROVIDER>_KEY(单 key 实时覆盖,最高优先)<PROVIDER>_API_KEYS(逗号或分号分隔列表)<PROVIDER>_API_KEY(主 key)<PROVIDER>_API_KEY_*(编号列表,如KEY_1、KEY_2)
仅在限流响应(429、rate_limit、quota 等)时切换到下一个 key。
CLI 示例
bash
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list常见问题
Q: 国内用户推荐哪个 provider?
A: 对网络限制较多的场景,火山引擎(volcengine-plan)和 Qwen Cloud(qwen)都提供国内访问端点。Kimi Coding(kimi)也是不错的选择。
Q: 怎么同时配置多个 provider 作为 fallback?
A: 在 agents.defaults.model.fallbacks 配置 fallback 链,详见模型故障转移。
Q: 自定义 proxy 配置有哪些注意事项?
A: api: "openai-completions" + 非 api.openai.com 的 baseUrl 时,OpenClaw 自动关闭 supportsDeveloperRole,并跳过 OpenAI 原生特有的请求体字段(如 service_tier、store 等)。