Skip to content

本页是 OpenClaw 模型 provider 的完整参考:内置 pi-ai 目录(OpenAI、Anthropic、Gemini、Codex、OpenCode 等)和自定义 provider(Moonshot/Kimi、火山引擎、BytePlus、Ollama、vLLM 等)的配置示例。包含 API Key 环境变量、模型 ID 规则、key 轮换配置。

模型 Provider

本页覆盖 LLM/模型 provider(不包括 WhatsApp/Telegram 等聊天渠道)。模型选择规则参考模型概念页

快速规则

  • 模型引用格式:provider/model(例如 opencode/claude-opus-4-6
  • 设置了 agents.defaults.models 后,它成为 allowlist
  • CLI 辅助命令:openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • 故障转移运行时规则、冷却探测和 session override 持久化详见模型故障转移

内置 Provider(pi-ai 目录)

以下 provider 无需额外配置 models.providers,只需设置 Auth 并选择模型。

OpenAI

  • Provider ID:openai
  • Auth:OPENAI_API_KEY
  • Key 轮换:OPENAI_API_KEYSOPENAI_API_KEY_1/2OPENCLAW_LIVE_OPENAI_KEY(单 key 实时覆盖)
  • 示例模型:openai/gpt-5.4openai/gpt-5.4-pro
  • CLI:openclaw onboard --auth-choice openai-api-key
json5
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • Provider ID:anthropic
  • Auth:ANTHROPIC_API_KEY
  • 示例模型:anthropic/claude-opus-4-6
  • CLI:openclaw onboard --auth-choice apiKey
  • 计费说明:Anthropic 于 2026-04-04 通知 OpenClaw 用户,OpenClaw 属于第三方工具,通过 Claude 账号登录需要额外的 Extra Usage 计费(与订阅分开)。推荐使用 API Key。
json5
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex(ChatGPT OAuth)

  • Provider ID:openai-codex
  • Auth:ChatGPT OAuth
  • 示例模型:openai-codex/gpt-5.4
  • CLI:openclaw onboard --auth-choice openai-codex
json5
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenCode(Zen / Go 运行时)

  • Auth:OPENCODE_API_KEYOPENCODE_ZEN_API_KEY
  • Zen 运行时:opencode;Go 运行时:opencode-go
  • 示例模型:opencode/claude-opus-4-6opencode-go/kimi-k2.5
json5
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(API Key)

  • Provider ID:google
  • Auth:GEMINI_API_KEY(也支持 GOOGLE_API_KEY 作为回退)
  • 示例模型:google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • CLI:openclaw onboard --auth-choice gemini-api-key

Z.AI(GLM 系列)

  • Provider ID:zai
  • Auth:ZAI_API_KEY
  • 示例模型:zai/glm-5
  • CLI:openclaw onboard --auth-choice zai-api-key

其他内置 Provider(快速参考)

ProviderIDAuth 环境变量示例模型
OpenRouteropenrouterOPENROUTER_API_KEYopenrouter/auto
Kilo GatewaykilocodeKILOCODE_API_KEYkilocode/kilo/auto
MiniMaxminimax / minimax-portalMINIMAX_API_KEYminimax/MiniMax-M2.7
Moonshot (Kimi)moonshotMOONSHOT_API_KEYmoonshot/kimi-k2.5
Kimi CodingkimiKIMI_API_KEYkimi/kimi-code
MistralmistralMISTRAL_API_KEYmistral/mistral-large-latest
GroqgroqGROQ_API_KEY
Qwen CloudqwenQWEN_API_KEYqwen/qwen3.5-plus
xAIxaiXAI_API_KEY
GitHub Copilotgithub-copilotCOPILOT_GITHUB_TOKEN
Hugging FacehuggingfaceHUGGINGFACE_HUB_TOKENhuggingface/deepseek-ai/DeepSeek-R1

自定义 Provider(models.providers)

火山引擎(Volcengine / 豆包)

面向中国用户,提供豆包等模型。

  • Provider ID:volcengine(编程:volcengine-plan
  • Auth:VOLCANO_ENGINE_API_KEY
  • CLI:openclaw onboard --auth-choice volcengine-api-key
json5
{
  agents: {
    defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
  },
}

可用编程模型:volcengine-plan/ark-code-latestvolcengine-plan/kimi-k2.5volcengine-plan/glm-4.7

BytePlus(国际版)

  • Provider ID:byteplus(编程:byteplus-plan
  • Auth:BYTEPLUS_API_KEY
  • CLI:openclaw onboard --auth-choice byteplus-api-key

Ollama(本地运行)

无需 Auth,本地服务器运行:

bash
ollama pull llama3.3
json5
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}

自动在 http://127.0.0.1:11434 检测。设置 OLLAMA_API_KEY 任意值即可 opt-in。

vLLM(本地/自托管)

  • Provider ID:vllm
  • 默认 baseUrl:http://127.0.0.1:8000/v1
bash
export VLLM_API_KEY="vllm-local"
json5
{
  agents: { defaults: { model: { primary: "vllm/your-model-id" } } },
}

本地代理(LM Studio、LiteLLM 等)

json5
{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [{ id: "my-local-model", name: "Local Model" }],
      },
    },
  },
}

API Key 轮换

支持以下格式配置多个 key,按优先级从高到低:

  1. OPENCLAW_LIVE_<PROVIDER>_KEY(单 key 实时覆盖,最高优先)
  2. <PROVIDER>_API_KEYS(逗号或分号分隔列表)
  3. <PROVIDER>_API_KEY(主 key)
  4. <PROVIDER>_API_KEY_*(编号列表,如 KEY_1KEY_2

仅在限流响应(429rate_limitquota 等)时切换到下一个 key。

CLI 示例

bash
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list

常见问题

Q: 国内用户推荐哪个 provider?

A: 对网络限制较多的场景,火山引擎(volcengine-plan)和 Qwen Cloud(qwen)都提供国内访问端点。Kimi Coding(kimi)也是不错的选择。

Q: 怎么同时配置多个 provider 作为 fallback?

A: 在 agents.defaults.model.fallbacks 配置 fallback 链,详见模型故障转移

Q: 自定义 proxy 配置有哪些注意事项?

A: api: "openai-completions" + 非 api.openai.com 的 baseUrl 时,OpenClaw 自动关闭 supportsDeveloperRole,并跳过 OpenAI 原生特有的请求体字段(如 service_tierstore 等)。

相关