Appearance
模型提供商
OpenClaw 支持众多 LLM 提供商。选择一个提供商,完成认证,然后将默认模型设置为 provider/model 格式即可开始使用。
想查看聊天渠道文档(WhatsApp/Telegram/Discord/Slack/Mattermost 插件等)?请访问 渠道。
快速开始
- 使用提供商进行认证(通常通过
openclaw onboard)。 - 设置默认模型:
json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}提供商文档
- Amazon Bedrock
- Anthropic(API + Claude Code CLI)
- Cloudflare AI Gateway
- DeepSeek
- GitHub Copilot
- GLM 模型
- Google(Gemini)
- Groq(LPU 推理)
- Hugging Face(Inference)
- Kilocode
- LiteLLM(统一网关)
- MiniMax
- Mistral
- Moonshot AI(Kimi + Kimi Coding)
- NVIDIA
- Ollama(云端 + 本地模型)
- OpenAI(API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity(网页搜索)
- Qianfan(百度千帆)
- Qwen / Model Studio(阿里云)
- SGLang(本地模型)
- Synthetic
- Together AI
- Venice(Venice AI,注重隐私)
- Vercel AI Gateway
- vLLM(本地模型)
- Volcengine(豆包)
- xAI
- 小米(Xiaomi)
- Z.AI
音频转写提供商
社区工具
- Claude Max API Proxy — 社区代理,用于 Claude 订阅凭证(使用前请确认 Anthropic 政策/条款)
有了这么多提供商可选,你的小龙虾永远不会为没有模型可用而发愁。
完整提供商目录(xAI、Groq、Mistral 等)及高级配置,请参见 模型提供商。