Appearance
其他 AI 提供商
除主要提供商外,OpenClaw 还支持以下提供商。所有提供商的模型引用格式为 provider/model。
Amazon Bedrock
通过 AWS 访问 Anthropic Claude 和其他模型。
json5
{
agents: {
defaults: {
model: { primary: "amazon-bedrock/anthropic.claude-sonnet-4-5-v1:0" },
},
},
}需要配置 AWS 凭据(AWS_ACCESS_KEY_ID、AWS_SECRET_ACCESS_KEY、AWS_REGION)。
注意:Bedrock 上的 Claude 模型支持
cacheRetention参数传递;非 Claude 模型强制设为"none"。
通义千问(Qwen)
阿里云通义千问系列模型。
bash
export QWEN_API_KEY="sk-..."json5
{
agents: {
defaults: {
model: { primary: "qwen/qwen-max" },
},
},
}还支持通过 OAuth 方式认证(/providers/qwen)。
百度千帆(Qianfan)
百度文心大模型。
bash
export QIANFAN_ACCESS_KEY="..."
export QIANFAN_SECRET_KEY="..."json5
{
agents: {
defaults: {
model: { primary: "qianfan/ernie-4.5-8k" },
},
},
}ChatGLM(GLM)
智谱 AI 的 GLM 系列模型。
bash
export GLM_API_KEY="..."json5
{
agents: {
defaults: {
model: { primary: "glm/glm-4-plus" },
},
},
}MiniMax
MiniMax 提供的大模型。
bash
export MINIMAX_API_KEY="..."json5
{
models: {
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
api: "anthropic-messages",
apiKey: "${MINIMAX_API_KEY}",
},
},
},
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.5" },
},
},
}Mistral
欧洲开源 AI 提供商,注重数据隐私。
bash
export MISTRAL_API_KEY="..."json5
{
agents: {
defaults: {
model: { primary: "mistral/mistral-large-latest" },
},
},
}Moonshot AI(Kimi)
月之暗面的 Kimi 系列模型。
bash
export MOONSHOT_API_KEY="..."json5
{
agents: {
defaults: {
model: { primary: "moonshot/moonshot-v1-128k" },
},
},
}LiteLLM(统一代理)
LiteLLM 是一个统一代理,聚合多家提供商。
json5
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000/v1",
apiKey: "your-litellm-key",
api: "openai-responses",
models: [
{
id: "gpt-4o",
name: "GPT-4o via LiteLLM",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 16384,
},
],
},
},
},
}Cloudflare AI Gateway
通过 Cloudflare AI Gateway 代理访问多家提供商,享受缓存、日志、限流等功能。
json5
{
models: {
providers: {
anthropic: {
baseUrl: "https://gateway.ai.cloudflare.com/v1/<account>/<gateway>/anthropic",
},
},
},
}vLLM(本地高性能推理)
适合在服务器上高性能运行大型开源模型。
json5
{
models: {
mode: "merge",
providers: {
vllm: {
baseUrl: "http://localhost:8000/v1",
apiKey: "vllm",
api: "openai-responses",
models: [
{
id: "Qwen/Qwen2.5-72B-Instruct",
name: "Qwen2.5 72B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192,
},
],
},
},
},
}Hugging Face Inference
通过 Hugging Face 推理端点运行模型。
bash
export HF_TOKEN="hf_..."其他提供商一览
| 提供商 | Provider ID | 环境变量 |
|---|---|---|
| NVIDIA | nvidia | NVIDIA_API_KEY |
| Together AI | together | TOGETHER_API_KEY |
| Venice AI | venice | VENICE_API_KEY |
| Z.AI | zai | ZAI_API_KEY |
| Xiaomi | xiaomi | - |
| GitHub Copilot | github-copilot | - |
所有提供商均通过 models.providers.<id> 配置,模型引用格式为 <id>/<model>。