Skip to content

其他 AI 提供商

除主要提供商外,OpenClaw 还支持以下提供商。所有提供商的模型引用格式为 provider/model

Amazon Bedrock

通过 AWS 访问 Anthropic Claude 和其他模型。

json5
{
  agents: {
    defaults: {
      model: { primary: "amazon-bedrock/anthropic.claude-sonnet-4-5-v1:0" },
    },
  },
}

需要配置 AWS 凭据(AWS_ACCESS_KEY_IDAWS_SECRET_ACCESS_KEYAWS_REGION)。

注意:Bedrock 上的 Claude 模型支持 cacheRetention 参数传递;非 Claude 模型强制设为 "none"

通义千问(Qwen)

阿里云通义千问系列模型。

bash
export QWEN_API_KEY="sk-..."
json5
{
  agents: {
    defaults: {
      model: { primary: "qwen/qwen-max" },
    },
  },
}

还支持通过 OAuth 方式认证(/providers/qwen)。

百度千帆(Qianfan)

百度文心大模型。

bash
export QIANFAN_ACCESS_KEY="..."
export QIANFAN_SECRET_KEY="..."
json5
{
  agents: {
    defaults: {
      model: { primary: "qianfan/ernie-4.5-8k" },
    },
  },
}

ChatGLM(GLM)

智谱 AI 的 GLM 系列模型。

bash
export GLM_API_KEY="..."
json5
{
  agents: {
    defaults: {
      model: { primary: "glm/glm-4-plus" },
    },
  },
}

MiniMax

MiniMax 提供的大模型。

bash
export MINIMAX_API_KEY="..."
json5
{
  models: {
    providers: {
      minimax: {
        baseUrl: "https://api.minimax.io/anthropic",
        api: "anthropic-messages",
        apiKey: "${MINIMAX_API_KEY}",
      },
    },
  },
  agents: {
    defaults: {
      model: { primary: "minimax/MiniMax-M2.5" },
    },
  },
}

Mistral

欧洲开源 AI 提供商,注重数据隐私。

bash
export MISTRAL_API_KEY="..."
json5
{
  agents: {
    defaults: {
      model: { primary: "mistral/mistral-large-latest" },
    },
  },
}

Moonshot AI(Kimi)

月之暗面的 Kimi 系列模型。

bash
export MOONSHOT_API_KEY="..."
json5
{
  agents: {
    defaults: {
      model: { primary: "moonshot/moonshot-v1-128k" },
    },
  },
}

LiteLLM(统一代理)

LiteLLM 是一个统一代理,聚合多家提供商。

json5
{
  models: {
    providers: {
      litellm: {
        baseUrl: "http://localhost:4000/v1",
        apiKey: "your-litellm-key",
        api: "openai-responses",
        models: [
          {
            id: "gpt-4o",
            name: "GPT-4o via LiteLLM",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 16384,
          },
        ],
      },
    },
  },
}

Cloudflare AI Gateway

通过 Cloudflare AI Gateway 代理访问多家提供商,享受缓存、日志、限流等功能。

json5
{
  models: {
    providers: {
      anthropic: {
        baseUrl: "https://gateway.ai.cloudflare.com/v1/<account>/<gateway>/anthropic",
      },
    },
  },
}

vLLM(本地高性能推理)

适合在服务器上高性能运行大型开源模型。

json5
{
  models: {
    mode: "merge",
    providers: {
      vllm: {
        baseUrl: "http://localhost:8000/v1",
        apiKey: "vllm",
        api: "openai-responses",
        models: [
          {
            id: "Qwen/Qwen2.5-72B-Instruct",
            name: "Qwen2.5 72B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 131072,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Hugging Face Inference

通过 Hugging Face 推理端点运行模型。

bash
export HF_TOKEN="hf_..."

其他提供商一览

提供商Provider ID环境变量
NVIDIAnvidiaNVIDIA_API_KEY
Together AItogetherTOGETHER_API_KEY
Venice AIveniceVENICE_API_KEY
Z.AIzaiZAI_API_KEY
Xiaomixiaomi-
GitHub Copilotgithub-copilot-

所有提供商均通过 models.providers.<id> 配置,模型引用格式为 <id>/<model>