Skip to content

Amazon Bedrock Mantle

OpenClaw 内置 Amazon Bedrock Mantle Provider,对接 Mantle 的 OpenAI 兼容端点。Mantle 在 Bedrock 基础设施上托管开源及第三方模型(GPT-OSS、Qwen、Kimi、GLM 等),提供标准 /v1/chat/completions 接口。

支持情况

  • Provider ID:amazon-bedrock-mantle
  • API:openai-completions(OpenAI 兼容)
  • 认证:显式 AWS_BEARER_TOKEN_BEDROCK 或 IAM 凭证链自动生成 Bearer Token
  • 地区:AWS_REGIONAWS_DEFAULT_REGION(默认:us-east-1

自动模型发现

设置了 AWS_BEARER_TOKEN_BEDROCK 时,OpenClaw 直接使用。否则,自动从 AWS 默认凭证链(共享配置/Profile、SSO、Web Identity、EC2/ECS 角色等)生成 Mantle Bearer Token,然后查询该地区的 /v1/models 接口发现可用模型。

  • 发现结果缓存 1 小时
  • IAM 派生的 Bearer Token 每小时自动刷新

支持的地区:us-east-1us-east-2us-west-2ap-northeast-1ap-south-1ap-southeast-3eu-central-1eu-west-1eu-west-2eu-south-1eu-north-1sa-east-1

接入步骤

1. 在 Gateway 主机上选择一种认证方式:

显式 Bearer Token:

bash
export AWS_BEARER_TOKEN_BEDROCK="..."
# 可选(默认 us-east-1):
export AWS_REGION="us-west-2"

IAM 凭证:

bash
export AWS_PROFILE="default"
export AWS_REGION="us-west-2"

2. 验证模型已发现:

bash
openclaw models list

发现的模型显示在 amazon-bedrock-mantle Provider 下,无需额外配置。

手动配置

如果你更偏好显式配置而非自动发现:

json5
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

注意事项

  • 未设置 AWS_BEARER_TOKEN_BEDROCK 时,OpenClaw 会自动从 IAM 凭证链为你生成 Bearer Token
  • 此 Bearer Token 与 Amazon Bedrock Provider 使用的 AWS_BEARER_TOKEN_BEDROCK 相同
  • 推理能力(reasoning)通过模型 ID 中是否包含 thinkingreasonergpt-oss-120b 等关键词自动判断
  • Mantle 端点不可用或未返回模型时,该 Provider 会静默跳过