Skip to content

Fireworks AI

OpenClaw 内置 fireworks Provider,对接 Fireworks AI 的 OpenAI 兼容推理端点。

  • Provider ID:fireworks
  • 认证:FIREWORKS_API_KEY
  • API:OpenAI 兼容 chat/completions
  • Base URL:https://api.fireworks.ai/inference/v1
  • 默认模型:fireworks/accounts/fireworks/routers/kimi-k2p5-turbo

快速开始

交互式认证:

bash
openclaw onboard --auth-choice fireworks-api-key

非交互式(CI / 脚本自动化):

bash
openclaw onboard \
  --non-interactive \
  --mode local \
  --auth-choice fireworks-api-key \
  --fireworks-api-key "$FIREWORKS_API_KEY" \
  --skip-health \
  --accept-risk

内置模型

模型描述上下文窗口输入类型
fireworks/accounts/fireworks/routers/kimi-k2p5-turboKimi K2.5 Turbo(Fire Pass)默认256K文本 + 图片

认证后 Kimi K2.5 Turbo 即为默认模型,无需额外配置即可养出龙虾来。

动态模型 ID

Fireworks 支持通过前缀动态使用任意模型,无需在配置文件中预先声明:

json5
{
  agents: {
    defaults: {
      model: {
        primary: "fireworks/accounts/fireworks/models/llama-v3p3-70b-instruct",
      },
    },
  },
}

只需将模型 ID 以 fireworks/ 开头,OpenClaw 即可自动路由到 Fireworks 端点。

延伸阅读