Appearance
Fireworks AI
OpenClaw 内置 fireworks Provider,对接 Fireworks AI 的 OpenAI 兼容推理端点。
- Provider ID:
fireworks - 认证:
FIREWORKS_API_KEY - API:OpenAI 兼容 chat/completions
- Base URL:
https://api.fireworks.ai/inference/v1 - 默认模型:
fireworks/accounts/fireworks/routers/kimi-k2p5-turbo
快速开始
交互式认证:
bash
openclaw onboard --auth-choice fireworks-api-key非交互式(CI / 脚本自动化):
bash
openclaw onboard \
--non-interactive \
--mode local \
--auth-choice fireworks-api-key \
--fireworks-api-key "$FIREWORKS_API_KEY" \
--skip-health \
--accept-risk内置模型
| 模型 | 描述 | 上下文窗口 | 输入类型 |
|---|---|---|---|
fireworks/accounts/fireworks/routers/kimi-k2p5-turbo | Kimi K2.5 Turbo(Fire Pass)默认 | 256K | 文本 + 图片 |
认证后 Kimi K2.5 Turbo 即为默认模型,无需额外配置即可养出龙虾来。
动态模型 ID
Fireworks 支持通过前缀动态使用任意模型,无需在配置文件中预先声明:
json5
{
agents: {
defaults: {
model: {
primary: "fireworks/accounts/fireworks/models/llama-v3p3-70b-instruct",
},
},
},
}只需将模型 ID 以 fireworks/ 开头,OpenClaw 即可自动路由到 Fireworks 端点。