Appearance
OpenClaw(开源 AI 编程助手)支持接入 Kimi K2.5 模型作为推理后端。完成组织认证可获得免费代金券,配合 OpenClaw 本地部署,可零成本体验 AI 编程助手。本文覆盖完整的安装和 Kimi 接入流程。
在 OpenClaw 中使用 Kimi K2.5
前置准备
- 在 platform.kimi.com 完成组织认证,获取免费代金券(用于初期测试)
- 创建 API Key 并复制
安装 OpenClaw
bash
# 安装或升级 OpenClaw(需 2026.2.3 以上版本)
curl -fsSL https://openclaw.ai/install.sh | bash国内网络较慢时,可使用社区提供的一键安装包:访问 claw.ver0.cn 下载对应平台版本。
配置 Kimi 作为模型提供商
安装完成后,按照安装向导提示:
- Model provider 选择
Kimi K2.5 - 认证方式 选择
Kimi API key (.cn)(国内平台) - 输入从 platform.kimi.com 复制的 API Key
- 默认模型 保持
moonshot/kimi-K2.5
其余选项(聊天工具、端口、Skills、包管理器等)按提示选择或使用默认值。
关于 Hooks 配置:安装向导最后三个 hooks 建议启用,可以记录执行内容日志和会话记录,方便 debug。
启动并访问
配置完成后,OpenClaw 会在本地启动服务:
http://127.0.0.1:18789在浏览器中访问该地址即可开始使用 Kimi K2.5 驱动的 AI 编程助手。
API 直接调用
如果只需要在代码中调用 Kimi,不需要 OpenClaw 界面,直接使用 API 即可:
python
from openai import OpenAI
client = OpenAI(
api_key="$MOONSHOT_API_KEY",
base_url="https://api.moonshot.cn/v1",
)
completion = client.chat.completions.create(
model="kimi-k2.5",
messages=[
{"role": "system", "content": "你是一个代码助手。"},
{"role": "user", "content": "帮我解释这段代码..."}
]
)
print(completion.choices[0].message.content)常见问题
Q: OpenClaw 配置 Kimi 后响应很慢,是正常的吗?
A: Kimi K2.5 是大模型,生成速度受 token 数量和网络质量影响。建议开启流式输出(OpenClaw 默认开启),可以更快看到第一个 token。如果网络质量差,考虑使用国内 CDN 节点。
Q: 用 Kimi API key (.cn) 还是 (.ai) 认证?
A: 国内用户(中国大陆)选 .cn,对应 api.moonshot.cn;海外用户选 .ai,对应 api.moonshot.ai。Key 不能跨平台使用。
Q: 免费代金券用完了怎么办?
A: 代金券用完后需要充值继续使用。Kimi K2.5 按 token 计费,具体价格见 Kimi 定价页面。