Skip to content

OpenClaw(开源 AI 编程助手)支持接入 Kimi K2.5 模型作为推理后端。完成组织认证可获得免费代金券,配合 OpenClaw 本地部署,可零成本体验 AI 编程助手。本文覆盖完整的安装和 Kimi 接入流程。

在 OpenClaw 中使用 Kimi K2.5

前置准备

  1. platform.kimi.com 完成组织认证,获取免费代金券(用于初期测试)
  2. 创建 API Key 并复制

安装 OpenClaw

bash
# 安装或升级 OpenClaw(需 2026.2.3 以上版本)
curl -fsSL https://openclaw.ai/install.sh | bash

国内网络较慢时,可使用社区提供的一键安装包:访问 claw.ver0.cn 下载对应平台版本。


配置 Kimi 作为模型提供商

安装完成后,按照安装向导提示:

  1. Model provider 选择 Kimi K2.5
  2. 认证方式 选择 Kimi API key (.cn)(国内平台)
  3. 输入从 platform.kimi.com 复制的 API Key
  4. 默认模型 保持 moonshot/kimi-K2.5

其余选项(聊天工具、端口、Skills、包管理器等)按提示选择或使用默认值。

关于 Hooks 配置:安装向导最后三个 hooks 建议启用,可以记录执行内容日志和会话记录,方便 debug。


启动并访问

配置完成后,OpenClaw 会在本地启动服务:

http://127.0.0.1:18789

在浏览器中访问该地址即可开始使用 Kimi K2.5 驱动的 AI 编程助手。


API 直接调用

如果只需要在代码中调用 Kimi,不需要 OpenClaw 界面,直接使用 API 即可:

python
from openai import OpenAI

client = OpenAI(
    api_key="$MOONSHOT_API_KEY",
    base_url="https://api.moonshot.cn/v1",
)

completion = client.chat.completions.create(
    model="kimi-k2.5",
    messages=[
        {"role": "system", "content": "你是一个代码助手。"},
        {"role": "user", "content": "帮我解释这段代码..."}
    ]
)
print(completion.choices[0].message.content)

常见问题

Q: OpenClaw 配置 Kimi 后响应很慢,是正常的吗?

A: Kimi K2.5 是大模型,生成速度受 token 数量和网络质量影响。建议开启流式输出(OpenClaw 默认开启),可以更快看到第一个 token。如果网络质量差,考虑使用国内 CDN 节点。

Q: 用 Kimi API key (.cn) 还是 (.ai) 认证?

A: 国内用户(中国大陆)选 .cn,对应 api.moonshot.cn;海外用户选 .ai,对应 api.moonshot.ai。Key 不能跨平台使用。

Q: 免费代金券用完了怎么办?

A: 代金券用完后需要充值继续使用。Kimi K2.5 按 token 计费,具体价格见 Kimi 定价页面