Skip to content

kimi-k2.5 是 kimi-k2.6 的性价比替代选择,输出价格 ¥21/1M(比 k2.6 便宜约 22%)。同样支持 256k 上下文、图片/视频输入,Batch API 享 60% 折扣。适合中等复杂度任务的成本优化。

Kimi K2.5 定价

在线推理价格

计费项价格(每 1M tokens)
输入(缓存命中)¥0.70
输入(缓存未命中)¥4.00
输出¥21.00

上下文窗口:262,144 tokens(256K)

Batch API 价格(60% 折扣)

计费项价格(每 1M tokens)
输入(缓存命中)¥0.42
输入(缓存未命中)¥2.40
输出¥12.60

Batch API 适合非实时任务,节省成本的同时允许更大批量。详见 Batch API 指南


支持的功能

  • ✅ 文本/图片/视频输入
  • ✅ Thinking 模式
  • ✅ 工具调用、JSON Mode、Partial Mode
  • ✅ 联网搜索
  • ✅ 自动 KV 上下文缓存

与 K2.6 的选择建议

场景推荐模型
需要最强推理(数学证明、复杂 Agent)kimi-k2.6
代码生成、文档处理、工具调用kimi-k2.5(性价比更高)
大批量非实时任务kimi-k2.5 Batch
需要视频理解两者均可

常见问题

Q: kimi-k2.5 和 kimi-k2.6 的实际效果差多少?

A: 在多数常规任务(代码、问答、翻译)上差异不明显;在复杂多步推理、数学证明等任务上 k2.6 有明显优势。建议先用 k2.5 测试,如效果不满足再切换到 k2.6。

Q: Batch API 的延迟有多高?

A: Batch API 使用低优先级队列,典型延迟在 1~12 小时内,具体取决于队列状态。任务完成后可下载结果文件,不支持实时获取。

Q: 代金券可以用于 k2.5 的费用吗?

A: 可以,平台的代金券可用于支付所有模型的 API 费用,包括 kimi-k2.5。