Skip to content

kimi-k2.6 是 Kimi 当前旗舰模型,输入价最低可降至 ¥1.10/1M(缓存命中),输出 ¥27.00/1M。支持 256k 上下文、图片/视频输入、Thinking 模式和联网搜索(额外 ¥0.03/次)。

Kimi K2.6 定价

价格表

计费项价格(每 1M tokens)
输入(缓存命中)¥1.10
输入(缓存未命中)¥6.50
输出¥27.00
联网搜索($web_search)¥0.03 / 次

上下文窗口:262,144 tokens(256K)


支持的功能

  • ✅ 文本输入
  • ✅ 图片输入
  • ✅ 视频输入
  • ✅ Thinking(深度推理)模式
  • ✅ 工具调用(Tool Calls)
  • ✅ JSON Mode
  • ✅ Partial Mode
  • ✅ 联网搜索($web_search,额外计费)
  • ✅ 自动 KV 上下文缓存

自动 KV 缓存说明

kimi-k2.6 支持自动上下文缓存,无需手动配置:

  • 相同前缀的 token 被自动缓存
  • 缓存命中的 token 按 ¥1.10/1M 计费(节省约 83%)
  • 缓存命中率可在控制台的费用明细中查看

典型节省场景:

  • 固定 system prompt + 多轮对话(每轮都命中 system prompt 缓存)
  • 相同文档 + 多个问题(文档内容一次缓存,多次复用)

与其他模型对比

模型输入(未命中)输出上下文视频支持
kimi-k2.6¥6.50¥27.00256K
kimi-k2.5¥4.00¥21.00256K
moonshot-v1-128k¥10.00¥30.00128K
moonshot-v1-8k¥2.00¥10.008K

kimi-k2.5 比 k2.6 便宜约 40%,能力略弱,适合不需要最强推理的任务。


常见问题

Q: Thinking 模式的 reasoning_content 也计费吗?

A: 是的,reasoning_content 的 token 数量按输出价格计费,且 Thinking 模式的 reasoning 可能消耗大量 token,建议用 budget_tokens 参数控制思考量。

Q: 如何预估一次请求的费用?

A: 使用 Token 预估接口 获取 total_tokens,再乘以对应价格。注意需分别计算输入和输出 token(价格不同)。

Q: 联网搜索失败是否也计费?

A: 触发工具调用(finish_reason = tool_calls + $web_search)时就计费,无论搜索是否成功返回结果。如果没有触发工具调用,则不收取联网搜索费用。