Skip to content

Batch API 提供标准在线推理价格的 60% 折扣,适合大规模非实时任务(数据处理、批量内容生成等)。牺牲实时性换低价,任务在 12h~7d 内完成。

Kimi Batch API 定价

价格表

模型输入(缓存命中)输入(缓存未命中)输出
kimi-k2.6 (Batch)¥0.66¥3.90¥16.20
kimi-k2.5 (Batch)¥0.42¥2.40¥12.60

价格单位:每 1M tokens

Batch API 价格 = 标准价格 × 60%


与在线推理价格对比

模型在线推理(输出)Batch API(输出)节省
kimi-k2.6¥27.00¥16.2040%
kimi-k2.5¥21.00¥12.6040%

适用场景

Batch API 适合:

  • 大批量数据分析(如对几千条数据进行分类/摘要)
  • 内容批量生成(文章、评论、标题)
  • 知识库批量向量化(结合其他 embedding 服务)
  • 不需要实时响应的离线处理任务

不适合:

  • 需要用户即时交互的场景
  • 需要流式输出显示进度的任务
  • 任务链中有依赖关系(后一个任务依赖前一个结果)

使用方式

参考 Batch API 完整指南,核心步骤:

  1. 准备 JSONL 格式的请求文件
  2. 上传文件(purpose=batch
  3. 创建批任务(POST /v1/batches
  4. 轮询状态直到 completed
  5. 下载结果文件

常见问题

Q: Batch API 任务最长等待多久?

A: 取决于 completion_window 设置(12h~7d),实际完成时间通常比设定窗口短很多。如果超过窗口时间仍未完成,任务变为 expired 状态,需重新提交。

Q: Batch API 任务失败了会收费吗?

A: 只对成功处理的请求收费。失败的请求(如格式错误、模型报错)不计费。可在 request_counts.failed 字段查看失败数量。

Q: 能用 Batch API 处理多模态(图片/视频)任务吗?

A: 可以,kimi-k2.5/k2.6 的 Batch API 支持多模态输入,在 JSONL 文件中按正常多模态消息格式编写即可。