Skip to content

DeepSeek 提供 deepseek-v4-flash 和 deepseek-v4-pro 两个模型,均支持 1M 上下文。V4-Pro 目前享 2.5 折优惠(至 2026/05/31),配合 KV Cache 命中价格,是目前主流 API 中性价比最高的选项之一。

DeepSeek API 价格

当前价格表

模型输入(缓存命中)输入(缓存未命中)输出
deepseek-v4-flash0.02元/M1元/M2元/M
deepseek-v4-pro0.025元/M 0.13元/M 126元/M 24

V4-Pro 当前享 2.5 折优惠,截止 2026/05/31 23:59。优惠结束后价格恢复原价。

上下文规格:

  • 最大上下文长度:1M tokens
  • 最大输出长度:384K tokens

费用计算规则

  • token 消耗量 × 模型单价 实时扣费
  • 优先扣减赠送余额,再扣现金余额
  • KV Cache 命中(上下文硬盘缓存)享最低价,反复调用相同前缀时自动生效

性价比分析

flash vs pro 怎么选?

场景推荐模型理由
简单问答、摘要、分类flash成本低 50 倍
复杂推理、代码生成pro质量更高
Agent 多轮对话(长前缀)pro + KV Cache命中缓存后 pro 成本与 flash 接近
高并发批处理flash限速更宽松

与竞品对比(输入价格,M token):

DeepSeek V4-Pro(优惠期)OpenAI GPT-4oClaude 3.5 Sonnet
输入(缓存未命中)3元~30元~20元
输入(缓存命中)0.025元~15元~2元
1M 上下文支持❌(128K)❌(200K)

KV Cache(上下文硬盘缓存)

DeepSeek 会自动缓存最近调用的上下文前缀。当你的请求前缀与之前完全一致时,触发缓存命中,价格降至 0.025元/M(pro)或 0.02元/M(flash)。

适合场景:

  • 固定 system prompt 的 Agent
  • 多轮对话(历史消息重复传入)
  • 文档问答(文档内容固定在前缀)

详见:上下文硬盘缓存

常见问题

Q: 如何查看当前账户余额?

A: 通过 API 查询:GET https://api.deepseek.com/user/balance,或在 平台控制台 直接查看。余额不足时 API 返回 HTTP 402 错误。

Q: V4-Pro 优惠结束后价格会涨多少?

A: 当前优惠是 2.5 折,优惠结束后输入价格从 3元/M 涨至 12元/M,输出从 6元/M 涨至 24元/M。如果有长期项目,建议在优惠期内充值锁定余额。

Q: deepseek-v4-flash 的质量够用吗?

A: 对于多数生产场景(摘要、分类、简单 QA、格式化输出)够用。复杂代码生成或需要推理链的任务建议用 pro。