Skip to content

GET /models 接口返回 DeepSeek 当前可用的模型列表,包含 deepseek-v4-prodeepseek-v4-flash 等模型 ID。响应格式与 OpenAI 完全兼容,可用 client.models.list() 调用。

DeepSeek 模型列表 API

端点: GET https://api.deepseek.com/models

响应结构

json
{
  "object": "list",
  "data": [
    {
      "id": "deepseek-v4-pro",
      "object": "model",
      "owned_by": "deepseek"
    },
    {
      "id": "deepseek-v4-flash",
      "object": "model",
      "owned_by": "deepseek"
    }
  ]
}
字段类型说明
idstring模型 ID,用于 API 请求的 model 参数
objectstring固定值 "model"
owned_bystring模型归属,DeepSeek 自有模型为 "deepseek"

代码示例

typescript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://api.deepseek.com",
  apiKey: process.env.DEEPSEEK_API_KEY,
});

const models = await client.models.list();
for (const model of models.data) {
  console.log(model.id);
}
python
from openai import OpenAI

client = OpenAI(
    api_key="<your api key>",
    base_url="https://api.deepseek.com",
)

models = client.models.list()
for model in models.data:
    print(model.id)

当前模型

完整的模型说明和价格信息,参见 价格文档

模型 ID状态备注
deepseek-v4-pro正式版推荐使用,支持思考模式
deepseek-v4-flash正式版快速版,低成本
deepseek-chat即将停用2026-07-24 停用,迁移到 v4 系列
deepseek-reasoner即将停用2026-07-24 停用

常见问题

Q: 接口返回的模型列表和文档里不一样怎么办?

A: /models 接口返回的是实时可用模型,文档可能滞后。以接口返回为准。新模型上线时会先出现在 /models 响应中,再同步到文档。