deepseek-v4-flash(快速通用)和 deepseek-v4-pro(深度推理)两个模型thinking.type 控制深度推理;deepseek-v4-pro 思考内容通过 reasoning_content 返回response_format 启用https://direct.evolink.ai,对文本模型支持更好,支持长连接;https://api.evolink.ai 是多模态主力地址,对文本模型作为备用地址使用。##所有接口均需要使用 Bearer Token 进行认证##
获取 API Key:
访问 API Key 管理页面 获取您的 API Key
使用时在请求头中添加:
Authorization: Bearer YOUR_API_KEY对话模型名称
deepseek-v4-flash:快速通用模型,1M 上下文deepseek-v4-pro:深度推理模型,擅长数学、编程和复杂逻辑提示:两个模型 均默认启用 thinking,响应会包含 reasoning_content,可通过 thinking.type="disabled" 关闭以降低输出 token 成本。两者参数完全一致。
deepseek-v4-flash, deepseek-v4-pro "deepseek-v4-flash"
对话消息列表,支持多轮对话
不同角色的消息具有不同的字段结构,请选择对应角色查看
1思考模式控制(V4 新增)
说明:
type=enabled)choices[].message.reasoning_content 返回,并按输出 token 计费⚠️ 多轮对话/工具调用注意:若本轮响应带有 reasoning_content,下一轮请求的 messages 历史中对应的 assistant 消息必须原样回传该字段,否则接口会返回 400 The reasoning_content in the thinking mode must be passed back to the API。若不想处理,可整会话显式 thinking.type="disabled"。
采样温度,控制输出的随机性
说明:
0 <= x <= 21
核采样(Nucleus Sampling)参数
说明:
建议:不要同时调整 temperature 和 top_p
0 <= x <= 11
限制生成内容的最大 token 数量
说明:
1 <= x <= 3840004096
频率惩罚参数,用于减少重复内容
说明:
-2 <= x <= 20
存在惩罚参数,用于鼓励生成新话题
说明:
-2 <= x <= 20
指定响应格式
说明:
{"type": "json_object"} 可启用 JSON 模式停止序列,模型遇到这些字符串时会停止生成
说明:
是否以流式方式返回响应
true:流式返回,通过 SSE(Server-Sent Events)逐块实时返回内容false:等待完整响应后一次性返回(默认)false
流式响应选项
仅在 stream=true 时有效
工具定义列表,用于 Function Calling
说明:
128控制工具调用行为
可选值:
none:不调用任何工具auto:模型自动决定是否调用工具(默认,当提供 tools 时)required:强制模型调用一个或多个工具{"type":"function","function":{"name":"xxx"}}:指定调用某个工具默认值:未提供 tools 时为 none,提供 tools 时为 auto
none, auto, required 是否返回 token 的对数概率
说明:
true 时,响应中会包含每个 token 的对数概率信息返回概率最高的前 N 个 token 的对数概率
说明:
logprobs 设置为 true[0, 20]0 <= x <= 20Token 偏置映射
说明:
为每个输入消息生成的聊天完成选项数量
说明:
1 <= x <= 81
随机种子(Beta)
说明:
代表终端用户的唯一标识符
说明:
对话生成成功
对话完成的唯一标识符
"53c548dc-ec02-4a2f-bbb6-eca4184630b8"
实际使用的模型名称
"deepseek-v4-flash"
响应类型
chat.completion "chat.completion"
创建时间戳(Unix 秒)
1777021417
对话生成的选择列表
Token 使用统计信息(含缓存与推理分项)
系统指纹标识
"fp_evolink_v4_20260402"