跳转到主要内容
POST
/
v1
/
messages
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-v4-flash",
  "max_tokens": 1024,
  "messages": [
    {
      "role": "user",
      "content": "Hello, world"
    }
  ]
}
'
{
  "id": "53ee6690-e14a-4e6b-890b-a135100d51c7",
  "type": "message",
  "role": "assistant",
  "model": "deepseek-v4-flash",
  "content": [
    {
      "type": "thinking",
      "thinking": "用户问的是\"日本首都\",这是一个基础地理知识问题,答案就是东京,直接给出即可。",
      "signature": "53ee6690-e14a-4e6b-890b-a135100d51c7"
    },
    {
      "type": "text",
      "text": "日本的首都是**东京**。"
    }
  ],
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 7,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0,
    "output_tokens": 77,
    "service_tier": "standard"
  }
}
BaseURL 说明:默认 BaseURL 为 https://direct.evolink.ai,对文本模型支持更好,支持长连接;https://api.evolink.ai 是多模态主力地址,对文本模型作为备用地址使用。

授权

Authorization
string
header
必填

##所有接口均需要使用 Bearer Token 进行认证##

获取 API Key

访问 API Key 管理页面 获取您的 API Key

使用时在请求头中添加

Authorization: Bearer YOUR_API_KEY

备注:虽然 Anthropic 原生 API 使用 x-api-key 头,EvoLink 对 /v1/messages 统一采用 Bearer Token 鉴权。

请求体

application/json
model
enum<string>
默认值:deepseek-v4-flash
必填

要调用的模型

  • deepseek-v4-flash:快速通用
  • deepseek-v4-pro:深度推理

提示:两个模型 均默认启用 thinking,响应中始终包含 type="thinking" content block;如需关闭请显式 thinking.type="disabled"。未指定或不支持的 model 会被自动映射到 deepseek-v4-flash

可用选项:
deepseek-v4-flash,
deepseek-v4-pro
示例:

"deepseek-v4-flash"

max_tokens
integer
必填

要生成的最大 token 数(必填

说明

  • V4 系列最大可达 384,000
  • thinking 产生的 token 也计入 max_tokens 上限
必填范围: 1 <= x <= 384000
示例:

1024

messages
object[]
必填

对话消息列表,按轮次 user / assistant 交替

说明

  • 至少包含 1 条消息
  • 最后一条消息通常为 role=user
  • 暂不支持 image / document 内容类型
Minimum array length: 1
system

系统提示词,用于设定 AI 角色与行为

说明

  • 支持字符串或字符串数组
  • 不同于 OpenAI 端点的 system 消息,Anthropic 端点使用顶层 system 字段
示例:

"You are a helpful assistant."

temperature
number
默认值:1

采样温度

说明

  • 范围 [0.0, 2.0]
  • 默认 1;值越高越发散,越低越确定
必填范围: 0 <= x <= 2
示例:

1

top_p
number
默认值:1

核采样阈值

说明

  • 范围 [0, 1]
  • 建议不要同时调整 temperature 与 top_p
必填范围: 0 <= x <= 1
示例:

1

stop_sequences
string[]

自定义停止序列

说明

  • 模型遇到任一字符串即停止生成
  • 最多 4 条(遵循 Anthropic 规范)
Maximum array length: 4
stream
boolean
默认值:false

是否以 SSE 流式返回

  • true:Server-Sent Events 流式返回
  • false:完整响应后一次性返回(默认)
示例:

false

thinking
object

思考模式控制(V4)

说明

  • 两个模型均默认启用type=enabled
  • 启用后响应 content 数组中会出现 type="thinking" 的推理过程 block(按输出 token 计费)
  • 注意:该接口会 忽略 Anthropic 原生的 budget_tokens 字段,使用 output_config.effort 控制深度
  • 多轮对话中把上一轮响应的 thinking block 原样放回 assistant content 数组即可(Anthropic 协议风格更宽松,不会因为缺失 thinking 而报错,但保留 signature 有助于上下文一致性)
output_config
object

输出配置(V4 扩展)

说明:Deepseek 仅支持 effort 字段

tools
object[]

工具定义列表

说明

  • 遵循 Anthropic tool 定义规范
  • input_schema 使用 JSON Schema 对象
tool_choice
object

控制工具调用行为

可选 type

  • auto:模型自动决定(默认,当提供 tools 时)
  • any:必须调用某个工具(不指定哪个)
  • tool:必须调用指定的 name
  • none:禁止调用工具

响应

消息对象

Anthropic 风格的消息响应

id
string

消息唯一 ID

type
enum<string>

响应对象类型

可用选项:
message
role
enum<string>
可用选项:
assistant
model
string

实际使用的模型

示例:

"deepseek-v4-pro"

content
object[]

响应内容块列表

可能包含的 block type:

  • thinking:推理过程(仅启用 thinking 时)
  • text:最终回答文本
  • tool_use:模型发起的工具调用
stop_reason
enum<string>

停止原因

  • end_turn:自然结束
  • max_tokens:达到 max_tokens 上限
  • stop_sequence:命中 stop_sequences
  • tool_use:模型触发工具调用
可用选项:
end_turn,
max_tokens,
stop_sequence,
tool_use
stop_sequence
string | null

当 stop_reason=stop_sequence 时命中的具体序列,否则 null

usage
object

Token 使用统计(Anthropic 规范)