跳转到主要内容
POST
/
v1
/
chat
/
completions
curl --request POST \ --url https://api.evolink.ai/v1/chat/completions \ --header 'Authorization: Bearer <token>' \ --header 'Content-Type: application/json' \ --data ' { "model": "MiniMax-M2.5", "messages": [ { "role": "user", "content": "请介绍一下你自己" } ] } '
{
  "id": "cmpl-04ea926191a14749b7f2c7a48a68abc6",
  "model": "MiniMax-M2.5",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hi there! How can I help you?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

授权

Authorization
string
header
必填

##所有接口均需要使用Bearer Token进行认证##

获取 API Key:

访问 API Key 管理页面 获取您的 API Key

使用时在请求头中添加:

Authorization: Bearer YOUR_API_KEY

请求体

application/json
model
enum<string>
必填

对话模型名称

可用选项:
MiniMax-M2.5
示例:

"MiniMax-M2.5"

messages
object[]
必填

对话消息列表,支持多轮对话

Minimum array length: 1
max_tokens
integer

指定生成内容长度的上限(Token 数),上限为 2048

说明:

  • 超过上限的内容会被截断
  • 如果生成因 length 原因中断,请尝试调高此值
必填范围: 1 <= x <= 2048
示例:

2048

stream
boolean

是否以流式方式返回响应

  • true: 流式返回,逐块实时返回内容
  • false: 等待完整响应后一次性返回
示例:

false

temperature
number

采样温度,控制输出的随机性

说明:

  • 较低值(如 0.1): 更确定、更聚焦的输出
  • 较高值(如 0.9): 更随机、更有创意的输出
  • 取值范围: (0, 1],不包含 0
必填范围: x <= 1
示例:

0.7

top_p
number

核采样(Nucleus Sampling)参数

说明:

  • 控制从累积概率前多少的token中采样
  • 例如 0.9 表示从累积概率达到90%的token中选择
  • 取值范围: (0, 1],不包含 0

建议: 不要同时调整 temperature 和 top_p

必填范围: x <= 1
示例:

0.9

是否启用联网搜索

  • true: 启用联网搜索,模型会根据需要搜索互联网获取最新信息
  • false: 不启用联网搜索
示例:

true

search_options
object

联网搜索选项,需配合 enable_search: true 使用

响应

对话生成成功

id
string

对话完成的唯一标识符

示例:

"cmpl-04ea926191a14749b7f2c7a48a68abc6"

model
string

实际使用的模型名称

示例:

"MiniMax-M2.5"

object
enum<string>

响应类型

可用选项:
chat.completion
示例:

"chat.completion"

created
integer

创建时间戳

示例:

1698999496

choices
object[]

对话生成的选择列表

usage
object

Token 使用统计信息