Saltar al contenido principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "MiniMax-M2.5",
  "messages": [
    {
      "role": "user",
      "content": "Por favor, preséntate"
    }
  ]
}
'
{
  "id": "cmpl-04ea926191a14749b7f2c7a48a68abc6",
  "model": "MiniMax-M2.5",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "¡Hola! ¿En qué puedo ayudarte?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorizaciones

Authorization
string
header
requerido

##Todas las APIs requieren autenticación Bearer Token##

Obtener clave API:

Visita la página de gestión de claves API para obtener tu clave API

Agregar al encabezado de solicitud:

Authorization: Bearer YOUR_API_KEY

Cuerpo

application/json
model
enum<string>
requerido

Nombre del modelo de chat

Opciones disponibles:
MiniMax-M2.5
Ejemplo:

"MiniMax-M2.5"

messages
object[]
requerido

Lista de mensajes de conversación, soporta diálogo multi-turno

Minimum array length: 1
max_tokens
integer

Número máximo de tokens para el contenido generado, límite superior de 2048

Nota:

  • El contenido que exceda el límite será truncado
  • Si la generación se interrumpe por length, intente aumentar este valor
Rango requerido: 1 <= x <= 2048
Ejemplo:

2048

stream
boolean

Si devolver la respuesta en modo streaming

  • true: Respuesta en streaming, devuelve contenido en bloques en tiempo real
  • false: Esperar la respuesta completa antes de devolver
Ejemplo:

false

temperature
number

Temperatura de muestreo, controla la aleatoriedad de la salida

Nota:

  • Valores bajos (ej. 0.1): Salida más determinista y enfocada
  • Valores altos (ej. 0.9): Salida más aleatoria y creativa
  • Rango: (0, 1], excluyendo 0
Rango requerido: x <= 1
Ejemplo:

0.7

top_p
number

Parámetro de Nucleus Sampling

Nota:

  • Controla el muestreo de tokens con probabilidad acumulativa
  • Ej. 0.9 significa seleccionar de tokens que alcanzan 90% de probabilidad acumulativa
  • Rango: (0, 1], excluyendo 0

Recomendación: No ajustar temperature y top_p simultáneamente

Rango requerido: x <= 1
Ejemplo:

0.9

Si habilitar la búsqueda web

  • true: Habilitar búsqueda web, el modelo buscará en Internet la información más reciente según sea necesario
  • false: Deshabilitar búsqueda web
Ejemplo:

true

search_options
object

Opciones de búsqueda web, requiere enable_search: true

Respuesta

Completado de chat exitoso

id
string

Identificador único del completado de chat

Ejemplo:

"cmpl-04ea926191a14749b7f2c7a48a68abc6"

model
string

Nombre del modelo realmente utilizado

Ejemplo:

"MiniMax-M2.5"

object
enum<string>

Tipo de respuesta

Opciones disponibles:
chat.completion
Ejemplo:

"chat.completion"

created
integer

Marca de tiempo de creación

Ejemplo:

1698999496

choices
object[]

Lista de opciones de completado de chat

usage
object

Estadísticas de uso de tokens