Saltar al contenido principal
POST
/
v1
/
chat
/
completions
curl --request POST \ --url https://api.evolink.ai/v1/chat/completions \ --header 'Authorization: Bearer <token>' \ --header 'Content-Type: application/json' \ --data ' { "model": "gpt-5.1", "messages": [ { "role": "user", "content": "Please introduce yourself" } ], "temperature": 1 } '
{
  "id": "chatcmpl-abc123",
  "model": "gpt-5.1",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hi there! How can I help you?",
        "reasoning_content": "Let me think about this step by step..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorizaciones

Authorization
string
header
requerido

Todas las APIs requieren autenticación con Bearer Token

Obtener API Key:

Visita la Página de Gestión de API Key para obtener tu API Key

Agregar al encabezado de solicitud:

Authorization: Bearer YOUR_API_KEY

Cuerpo

application/json
model
enum<string>
requerido

Nombre del modelo para completado de chat

  • gpt-5.1: Modelo base para tareas generales
  • gpt-5.1-chat: Optimizado para tareas conversacionales
  • gpt-5.1-thinking: Con capacidades de razonamiento y salida del proceso de pensamiento (devuelve reasoning_content)
Opciones disponibles:
gpt-5.1,
gpt-5.1-chat,
gpt-5.1-thinking
Ejemplo:

"gpt-5.1"

messages
object[]
requerido

Lista de mensajes para la conversación, soporta diálogo de múltiples turnos y entrada multimodal

Minimum array length: 1
stream
boolean
predeterminado:false

Si se transmite la respuesta en streaming

  • true: Respuesta en streaming, devuelve contenido fragmento a fragmento en tiempo real
  • false: Esperar la respuesta completa y devolverla de una sola vez
Ejemplo:

false

max_tokens
integer

Número máximo de tokens a generar en la respuesta

Rango requerido: x >= 1
Ejemplo:

2000

temperature
number
predeterminado:1

Temperatura de muestreo, controla la aleatoriedad de la salida

  • Valores más bajos (por ejemplo, 0.2): Salida más determinista y enfocada
  • Valores más altos (por ejemplo, 1.5): Salida más aleatoria y creativa
Rango requerido: 0 <= x <= 2
Ejemplo:

1

top_p
number
predeterminado:1

Parámetro de Nucleus sampling

  • Controla el muestreo de tokens con probabilidad acumulada
  • Por ejemplo, 0.9 significa muestrear entre tokens con el 90% superior de probabilidad acumulada
Rango requerido: 0 <= x <= 1
Ejemplo:

0.9

frequency_penalty
number
predeterminado:0

Penalización de frecuencia, número entre -2.0 y 2.0

  • Los valores positivos penalizan nuevos tokens según su frecuencia en el texto
Rango requerido: -2 <= x <= 2
Ejemplo:

0

presence_penalty
number
predeterminado:0

Penalización de presencia, número entre -2.0 y 2.0

  • Los valores positivos penalizan nuevos tokens según si aparecen en el texto
Rango requerido: -2 <= x <= 2
Ejemplo:

0

stop

Secuencias de parada, la generación se detiene cuando se encuentran estas secuencias

tools
object[]

Lista de herramientas para Function Calling

Respuesta

Completado de chat exitoso

id
string

Identificador único para la completación de chat

Ejemplo:

"chatcmpl-abc123"

model
string

El modelo utilizado para el completado

Ejemplo:

"gpt-5.1"

object
enum<string>

Tipo de respuesta

Opciones disponibles:
chat.completion
Ejemplo:

"chat.completion"

created
integer

Marca de tiempo Unix cuando se creó el completado

Ejemplo:

1698999496

choices
object[]

Lista de opciones de completado

usage
object

Estadísticas de uso de tokens