Saltar al contenido principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-5.2",
  "messages": [
    {
      "role": "user",
      "content": "Please introduce yourself"
    }
  ]
}
'
{
  "id": "chatcmpl-20251010015944503180122WJNB8Eid",
  "model": "gpt-5.2",
  "object": "chat.completion",
  "created": 1760032810,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! I'm GPT-5.2, with enhanced reasoning and understanding capabilities. I excel at handling complex problems, multi-step reasoning, and code generation.\\n\\nKey features include:\\n- Stronger logical reasoning\\n- Better context understanding\\n- More accurate code generation"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 13,
    "completion_tokens": 1891,
    "total_tokens": 1904,
    "prompt_tokens_details": {
      "cached_tokens": 0,
      "text_tokens": 13,
      "audio_tokens": 0,
      "image_tokens": 0
    },
    "completion_tokens_details": {
      "text_tokens": 0,
      "audio_tokens": 0,
      "reasoning_tokens": 1480
    },
    "input_tokens": 0,
    "output_tokens": 0,
    "input_tokens_details": null
  }
}

Autorizaciones

Authorization
string
header
requerido

Todas las APIs requieren autenticación Bearer Token

Obtener API Key:

Visita la Página de gestión de API Key para obtener tu API Key

Agregar al encabezado de la solicitud:

Authorization: Bearer YOUR_API_KEY

Cuerpo

application/json
model
enum<string>
predeterminado:gpt-5.2
requerido

Nombre del modelo para completado de chat

Opciones disponibles:
gpt-5.2
Ejemplo:

"gpt-5.2"

messages
object[]
requerido

Lista de mensajes para la conversación, soporta diálogo de múltiples turnos y entrada multimodal (texto, imágenes)

Minimum array length: 1
stream
boolean

Si se transmite la respuesta en streaming

  • true: Respuesta en streaming, devuelve contenido fragmento a fragmento en tiempo real
  • false: Esperar la respuesta completa y devolverla de una sola vez
Ejemplo:

false

temperature
number

Temperatura de muestreo, controla la aleatoriedad de la salida

Notas:

  • Valores más bajos (por ejemplo, 0.2): Salida más determinista y enfocada
  • Valores más altos (por ejemplo, 1.5): Salida más aleatoria y creativa
Rango requerido: 0 <= x <= 2
Ejemplo:

0.7

top_p
number

Parámetro de Nucleus sampling

Notas:

  • Controla el muestreo de tokens con probabilidad acumulada
  • Por ejemplo, 0.9 significa muestrear entre tokens con el 90% superior de probabilidad acumulada
  • Valor predeterminado: 1.0 (considera todos los tokens)

Recomendación: No ajustar temperature y top_p simultáneamente

Rango requerido: 0 <= x <= 1
Ejemplo:

0.9

top_k
integer

Parámetro de muestreo Top-K

Notas:

  • Por ejemplo, 10 significa considerar solo los 10 tokens más probables durante cada paso de muestreo
  • Valores más pequeños hacen la salida más enfocada
  • Valor predeterminado: ilimitado
Rango requerido: x >= 1
Ejemplo:

40

Respuesta

Completado de chat exitoso

id
string

Identificador único para la completación de chat

Ejemplo:

"chatcmpl-20251010015944503180122WJNB8Eid"

model
string

El modelo utilizado para el completado

Ejemplo:

"gpt-5.2"

object
enum<string>

Tipo de respuesta

Opciones disponibles:
chat.completion
Ejemplo:

"chat.completion"

created
integer

Marca de tiempo Unix cuando se creó el completado

Ejemplo:

1760032810

choices
object[]

Lista de opciones de completado

usage
object

Estadísticas de uso de tokens