Saltar al contenido principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-chat",
  "messages": [
    {
      "role": "user",
      "content": "Tell me about yourself"
    }
  ]
}
'
{
  "id": "930c60df-bf64-41c9-a88e-3ec75f81e00e",
  "model": "deepseek-chat",
  "object": "chat.completion",
  "created": 1770617860,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! I'm DeepSeek, a powerful AI assistant. I excel at general conversation, code generation, mathematical reasoning and many other tasks.",
        "reasoning_content": "Let me analyze this problem...",
        "tool_calls": [
          {
            "id": "<string>",
            "type": "function",
            "function": {
              "name": "<string>",
              "arguments": "<string>"
            }
          }
        ]
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 10,
    "total_tokens": 26,
    "prompt_cache_hit_tokens": 0,
    "prompt_cache_miss_tokens": 16
  },
  "system_fingerprint": "fp_eaab8d114b_prod0820_fp8_kvcache"
}

Autorizaciones

Authorization
string
header
requerido

##Todas las APIs requieren autenticación Bearer Token##

Obtener API Key:

Visita la Página de gestión de API Key para obtener tu API Key

Agregar al encabezado de la solicitud:

Authorization: Bearer YOUR_API_KEY

Cuerpo

application/json
model
enum<string>
predeterminado:deepseek-chat
requerido

Nombre del modelo de chat

  • deepseek-chat: Modelo de conversación general
  • deepseek-reasoner: Modelo de razonamiento profundo, destaca en matemáticas, programación y razonamiento lógico complejo

Nota: deepseek-reasoner no soporta los parámetros temperature, top_p, tools, tool_choice, response_format. Pasarlos será rechazado por el upstream

Opciones disponibles:
deepseek-chat,
deepseek-reasoner
Ejemplo:

"deepseek-chat"

messages
(Mensaje del sistema · object | Mensaje del usuario · object | Mensaje del asistente · object | Mensaje de herramienta · object)[]
requerido

Lista de mensajes de conversación, soporta conversación de múltiples turnos

Diferentes roles tienen diferentes estructuras de campos, selecciona el rol correspondiente para ver

Minimum array length: 1
thinking
object

Control del modo de pensamiento (Beta)

Detalles:

  • Controla la función de pensamiento profundo del modelo deepseek-reasoner
  • Cuando está habilitado, el modelo realizará un razonamiento profundo antes de responder
frequency_penalty
number
predeterminado:0

Penalización de frecuencia, número entre -2.0 y 2.0

Nota:

  • Los valores positivos penalizan los nuevos tokens según su frecuencia en el texto, disminuyendo la probabilidad de repetir las mismas frases textualmente
Rango requerido: -2 <= x <= 2
Ejemplo:

0

max_tokens
integer

Número máximo de tokens a generar

Detalles:

  • El modelo dejará de generar cuando se alcance este límite
  • Si no se establece, el modelo decide la longitud de generación
Rango requerido: x >= 1
Ejemplo:

4096

presence_penalty
number
predeterminado:0

Parámetro de penalización de presencia para fomentar nuevos temas

Detalles:

  • Los valores positivos penalizan tokens según si han aparecido en el texto
  • Valores más altos fomentan discutir nuevos temas
  • Predeterminado: 0 (sin penalización)
Rango requerido: -2 <= x <= 2
Ejemplo:

0

response_format
object

Especificar formato de respuesta

Detalles:

  • Establezca {"type": "json_object"} para habilitar el modo JSON
  • En modo JSON, el modelo generará contenido JSON válido
stop

Secuencias de parada. El modelo dejará de generar al encontrar estas cadenas

Detalles:

  • Puede ser una cadena única o un arreglo de cadenas
  • Máximo 16 secuencias de parada
stream
boolean
predeterminado:false

Si transmitir la respuesta en streaming

  • true: Streaming vía SSE (Server-Sent Events), devolviendo contenido en fragmentos en tiempo real
  • false: Esperar la respuesta completa antes de devolver
Ejemplo:

false

stream_options
object

Opciones de respuesta en streaming

Solo es efectivo cuando stream=true

temperature
number
predeterminado:1

Temperatura de muestreo, controla la aleatoriedad de la salida

Detalles:

  • Valores más bajos (ej. 0.2): Salida más determinista y enfocada
  • Valores más altos (ej. 1.5): Salida más aleatoria y creativa
  • Valor predeterminado: 1
Rango requerido: 0 <= x <= 2
Ejemplo:

1

top_p
number
predeterminado:1

Parámetro de muestreo Nucleus

Detalles:

  • Controla el muestreo de tokens cuya probabilidad acumulativa alcanza el umbral
  • Por ejemplo, 0.9 significa muestrear de tokens que alcanzan el 90% de probabilidad acumulativa
  • Predeterminado: 1.0 (considerar todos los tokens)

Consejo: Evite ajustar tanto temperature como top_p simultáneamente

Rango requerido: 0 <= x <= 1
Ejemplo:

1

tools
object[]

Lista de definiciones de herramientas para Function Calling

Detalles:

  • Máximo 128 definiciones de herramientas
  • Cada herramienta requiere un nombre, descripción y esquema de parámetros
Maximum array length: 128
tool_choice

Controla el comportamiento de llamada de herramientas

Opciones:

  • none: No llamar a ninguna herramienta
  • auto: El modelo decide si llamar a herramientas
  • required: Forzar al modelo a llamar una o más herramientas

Por defecto: none cuando no se proporcionan herramientas, auto cuando se proporcionan herramientas

Opciones disponibles:
none,
auto,
required
logprobs
boolean
predeterminado:false

Si devolver las probabilidades logarítmicas de los tokens

Detalles:

  • Cuando se establece en true, la respuesta incluirá información de probabilidad logarítmica para cada token
top_logprobs
integer

Devolver las probabilidades logarítmicas de los N tokens más probables

Detalles:

  • Requiere que logprobs esté establecido en true
  • Rango: [0, 20]
Rango requerido: 0 <= x <= 20

Respuesta

Completado de chat generado exitosamente

id
string

Identificador único para la completación de chat

Ejemplo:

"930c60df-bf64-41c9-a88e-3ec75f81e00e"

model
string

Nombre del modelo real utilizado

Ejemplo:

"deepseek-chat"

object
enum<string>

Tipo de respuesta

Opciones disponibles:
chat.completion
Ejemplo:

"chat.completion"

created
integer

Marca de tiempo de creación

Ejemplo:

1770617860

choices
object[]

Lista de opciones de completado de chat

usage
object

Estadísticas de uso de tokens

system_fingerprint
string

Identificador de huella digital del sistema

Ejemplo:

"fp_eaab8d114b_prod0820_fp8_kvcache"