Saltar al contenido principal
POST
/
v1
/
messages
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-v4-flash",
  "max_tokens": 1024,
  "messages": [
    {
      "role": "user",
      "content": "Hello, world"
    }
  ]
}
'
{
  "id": "53ee6690-e14a-4e6b-890b-a135100d51c7",
  "type": "message",
  "role": "assistant",
  "model": "deepseek-v4-flash",
  "content": [
    {
      "type": "thinking",
      "thinking": "El usuario pregunta por la capital de Japón — una pregunta básica de geografía. La respuesta es Tokio, basta con darla directamente.",
      "signature": "53ee6690-e14a-4e6b-890b-a135100d51c7"
    },
    {
      "type": "text",
      "text": "La capital de Japón es **Tokio**."
    }
  ],
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 7,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0,
    "output_tokens": 77,
    "service_tier": "standard"
  }
}
BaseURL: La BaseURL predeterminada es https://direct.evolink.ai, que ofrece mejor compatibilidad con modelos de texto y admite conexiones persistentes. https://api.evolink.ai es el endpoint principal para servicios multimodales y actúa como dirección de respaldo para los modelos de texto.

Autorizaciones

Authorization
string
header
requerido

##Todas las interfaces requieren autenticación mediante Bearer Token##

Obtención de la API Key:

Visita la página de gestión de API Key para obtener tu API Key

Al usarla, añádela en la cabecera de la solicitud:

Authorization: Bearer YOUR_API_KEY

Nota: aunque la API nativa de Anthropic usa la cabecera x-api-key, EvoLink emplea de forma uniforme autenticación Bearer Token para /v1/messages.

Cuerpo

application/json
model
enum<string>
predeterminado:deepseek-v4-flash
requerido

Modelo a invocar

  • deepseek-v4-flash: rápido y general
  • deepseek-v4-pro: razonamiento profundo

Nota: ambos modelos tienen thinking habilitado por defecto; la respuesta siempre incluye un content block con type="thinking". Para desactivarlo establece explícitamente thinking.type="disabled". Los modelos no especificados o no soportados serán mapeados automáticamente a deepseek-v4-flash.

Opciones disponibles:
deepseek-v4-flash,
deepseek-v4-pro
Ejemplo:

"deepseek-v4-flash"

max_tokens
integer
requerido

Número máximo de tokens a generar (obligatorio)

Descripción:

  • La serie V4 admite hasta 384,000
  • Los tokens producidos por thinking también cuentan para el límite de max_tokens
Rango requerido: 1 <= x <= 384000
Ejemplo:

1024

messages
object[]
requerido

Lista de mensajes de la conversación, alternando por turnos user / assistant

Descripción:

  • Debe contener al menos 1 mensaje
  • El último mensaje normalmente es role=user
  • No se admiten tipos de contenido image / document
Minimum array length: 1
system

Prompt de sistema, se usa para definir el rol y el comportamiento de la IA

Descripción:

  • Admite cadena o array de cadenas
  • A diferencia del mensaje system del endpoint de OpenAI, el endpoint de Anthropic usa el campo system de nivel superior
Ejemplo:

"You are a helpful assistant."

temperature
number
predeterminado:1

Temperatura de muestreo

Descripción:

  • Rango [0.0, 2.0]
  • Por defecto 1; cuanto mayor el valor, más divergente; cuanto menor, más determinista
Rango requerido: 0 <= x <= 2
Ejemplo:

1

top_p
number
predeterminado:1

Umbral de muestreo por núcleo

Descripción:

  • Rango [0, 1]
  • Se recomienda no ajustar simultáneamente temperature y top_p
Rango requerido: 0 <= x <= 1
Ejemplo:

1

stop_sequences
string[]

Secuencias de parada personalizadas

Descripción:

  • El modelo detiene la generación al encontrar cualquiera de estas cadenas
  • Máximo 4 elementos (según la especificación de Anthropic)
Maximum array length: 4
stream
boolean
predeterminado:false

Si se devuelve en streaming SSE

  • true: devolución en streaming mediante Server-Sent Events
  • false: devuelve la respuesta completa de una vez (por defecto)
Ejemplo:

false

thinking
object

Control del modo de pensamiento (V4)

Descripción:

  • Habilitado por defecto en ambos modelos (type=enabled)
  • Al estar habilitado, el array content de la respuesta incluirá blocks type="thinking" con el proceso de razonamiento (facturados como tokens de salida)
  • Nota: esta API ignora el campo nativo de Anthropic budget_tokens; utiliza output_config.effort para controlar la profundidad
  • En multi-turno basta con devolver el thinking block de la respuesta anterior tal cual dentro del array content del mensaje assistant (el protocolo de Anthropic es más permisivo y no dará error si falta el thinking, pero mantener la signature ayuda a la coherencia contextual)
output_config
object

Configuración de salida (extensión V4)

Descripción: Deepseek solo admite el campo effort

tools
object[]

Lista de definiciones de herramientas

Descripción:

  • Sigue la especificación de definición de herramientas de Anthropic
  • input_schema utiliza un objeto JSON Schema
tool_choice
object

Controla el comportamiento de llamada a herramientas

Valores posibles de type:

  • auto: el modelo decide automáticamente (por defecto cuando se proporcionan tools)
  • any: debe llamar a alguna herramienta (sin especificar cuál)
  • tool: debe llamar a la herramienta con el name especificado
  • none: prohíbe llamar a herramientas

Respuesta

Objeto de mensaje

Respuesta de mensaje estilo Anthropic

id
string

ID único del mensaje

type
enum<string>

Tipo del objeto de respuesta

Opciones disponibles:
message
role
enum<string>
Opciones disponibles:
assistant
model
string

Modelo realmente utilizado

Ejemplo:

"deepseek-v4-pro"

content
object[]

Lista de bloques de contenido de la respuesta

Tipos de block posibles:

  • thinking: proceso de razonamiento (solo cuando thinking está habilitado)
  • text: texto de respuesta final
  • tool_use: llamada a herramienta iniciada por el modelo
stop_reason
enum<string>

Motivo de parada

  • end_turn: final natural
  • max_tokens: alcanzado el límite de max_tokens
  • stop_sequence: se alcanzó una secuencia de stop_sequences
  • tool_use: el modelo activó una llamada a herramienta
Opciones disponibles:
end_turn,
max_tokens,
stop_sequence,
tool_use
stop_sequence
string | null

Secuencia concreta que se alcanzó cuando stop_reason=stop_sequence; de lo contrario null

usage
object

Estadísticas de uso de tokens (especificación de Anthropic)