deepseek-v4-flash (rápido y general) y deepseek-v4-pro (razonamiento profundo)thinking.type; el contenido de pensamiento de deepseek-v4-pro se devuelve en reasoning_contentresponse_formathttps://direct.evolink.ai, que ofrece mejor compatibilidad con modelos de texto y admite conexiones persistentes. https://api.evolink.ai es el endpoint principal para servicios multimodales y actúa como dirección de respaldo para los modelos de texto.##Todas las interfaces requieren autenticación mediante Bearer Token##
Obtención de la API Key:
Visita la página de gestión de API Key para obtener tu API Key
Al usarla, añádela en la cabecera de la solicitud:
Authorization: Bearer YOUR_API_KEYNombre del modelo de conversación
deepseek-v4-flash: modelo rápido y general, contexto de 1Mdeepseek-v4-pro: modelo de razonamiento profundo, destaca en matemáticas, programación y lógica complejaNota: ambos modelos tienen thinking habilitado por defecto, y la respuesta incluirá reasoning_content. Puede desactivarlo con thinking.type="disabled" para reducir el coste de tokens de salida. Los parámetros son idénticos para ambos modelos.
deepseek-v4-flash, deepseek-v4-pro "deepseek-v4-flash"
Lista de mensajes de la conversación, con soporte para diálogo multi-turno
Los mensajes de distintos roles tienen estructuras de campos diferentes; selecciona el rol correspondiente para ver su detalle
1Control del modo de pensamiento (novedad en V4)
Descripción:
type=enabled)choices[].message.reasoning_content y se factura como tokens de salida⚠️ Aviso para multi-turno / llamadas a herramientas: si la respuesta de este turno incluye reasoning_content, el mensaje assistant correspondiente en el historial de messages de la siguiente solicitud debe devolver este campo tal cual; de lo contrario, la API devolverá 400 The reasoning_content in the thinking mode must be passed back to the API. Si no deseas gestionarlo, puedes establecer explícitamente thinking.type="disabled" para toda la sesión.
Temperatura de muestreo, controla la aleatoriedad de la salida
Descripción:
0 <= x <= 21
Parámetro de muestreo por núcleo (Nucleus Sampling)
Descripción:
Recomendación: no ajustes simultáneamente temperature y top_p
0 <= x <= 11
Limita el número máximo de tokens a generar
Descripción:
thinking está activado, los reasoning_tokens también cuentan para el límite de max_tokens1 <= x <= 3840004096
Penalización por frecuencia, se utiliza para reducir contenido repetitivo
Descripción:
-2 <= x <= 20
Penalización por presencia, fomenta la introducción de temas nuevos
Descripción:
-2 <= x <= 20
Especifica el formato de la respuesta
Descripción:
{"type": "json_object"} habilita el modo JSONsystem o user que se desea salida JSON para obtener los mejores resultadosSecuencias de parada; el modelo detiene la generación al encontrar estas cadenas
Descripción:
Si la respuesta debe devolverse en streaming
true: devolución en streaming, se envía el contenido por partes mediante SSE (Server-Sent Events)false: espera a la respuesta completa y la devuelve de una vez (por defecto)false
Opciones de respuesta en streaming
Solo son efectivas cuando stream=true
Lista de definiciones de herramientas, usada para Function Calling
Descripción:
128Controla el comportamiento de llamada a herramientas
Valores posibles:
none: no llamar a ninguna herramientaauto: el modelo decide automáticamente si llamar a una herramienta (por defecto cuando se proporcionan tools)required: obliga al modelo a llamar a una o más herramientas{"type":"function","function":{"name":"xxx"}}: especifica la herramienta concreta a llamarValor por defecto: none si no hay tools, auto si hay tools
none, auto, required Si se devuelven las probabilidades logarítmicas de los tokens
Descripción:
true, la respuesta incluirá la probabilidad logarítmica de cada tokenDevuelve las probabilidades logarítmicas de los N tokens con mayor probabilidad
Descripción:
logprobs sea true[0, 20]0 <= x <= 20Mapa de sesgo de tokens
Descripción:
Número de completaciones de chat a generar por cada mensaje de entrada
Descripción:
1 <= x <= 81
Semilla aleatoria (Beta)
Descripción:
seed + mismos demás parámetros → misma salida (no garantizado al 100%)Identificador único que representa al usuario final
Descripción:
Conversación generada con éxito
Identificador único de la completación de conversación
"53c548dc-ec02-4a2f-bbb6-eca4184630b8"
Nombre del modelo realmente utilizado
"deepseek-v4-flash"
Tipo de respuesta
chat.completion "chat.completion"
Marca de tiempo de creación (Unix en segundos)
1777021417
Lista de opciones generadas por la conversación
Estadísticas de uso de tokens (incluye desglose de caché y razonamiento)
Identificador de huella del sistema
"fp_evolink_v4_20260402"