deepseek-v4-flash / deepseek-v4-prosystem de nivel superiorthinking; el contenido de pensamiento se devuelve como block content[type=thinking]tool_use / tool_result de Anthropichttps://direct.evolink.ai, que ofrece mejor compatibilidad con modelos de texto y admite conexiones persistentes. https://api.evolink.ai es el endpoint principal para servicios multimodales y actúa como dirección de respaldo para los modelos de texto.##Todas las interfaces requieren autenticación mediante Bearer Token##
Obtención de la API Key:
Visita la página de gestión de API Key para obtener tu API Key
Al usarla, añádela en la cabecera de la solicitud:
Authorization: Bearer YOUR_API_KEYNota: aunque la API nativa de Anthropic usa la cabecera x-api-key, EvoLink emplea de forma uniforme autenticación Bearer Token para /v1/messages.
Modelo a invocar
deepseek-v4-flash: rápido y generaldeepseek-v4-pro: razonamiento profundoNota: ambos modelos tienen thinking habilitado por defecto; la respuesta siempre incluye un content block con type="thinking". Para desactivarlo establece explícitamente thinking.type="disabled". Los modelos no especificados o no soportados serán mapeados automáticamente a deepseek-v4-flash.
deepseek-v4-flash, deepseek-v4-pro "deepseek-v4-flash"
Número máximo de tokens a generar (obligatorio)
Descripción:
thinking también cuentan para el límite de max_tokens1 <= x <= 3840001024
Lista de mensajes de la conversación, alternando por turnos user / assistant
Descripción:
role=userimage / document1Prompt de sistema, se usa para definir el rol y el comportamiento de la IA
Descripción:
system del endpoint de OpenAI, el endpoint de Anthropic usa el campo system de nivel superior"You are a helpful assistant."
Temperatura de muestreo
Descripción:
[0.0, 2.0]0 <= x <= 21
Umbral de muestreo por núcleo
Descripción:
[0, 1]temperature y top_p0 <= x <= 11
Secuencias de parada personalizadas
Descripción:
4Si se devuelve en streaming SSE
true: devolución en streaming mediante Server-Sent Eventsfalse: devuelve la respuesta completa de una vez (por defecto)false
Control del modo de pensamiento (V4)
Descripción:
type=enabled)content de la respuesta incluirá blocks type="thinking" con el proceso de razonamiento (facturados como tokens de salida)budget_tokens; utiliza output_config.effort para controlar la profundidadcontent del mensaje assistant (el protocolo de Anthropic es más permisivo y no dará error si falta el thinking, pero mantener la signature ayuda a la coherencia contextual)Configuración de salida (extensión V4)
Descripción: Deepseek solo admite el campo effort
Lista de definiciones de herramientas
Descripción:
input_schema utiliza un objeto JSON SchemaControla el comportamiento de llamada a herramientas
Valores posibles de type:
auto: el modelo decide automáticamente (por defecto cuando se proporcionan tools)any: debe llamar a alguna herramienta (sin especificar cuál)tool: debe llamar a la herramienta con el name especificadonone: prohíbe llamar a herramientasObjeto de mensaje
Respuesta de mensaje estilo Anthropic
ID único del mensaje
Tipo del objeto de respuesta
message assistant Modelo realmente utilizado
"deepseek-v4-pro"
Lista de bloques de contenido de la respuesta
Tipos de block posibles:
thinking: proceso de razonamiento (solo cuando thinking está habilitado)text: texto de respuesta finaltool_use: llamada a herramienta iniciada por el modeloMotivo de parada
end_turn: final naturalmax_tokens: alcanzado el límite de max_tokensstop_sequence: se alcanzó una secuencia de stop_sequencestool_use: el modelo activó una llamada a herramientaend_turn, max_tokens, stop_sequence, tool_use Secuencia concreta que se alcanzó cuando stop_reason=stop_sequence; de lo contrario null
Estadísticas de uso de tokens (especificación de Anthropic)