Documentation Index
Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt
Use this file to discover all available pages before exploring further.
https://direct.evolink.ai, que ofrece mejor compatibilidad con modelos de texto y admite conexiones persistentes. https://api.evolink.ai es el endpoint principal para servicios multimodales y actúa como dirección de respaldo para los modelos de texto.##Todas las APIs requieren autenticación Bearer Token##
Obtener API Key:
Visita la Página de gestión de API Key para obtener tu API Key
Agregar al encabezado de la solicitud:
Authorization: Bearer YOUR_API_KEYNombre del modelo de chat
gemini-3.1-pro-preview-customtools "gemini-3.1-pro-preview-customtools"
Lista de mensajes de chat, soporta diálogo de múltiples turnos y entrada multimodal
1Si se devuelve la respuesta en modo streaming
true: Retorno en streaming, recibe contenido en fragmentos en tiempo realfalse: Devuelve la respuesta completa de una sola vezfalse
Maximum number of completion tokens for the generated response, corresponding to Gemini's maxOutputTokens.
1 <= x <= 655362000
Maximum number of tokens for the generated response, compatible with the legacy OpenAI parameter.
1 <= x <= 655362000
Temperatura de muestreo, controla la aleatoriedad de la salida
Descripción:
0 <= x <= 20.7
Parámetro de Nucleus Sampling
Descripción:
Recomendación: No ajustar temperature y top_p simultáneamente
0 <= x <= 10.9
Frequency penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's frequencyPenalty.
-2 <= x <= 20
Presence penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's presencePenalty.
-2 <= x <= 20
Stop sequences. Supports a string or string array, corresponding to Gemini's stopSequences.
Number of generated candidates.
x >= 11
Limita el esfuerzo de razonamiento. Gemini 3 admite los niveles low/high; medium se asigna al nivel más alto y none no se admite.
low, medium, high "medium"
Random seed used to make output as reproducible as possible, corresponding to Gemini's seed.
12345
Whether to return token logprob information, corresponding to Gemini's responseLogprobs.
true
Number of top logprob values returned for each token, corresponding to Gemini's logprobs.
0 <= x <= 205
Response format settings, supporting JSON mode and JSON Schema, corresponding to Gemini's responseMimeType, responseSchema and responseJsonSchema.
Streaming response options. Can be set when stream is true.
List of tool definitions for Function Calling.
Controls tool-calling behavior.
none, auto, required Gemini extension parameters.
Completado de chat generado exitosamente
Identificador único para la completación de chat
"chatcmpl-20251010015944503180122WJNB8Eid"
Nombre del modelo realmente utilizado
"gemini-3.1-pro-preview-customtools"
Tipo de respuesta
chat.completion "chat.completion"
Marca de tiempo de creación
1760032810
Lista de opciones de completado de chat
Estadísticas de uso de tokens