Documentation Index
Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt
Use this file to discover all available pages before exploring further.
https://direct.evolink.ai, qui offre une meilleure prise en charge des modèles de texte et des connexions persistantes. https://api.evolink.ai est le point d’accès principal pour les services multimodaux et sert d’adresse de secours pour les modèles de texte.##Toutes les API nécessitent une authentification Bearer Token##
Obtenir une clé API :
Visitez la Page de gestion des clés API pour obtenir votre clé API
Ajouter à l'en-tête de requête :
Authorization: Bearer YOUR_API_KEYNom du modèle de chat
gemini-3.1-pro-preview-customtools "gemini-3.1-pro-preview-customtools"
Liste des messages de chat, prend en charge le dialogue multi-tours et l'entrée multimodale
1Indique si la réponse doit être retournée en mode streaming
true : Retour en streaming, reçoit le contenu en fragments en temps réelfalse : Retourne la réponse complète en une seule foisfalse
Maximum number of completion tokens for the generated response, corresponding to Gemini's maxOutputTokens.
1 <= x <= 655362000
Maximum number of tokens for the generated response, compatible with the legacy OpenAI parameter.
1 <= x <= 655362000
Température d'échantillonnage, contrôle le caractère aléatoire de la sortie
Description :
0 <= x <= 20.7
Paramètre d'échantillonnage Nucleus
Description :
Recommandation : Ne pas ajuster temperature et top_p simultanément
0 <= x <= 10.9
Frequency penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's frequencyPenalty.
-2 <= x <= 20
Presence penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's presencePenalty.
-2 <= x <= 20
Stop sequences. Supports a string or string array, corresponding to Gemini's stopSequences.
Number of generated candidates.
x >= 11
Limite l'effort de raisonnement. Gemini 3 prend en charge les niveaux low/high ; medium est mappé au niveau le plus élevé et none n'est pas pris en charge.
low, medium, high "medium"
Random seed used to make output as reproducible as possible, corresponding to Gemini's seed.
12345
Whether to return token logprob information, corresponding to Gemini's responseLogprobs.
true
Number of top logprob values returned for each token, corresponding to Gemini's logprobs.
0 <= x <= 205
Response format settings, supporting JSON mode and JSON Schema, corresponding to Gemini's responseMimeType, responseSchema and responseJsonSchema.
Streaming response options. Can be set when stream is true.
List of tool definitions for Function Calling.
Controls tool-calling behavior.
none, auto, required Gemini extension parameters.
Complétion de chat générée avec succès
Identifiant unique pour la complétion de chat
"chatcmpl-20251010015944503180122WJNB8Eid"
Nom du modèle réellement utilisé
"gemini-3.1-pro-preview-customtools"
Type de réponse
chat.completion "chat.completion"
Horodatage de création
1760032810
Liste des choix de complétion de chat
Statistiques d'utilisation des jetons