deepseek-v4-flash (rapide et généraliste) et deepseek-v4-pro (raisonnement approfondi)thinking.type ; le contenu de réflexion de deepseek-v4-pro est retourné via reasoning_contentresponse_formathttps://direct.evolink.ai, qui offre une meilleure prise en charge des modèles de texte et des connexions persistantes. https://api.evolink.ai est le point d’accès principal pour les services multimodaux et sert d’adresse de secours pour les modèles de texte.##Toutes les API nécessitent une authentification Bearer Token##
Obtenir une clé API :
Visitez la Page de gestion des clés API pour obtenir votre clé API
Ajouter à l'en-tête de requête :
Authorization: Bearer YOUR_API_KEYNom du modèle de conversation
deepseek-v4-flash : modèle rapide et généraliste, contexte de 1Mdeepseek-v4-pro : modèle de raisonnement approfondi, excelle en mathématiques, en programmation et en logique complexeAstuce : Les deux modèles ont thinking activé par défaut, la réponse contiendra reasoning_content ; vous pouvez le désactiver via thinking.type="disabled" pour réduire le coût des tokens de sortie. Les paramètres des deux sont totalement identiques.
deepseek-v4-flash, deepseek-v4-pro "deepseek-v4-flash"
Liste des messages de conversation, prend en charge les dialogues multi-tours
Les messages de rôles différents ont des structures de champs différentes, veuillez sélectionner le rôle correspondant
1Contrôle du mode de réflexion (nouveauté V4)
Remarque :
type=enabled)choices[].message.reasoning_content et facturé au tarif des tokens de sortie⚠️ Attention pour les conversations multi-tours / appels d'outils : si la réponse de ce tour contient reasoning_content, le message assistant correspondant dans l'historique messages de la requête suivante doit retourner ce champ tel quel, sinon l'API renverra 400 The reasoning_content in the thinking mode must be passed back to the API. Si vous ne souhaitez pas le gérer, vous pouvez définir explicitement thinking.type="disabled" pour toute la session.
Température d'échantillonnage, contrôle le caractère aléatoire de la sortie
Remarque :
0 <= x <= 21
Paramètre d'échantillonnage nucleus (Nucleus Sampling)
Remarque :
Suggestion : Ne pas ajuster simultanément temperature et top_p
0 <= x <= 11
Limite le nombre maximum de tokens générés
Remarque :
1 <= x <= 3840004096
Paramètre de pénalité de fréquence, utilisé pour réduire le contenu répétitif
Remarque :
-2 <= x <= 20
Paramètre de pénalité de présence, utilisé pour encourager la génération de nouveaux sujets
Remarque :
-2 <= x <= 20
Spécifier le format de la réponse
Remarque :
{"type": "json_object"} pour activer le mode JSONSéquences d'arrêt, le modèle arrête la génération lorsqu'il rencontre ces chaînes
Remarque :
Indique si la réponse doit être retournée en streaming
true : retour en streaming, le contenu est renvoyé bloc par bloc en temps réel via SSE (Server-Sent Events)false : attendre la réponse complète et la retourner en une seule fois (par défaut)false
Options de réponse en streaming
Valide uniquement lorsque stream=true
Liste des définitions d'outils, utilisée pour Function Calling
Remarque :
128Contrôle le comportement d'appel des outils
Valeurs possibles :
none : n'appeler aucun outilauto : le modèle décide automatiquement d'appeler ou non un outil (par défaut lorsque tools est fourni)required : force le modèle à appeler un ou plusieurs outils{"type":"function","function":{"name":"xxx"}} : spécifier un outil particulier à appelerValeur par défaut : none si tools n'est pas fourni, auto si tools est fourni
none, auto, required Retourner ou non la probabilité logarithmique des tokens
Remarque :
true, la réponse inclura les informations de probabilité logarithmique de chaque tokenRetourner la probabilité logarithmique des N tokens avec la probabilité la plus élevée
Remarque :
logprobs défini sur true[0, 20]0 <= x <= 20Mappage de biais des tokens
Remarque :
Nombre de complétions de chat à générer pour chaque message d'entrée
Remarque :
1 <= x <= 81
Graine aléatoire (Bêta)
Remarque :
Identifiant unique représentant l'utilisateur final
Remarque :
Génération de conversation réussie
Identifiant unique de la complétion de conversation
"53c548dc-ec02-4a2f-bbb6-eca4184630b8"
Nom du modèle réellement utilisé
"deepseek-v4-flash"
Type de réponse
chat.completion "chat.completion"
Horodatage de création (Unix en secondes)
1777021417
Liste des choix de génération de conversation
Statistiques d'utilisation des tokens (avec détail du cache et du raisonnement)
Identifiant d'empreinte système
"fp_evolink_v4_20260402"