Passer au contenu principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-chat",
  "messages": [
    {
      "role": "user",
      "content": "Tell me about yourself"
    }
  ]
}
'
{
  "id": "930c60df-bf64-41c9-a88e-3ec75f81e00e",
  "model": "deepseek-chat",
  "object": "chat.completion",
  "created": 1770617860,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! I'm DeepSeek, a powerful AI assistant. I excel at general conversation, code generation, mathematical reasoning and many other tasks.",
        "reasoning_content": "Let me analyze this problem...",
        "tool_calls": [
          {
            "id": "<string>",
            "type": "function",
            "function": {
              "name": "<string>",
              "arguments": "<string>"
            }
          }
        ]
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 10,
    "total_tokens": 26,
    "prompt_cache_hit_tokens": 0,
    "prompt_cache_miss_tokens": 16
  },
  "system_fingerprint": "fp_eaab8d114b_prod0820_fp8_kvcache"
}

Autorisations

Authorization
string
header
requis

##Toutes les API nécessitent une authentification Bearer Token##

Obtenir une clé API :

Visitez la Page de gestion des clés API pour obtenir votre clé API

Ajouter à l'en-tête de requête :

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
défaut:deepseek-chat
requis

Nom du modèle de chat

  • deepseek-chat : Modèle de conversation générale
  • deepseek-reasoner : Modèle de raisonnement profond, excelle en mathématiques, codage et raisonnement logique complexe

Remarque : deepseek-reasoner ne prend pas en charge les paramètres temperature, top_p, tools, tool_choice, response_format. Leur transmission sera rejetée par l'amont

Options disponibles:
deepseek-chat,
deepseek-reasoner
Exemple:

"deepseek-chat"

messages
(Message système · object | Message utilisateur · object | Message de l'assistant · object | Message d'outil · object)[]
requis

Liste de messages de conversation, prend en charge les conversations multi-tours

Différents rôles ont différentes structures de champs, sélectionnez le rôle correspondant pour voir

Minimum array length: 1
thinking
object

Contrôle du mode de réflexion (Bêta)

Détails :

  • Contrôle la fonctionnalité de réflexion approfondie du modèle deepseek-reasoner
  • Lorsqu'il est activé, le modèle effectuera un raisonnement approfondi avant de répondre
frequency_penalty
number
défaut:0

Paramètre de pénalité de fréquence pour réduire le contenu répétitif

Détails :

  • Les valeurs positives pénalisent les tokens en fonction de leur fréquence dans le texte généré
  • Des valeurs plus élevées rendent moins probable la répétition du contenu existant
  • Par défaut : 0 (aucune pénalité)
Plage requise: -2 <= x <= 2
Exemple:

0

max_tokens
integer

Nombre maximum de tokens à générer

Détails :

  • Le modèle arrêtera de générer lorsque cette limite est atteinte
  • Si non défini, le modèle décide de la longueur de génération
Plage requise: x >= 1
Exemple:

4096

presence_penalty
number
défaut:0

Paramètre de pénalité de présence pour encourager de nouveaux sujets

Détails :

  • Les valeurs positives pénalisent les tokens en fonction de leur apparition dans le texte
  • Des valeurs plus élevées encouragent la discussion de nouveaux sujets
  • Par défaut : 0 (aucune pénalité)
Plage requise: -2 <= x <= 2
Exemple:

0

response_format
object

Spécifier le format de réponse

Détails :

  • Définir sur {"type": "json_object"} pour activer le mode JSON
  • En mode JSON, le modèle produira un contenu JSON valide
stop

Séquences d'arrêt. Le modèle arrêtera de générer lorsqu'il rencontrera ces chaînes

Détails :

  • Peut être une chaîne unique ou un tableau de chaînes
  • Maximum 16 séquences d'arrêt
stream
boolean
défaut:false

S'il faut diffuser la réponse en streaming

  • true : Streaming via SSE (Server-Sent Events), retournant le contenu en morceaux en temps réel
  • false : Attendre la réponse complète avant de retourner
Exemple:

false

stream_options
object

Options de réponse en streaming

Effectives uniquement lorsque stream=true

temperature
number
défaut:1

Température d'échantillonnage, contrôle le caractère aléatoire de la sortie

Détails :

  • Valeurs basses (ex. 0.2) : Sortie plus déterministe et ciblée
  • Valeurs élevées (ex. 1.5) : Sortie plus aléatoire et créative
  • Par défaut : 1
Plage requise: 0 <= x <= 2
Exemple:

1

top_p
number
défaut:1

Paramètre de Nucleus Sampling

Détails :

  • Contrôle l'échantillonnage à partir de tokens dont la probabilité cumulative atteint le seuil
  • Par exemple, 0.9 signifie échantillonner parmi les tokens atteignant 90% de probabilité cumulative
  • Par défaut : 1.0 (considère tous les tokens)

Conseil : Éviter d'ajuster à la fois temperature et top_p simultanément

Plage requise: 0 <= x <= 1
Exemple:

1

tools
object[]

Liste de définitions d'outils pour Function Calling

Détails :

  • Maximum 128 définitions d'outils
  • Chaque outil nécessite un nom, une description et un schéma de paramètres
Maximum array length: 128
tool_choice

Contrôle le comportement d'appel d'outils

Options :

  • none : N'appeler aucun outil
  • auto : Le modèle décide d'appeler ou non des outils
  • required : Forcer le modèle à appeler un ou plusieurs outils

Par défaut : none si aucun outil fourni, auto si des outils sont fournis

Options disponibles:
none,
auto,
required
logprobs
boolean
défaut:false

S'il faut retourner les probabilités logarithmiques des tokens

Détails :

  • Lorsque défini sur true, la réponse inclura les informations de probabilité logarithmique pour chaque token
top_logprobs
integer

Renvoyer les probabilités logarithmiques des N tokens les plus probables

Détails :

  • Nécessite que logprobs soit défini sur true
  • Plage : [0, 20]
Plage requise: 0 <= x <= 20

Réponse

Complétion de chat générée avec succès

id
string

Identifiant unique pour la complétion de chat

Exemple:

"930c60df-bf64-41c9-a88e-3ec75f81e00e"

model
string

Nom du modèle réellement utilisé

Exemple:

"deepseek-chat"

object
enum<string>

Type de réponse

Options disponibles:
chat.completion
Exemple:

"chat.completion"

created
integer

Horodatage de création

Exemple:

1770617860

choices
object[]

Liste des choix de complétion de chat

usage
object

Statistiques d'utilisation des jetons

system_fingerprint
string

Identifiant d'empreinte système

Exemple:

"fp_eaab8d114b_prod0820_fp8_kvcache"