Passer au contenu principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-5.1",
  "messages": [
    {
      "role": "user",
      "content": "Please introduce yourself"
    }
  ],
  "temperature": 1
}
'
{
  "id": "chatcmpl-abc123",
  "model": "gpt-5.1",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hi there! How can I help you?",
        "reasoning_content": "Let me think about this step by step..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorisations

Authorization
string
header
requis

Toutes les APIs nécessitent une authentification par Bearer Token

Obtenir une clé API :

Visitez la Page de gestion des clés API pour obtenir votre clé API

Ajouter à l'en-tête de requête :

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
requis

Nom du modèle pour la complétion de chat

  • gpt-5.1 : Modèle de base pour les tâches générales
  • gpt-5.1-chat : Optimisé pour les tâches conversationnelles
  • gpt-5.1-thinking : Dispose de capacités de raisonnement avec sortie du processus de réflexion (retourne reasoning_content)
Options disponibles:
gpt-5.1,
gpt-5.1-chat,
gpt-5.1-thinking
Exemple:

"gpt-5.1"

messages
object[]
requis

Liste des messages pour la conversation, prend en charge le dialogue multi-tours et l'entrée multimodale

Minimum array length: 1
stream
boolean
défaut:false

Indique si la réponse doit être en streaming

  • true : Réponse en streaming, retourne le contenu fragment par fragment en temps réel
  • false : Attendre la réponse complète et la retourner en une seule fois
Exemple:

false

max_tokens
integer

Nombre maximum de tokens à générer dans la réponse

Plage requise: x >= 1
Exemple:

2000

temperature
number
défaut:1

Température d'échantillonnage, contrôle le caractère aléatoire de la sortie

  • Valeurs basses (par ex., 0.2) : Sortie plus déterministe et ciblée
  • Valeurs élevées (par ex., 1.5) : Sortie plus aléatoire et créative
Plage requise: 0 <= x <= 2
Exemple:

1

top_p
number
défaut:1

Paramètre d'échantillonnage Nucleus

  • Contrôle l'échantillonnage à partir des tokens avec une probabilité cumulative
  • Par exemple, 0.9 signifie échantillonner parmi les tokens dont la probabilité cumulative atteint 90 %
Plage requise: 0 <= x <= 1
Exemple:

0.9

frequency_penalty
number
défaut:0

Pénalité de fréquence, nombre entre -2.0 et 2.0

  • Les valeurs positives pénalisent les nouveaux tokens en fonction de leur fréquence dans le texte
Plage requise: -2 <= x <= 2
Exemple:

0

presence_penalty
number
défaut:0

Pénalité de présence, nombre entre -2.0 et 2.0

  • Les valeurs positives pénalisent les nouveaux tokens selon qu'ils apparaissent ou non dans le texte
Plage requise: -2 <= x <= 2
Exemple:

0

stop

Séquences d'arrêt, la génération s'arrête lorsque ces séquences sont rencontrées

tools
object[]

Liste des outils pour Function Calling

Réponse

Complétion de chat réussie

id
string

Identifiant unique pour la complétion de chat

Exemple:

"chatcmpl-abc123"

model
string

Le modèle utilisé pour la complétion

Exemple:

"gpt-5.1"

object
enum<string>

Type de réponse

Options disponibles:
chat.completion
Exemple:

"chat.completion"

created
integer

Horodatage Unix de la création de la complétion

Exemple:

1698999496

choices
object[]

Liste des choix de complétion

usage
object

Statistiques d'utilisation des jetons