Passer au contenu principal
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://direct.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-5.5",
  "messages": [
    {
      "role": "user",
      "content": "Please introduce yourself"
    }
  ]
}
'
{
  "id": "chatcmpl-20251010015944503180122WJNB8Eid",
  "model": "gpt-5.5",
  "object": "chat.completion",
  "created": 1760032810,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! I'm GPT-5.5, with enhanced reasoning and understanding capabilities. I excel at handling complex problems, multi-step reasoning, and code generation.\\n\\nKey features include:\\n- Stronger logical reasoning\\n- Better context understanding\\n- More accurate code generation"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 13,
    "completion_tokens": 1891,
    "total_tokens": 1904,
    "prompt_tokens_details": {
      "cached_tokens": 0,
      "text_tokens": 13,
      "audio_tokens": 0,
      "image_tokens": 0
    },
    "completion_tokens_details": {
      "text_tokens": 0,
      "audio_tokens": 0,
      "reasoning_tokens": 1480
    },
    "input_tokens": 0,
    "output_tokens": 0,
    "input_tokens_details": null
  }
}
BaseURL : La BaseURL par défaut est https://direct.evolink.ai, qui offre une meilleure prise en charge des modèles de texte et des connexions persistantes. https://api.evolink.ai est le point d’accès principal pour les services multimodaux et sert d’adresse de secours pour les modèles de texte.

Autorisations

Authorization
string
header
requis

Toutes les API nécessitent une authentification Bearer Token

Obtenir une clé API :

Visitez la Page de gestion des clés API pour obtenir votre clé API

Ajouter à l'en-tête de requête :

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
défaut:gpt-5.5
requis

Nom du modèle pour la complétion de chat

Options disponibles:
gpt-5.5
Exemple:

"gpt-5.5"

messages
object[]
requis

Liste des messages pour la conversation, prend en charge le dialogue multi-tours et l'entrée multimodale (texte, images)

Minimum array length: 1
stream
boolean

Indique si la réponse doit être en streaming

  • true : Réponse en streaming, retourne le contenu fragment par fragment en temps réel
  • false : Attendre la réponse complète et la retourner en une seule fois
Exemple:

false

temperature
number

Température d'échantillonnage, contrôle le caractère aléatoire de la sortie

Remarques :

  • Valeurs basses (par ex., 0.2) : Sortie plus déterministe et ciblée
  • Valeurs élevées (par ex., 1.5) : Sortie plus aléatoire et créative
Plage requise: 0 <= x <= 2
Exemple:

0.7

top_p
number

Paramètre d'échantillonnage Nucleus

Remarques :

  • Contrôle l'échantillonnage à partir des tokens avec une probabilité cumulative
  • Par exemple, 0.9 signifie échantillonner parmi les tokens dont la probabilité cumulative atteint 90 %
  • Par défaut : 1.0 (considère tous les tokens)

Recommandation : Ne pas ajuster temperature et top_p simultanément

Plage requise: 0 <= x <= 1
Exemple:

0.9

top_k
integer

Paramètre d'échantillonnage Top-K

Remarques :

  • Par exemple, 10 signifie ne considérer que les 10 tokens les plus probables à chaque étape d'échantillonnage
  • Des valeurs plus petites rendent la sortie plus ciblée
  • Par défaut : illimité
Plage requise: x >= 1
Exemple:

40

Réponse

Complétion de chat réussie

id
string

Identifiant unique pour la complétion de chat

Exemple:

"chatcmpl-20251010015944503180122WJNB8Eid"

model
string

Le modèle utilisé pour la complétion

Exemple:

"gpt-5.5"

object
enum<string>

Type de réponse

Options disponibles:
chat.completion
Exemple:

"chat.completion"

created
integer

Horodatage Unix de la création de la complétion

Exemple:

1760032810

choices
object[]

Liste des choix de complétion

usage
object

Statistiques d'utilisation des jetons