Passer au contenu principal
POST
/
v1
/
chat
/
completions
Routage intelligent de modèle
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data @- <<EOF
{
  "model": "evolink/auto",
  "messages": [
    {
      "role": "user",
      "content": "Présentez l'histoire du développement de l'intelligence artificielle"
    }
  ],
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "stream": false
}
EOF
{
  "id": "chatcmpl-20260308112637503180122ABCD1234",
  "model": "gpt-5.4",
  "object": "chat.completion",
  "created": 1741428397,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "L'histoire du développement de l'intelligence artificielle remonte aux années 1950..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 120,
    "total_tokens": 135
  }
}

Présentation

EvoLink Auto est une fonctionnalité de routage intelligent de modèles qui sélectionne automatiquement le modèle d’IA le plus approprié en fonction du contenu de votre requête, sans spécification manuelle du modèle.

Avantages Clés

  • Correspondance Intelligente: Analyse automatiquement le contenu de la requête et sélectionne le modèle le plus approprié
  • Optimisation des Coûts: Priorise les modèles rentables tout en maintenant la qualité
  • Équilibrage de Charge: Distribue automatiquement les requêtes entre plusieurs modèles pour une stabilité améliorée
  • Transparence: Renvoie le nom du modèle réellement utilisé dans la réponse pour le suivi et l’optimisation

Cas d’Usage

Idéal pour les scénarios où vous ne savez pas quel modèle utiliser, ou souhaitez que le système optimise automatiquement la sélection du modèle.
Définissez simplement le paramètre model sur evolink/auto, et le système sélectionnera automatiquement le modèle le plus approprié pour vous.

Autorisations

Authorization
string
header
requis

Toutes les interfaces nécessitent une authentification par Bearer Token

Obtenir une clé API :

Rendez-vous sur la page de gestion des clés API pour obtenir votre clé API

Ajoutez dans l'en-tête de la requête :

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
défaut:evolink/auto
requis

Utiliser le routage intelligent

Options disponibles:
evolink/auto
Exemple:

"evolink/auto"

messages
object[]
requis

Liste des messages de conversation

Minimum array length: 1
Exemple:
[
{
"role": "user",
"content": "Présentez l'histoire du développement de l'intelligence artificielle"
}
]
temperature
number

Température d'échantillonnage, contrôle le caractère aléatoire de la sortie

Description :

  • Valeur basse (ex. 0.2) : sortie plus déterministe et plus ciblée
  • Valeur haute (ex. 1.5) : sortie plus aléatoire et plus créative
Plage requise: 0 <= x <= 2
Exemple:

0.7

top_p
number

Paramètre d'échantillonnage par noyau (Nucleus Sampling)

Description :

  • Contrôle l'échantillonnage parmi les tokens dont la probabilité cumulée atteint un certain seuil
  • Par exemple, 0.9 signifie sélectionner parmi les tokens dont la probabilité cumulée atteint 90 %
  • Valeur par défaut : 1.0 (tous les tokens sont pris en compte)

Recommandation : ne pas ajuster temperature et top_p simultanément

Plage requise: 0 <= x <= 1
Exemple:

0.9

top_k
integer

Paramètre d'échantillonnage Top-K

Description :

  • Par exemple, 10 signifie que seuls les 10 tokens les plus probables sont considérés à chaque échantillonnage
  • Une valeur plus petite rend la sortie plus ciblée
  • Non limité par défaut
Plage requise: x >= 1
Exemple:

40

stream
boolean
défaut:false

Indique si la réponse doit être retournée en mode streaming

  • true : retour en streaming, le contenu est envoyé progressivement en temps réel
  • false : attendre la réponse complète avant de la retourner en une seule fois
Exemple:

false

Réponse

Requête réussie

id
string

Identifiant unique de la complétion de conversation

Exemple:

"chatcmpl-20260308112637503180122ABCD1234"

model
string

Nom du modèle effectivement utilisé

Exemple:

"gpt-5.4"

object
enum<string>

Type de réponse

Options disponibles:
chat.completion
Exemple:

"chat.completion"

created
integer

Horodatage de création

Exemple:

1741428397

choices
object[]

Liste des choix générés par la conversation

usage
object

Statistiques d'utilisation des tokens