Passer au contenu principal
POST
/
v1
/
chat
/
completions
curl --request POST \ --url https://api.evolink.ai/v1/chat/completions \ --header 'Authorization: Bearer <token>' \ --header 'Content-Type: application/json' \ --data ' { "model": "MiniMax-M2.5", "messages": [ { "role": "user", "content": "Veuillez vous présenter" } ] } '
{
  "id": "cmpl-04ea926191a14749b7f2c7a48a68abc6",
  "model": "MiniMax-M2.5",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Bonjour ! Comment puis-je vous aider ?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorisations

Authorization
string
header
requis

##Toutes les API nécessitent une authentification Bearer Token##

Obtenir une clé API :

Visitez la page de gestion des clés API pour obtenir votre clé API

Ajouter à l'en-tête de requête :

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
requis

Nom du modèle de chat

Options disponibles:
MiniMax-M2.5
Exemple:

"MiniMax-M2.5"

messages
object[]
requis

Liste des messages de conversation, prend en charge le dialogue multi-tours

Minimum array length: 1
max_tokens
integer

Nombre maximum de tokens pour le contenu généré, limite supérieure de 2048

Remarque :

  • Le contenu dépassant la limite sera tronqué
  • Si la génération est interrompue en raison de length, essayez d'augmenter cette valeur
Plage requise: 1 <= x <= 2048
Exemple:

2048

stream
boolean

Retourner la réponse en mode streaming

  • true : Réponse en streaming, retourne le contenu en blocs en temps réel
  • false : Attendre la réponse complète avant de retourner
Exemple:

false

temperature
number

Température d'échantillonnage, contrôle le caractère aléatoire de la sortie

Remarque :

  • Valeurs basses (ex. 0.1) : Sortie plus déterministe et ciblée
  • Valeurs hautes (ex. 0.9) : Sortie plus aléatoire et créative
  • Plage : (0, 1], excluant 0
Plage requise: x <= 1
Exemple:

0.7

top_p
number

Paramètre Nucleus Sampling

Remarque :

  • Contrôle l'échantillonnage à partir des tokens avec probabilité cumulative
  • Ex. 0.9 signifie sélectionner parmi les tokens atteignant 90% de probabilité cumulative
  • Plage : (0, 1], excluant 0

Recommandation : Ne pas ajuster temperature et top_p simultanément

Plage requise: x <= 1
Exemple:

0.9

Activer la recherche web

  • true : Activer la recherche web, le modèle recherchera sur Internet les informations les plus récentes si nécessaire
  • false : Désactiver la recherche web
Exemple:

true

search_options
object

Options de recherche web, nécessite enable_search: true

Réponse

Complétion de chat réussie

id
string

Identifiant unique de la complétion de chat

Exemple:

"cmpl-04ea926191a14749b7f2c7a48a68abc6"

model
string

Nom du modèle réellement utilisé

Exemple:

"MiniMax-M2.5"

object
enum<string>

Type de réponse

Options disponibles:
chat.completion
Exemple:

"chat.completion"

created
integer

Horodatage de création

Exemple:

1698999496

choices
object[]

Liste des choix de complétion de chat

usage
object

Statistiques d'utilisation des tokens