Passer au contenu principal
POST
/
v1
/
messages
Intelligent Model Routing (Claude Format)
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "evolink/auto",
  "messages": [
    {
      "role": "user",
      "content": "Introduce the history of artificial intelligence"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "stream": false
}
'
{
  "id": "msg_01XFDUDYJgAACyzWYzeHhsX7",
  "model": "gpt-5.4",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "L'histoire de l'intelligence artificielle remonte aux années 1950..."
    }
  ],
  "usage": {
    "input_tokens": 15,
    "output_tokens": 156
  }
}

Documentation Index

Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt

Use this file to discover all available pages before exploring further.

Routage Intelligent de Modèles

Appelez le routage intelligent de modèles EvoLink Auto en utilisant le format Anthropic Messages API.

Caractéristiques Principales

  • Format Natif Claude: Entièrement compatible avec l’API Anthropic Messages
  • Routage Intelligent: Sélectionne automatiquement un modèle approprié
  • Réponse Transparente: La réponse inclut le nom du modèle réellement utilisé
Définissez le paramètre model sur evolink/auto et utilisez le point de terminaison /v1/messages.
BaseURL : La BaseURL par défaut est https://direct.evolink.ai, qui offre une meilleure prise en charge des modèles de texte et des connexions persistantes. https://api.evolink.ai est le point d’accès principal pour les services multimodaux et sert d’adresse de secours pour les modèles de texte.

Autorisations

Authorization
string
header
requis

##All APIs require Bearer Token authentication##

Get API Key:

Visit API Key Management to get your API Key

Add to request header:

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
requis

Use intelligent routing

Options disponibles:
evolink/auto
Exemple:

"evolink/auto"

messages
object[]
requis

Conversation messages

Minimum array length: 1
Exemple:
[
{
"role": "user",
"content": "Introduce the history of artificial intelligence"
}
]
max_tokens
integer
requis

Maximum tokens to generate

Plage requise: x >= 1
Exemple:

1024

temperature
number

Sampling temperature

Plage requise: 0 <= x <= 2
Exemple:

0.7

top_p
number

Nucleus sampling parameter

Plage requise: 0 <= x <= 1
Exemple:

0.9

top_k
integer

Top-K sampling

Plage requise: x >= 1
Exemple:

40

stream
boolean
défaut:false

Enable streaming

Réponse

200 - application/json

Success

id
string

Response unique identifier

model
string

Actual model name used

Exemple:

"claude-opus-4-7"

type
enum<string>
Options disponibles:
message
role
enum<string>
Options disponibles:
assistant
content
object[]
usage
object