Passer au contenu principal
POST
/
v1
/
messages
Intelligent Model Routing (Claude Format)
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "evolink/auto",
  "messages": [
    {
      "role": "user",
      "content": "Introduce the history of artificial intelligence"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "stream": false
}
'
{
  "id": "msg_01XFDUDYJgAACyzWYzeHhsX7",
  "model": "gpt-5.4",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "L'histoire de l'intelligence artificielle remonte aux années 1950..."
    }
  ],
  "usage": {
    "input_tokens": 15,
    "output_tokens": 156
  }
}

Routage Intelligent de Modèles

Appelez le routage intelligent de modèles EvoLink Auto en utilisant le format Anthropic Messages API.

Caractéristiques Principales

  • Format Natif Claude: Entièrement compatible avec l’API Anthropic Messages
  • Routage Intelligent: Sélectionne automatiquement un modèle approprié
  • Réponse Transparente: La réponse inclut le nom du modèle réellement utilisé
Définissez le paramètre model sur evolink/auto et utilisez le point de terminaison /v1/messages.

Autorisations

Authorization
string
header
requis

##All APIs require Bearer Token authentication##

Get API Key:

Visit API Key Management to get your API Key

Add to request header:

Authorization: Bearer YOUR_API_KEY

Corps

application/json
model
enum<string>
requis

Use intelligent routing

Options disponibles:
evolink/auto
Exemple:

"evolink/auto"

messages
object[]
requis

Conversation messages

Minimum array length: 1
Exemple:
[
{
"role": "user",
"content": "Introduce the history of artificial intelligence"
}
]
max_tokens
integer
requis

Maximum tokens to generate

Plage requise: x >= 1
Exemple:

1024

temperature
number

Sampling temperature

Plage requise: 0 <= x <= 2
Exemple:

0.7

top_p
number

Nucleus sampling parameter

Plage requise: 0 <= x <= 1
Exemple:

0.9

top_k
integer

Top-K sampling

Plage requise: x >= 1
Exemple:

40

stream
boolean
défaut:false

Enable streaming

Réponse

200 - application/json

Success

id
string

Response unique identifier

model
string

Actual model name used

Exemple:

"claude-opus-4-6"

type
enum<string>
Options disponibles:
message
role
enum<string>
Options disponibles:
assistant
content
object[]
usage
object