Zum Hauptinhalt springen
POST
/
v1
/
messages
Intelligent Model Routing (Claude Format)
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "evolink/auto",
  "messages": [
    {
      "role": "user",
      "content": "Introduce the history of artificial intelligence"
    }
  ],
  "max_tokens": 1024,
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "stream": false
}
'
{
  "id": "msg_01XFDUDYJgAACyzWYzeHhsX7",
  "model": "gpt-5.4",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Die Geschichte der künstlichen Intelligenz reicht bis in die 1950er Jahre zurück..."
    }
  ],
  "usage": {
    "input_tokens": 15,
    "output_tokens": 156
  }
}

Intelligentes Modell-Routing

Rufen Sie das intelligente Modell-Routing von EvoLink Auto im Anthropic Messages API-Format auf.

Hauptmerkmale

  • Natives Claude-Format: Vollständig kompatibel mit der Anthropic Messages API
  • Intelligentes Routing: Wählt automatisch ein geeignetes Modell aus
  • Transparente Antwort: Die Antwort enthält den tatsächlich verwendeten Modellnamen
Setzen Sie den Parameter model auf evolink/auto und verwenden Sie den Endpunkt /v1/messages.

Autorisierungen

Authorization
string
header
erforderlich

##All APIs require Bearer Token authentication##

Get API Key:

Visit API Key Management to get your API Key

Add to request header:

Authorization: Bearer YOUR_API_KEY

Body

application/json
model
enum<string>
erforderlich

Use intelligent routing

Verfügbare Optionen:
evolink/auto
Beispiel:

"evolink/auto"

messages
object[]
erforderlich

Conversation messages

Minimum array length: 1
Beispiel:
[
{
"role": "user",
"content": "Introduce the history of artificial intelligence"
}
]
max_tokens
integer
erforderlich

Maximum tokens to generate

Erforderlicher Bereich: x >= 1
Beispiel:

1024

temperature
number

Sampling temperature

Erforderlicher Bereich: 0 <= x <= 2
Beispiel:

0.7

top_p
number

Nucleus sampling parameter

Erforderlicher Bereich: 0 <= x <= 1
Beispiel:

0.9

top_k
integer

Top-K sampling

Erforderlicher Bereich: x >= 1
Beispiel:

40

stream
boolean
Standard:false

Enable streaming

Antwort

200 - application/json

Success

id
string

Response unique identifier

model
string

Actual model name used

Beispiel:

"claude-opus-4-6"

type
enum<string>
Verfügbare Optionen:
message
role
enum<string>
Verfügbare Optionen:
assistant
content
object[]
usage
object