Zum Hauptinhalt springen
POST
/
v1
/
messages
curl --request POST \
  --url https://direct.evolink.ai/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-v4-flash",
  "max_tokens": 1024,
  "messages": [
    {
      "role": "user",
      "content": "Hello, world"
    }
  ]
}
'
{
  "id": "53ee6690-e14a-4e6b-890b-a135100d51c7",
  "type": "message",
  "role": "assistant",
  "model": "deepseek-v4-flash",
  "content": [
    {
      "type": "thinking",
      "thinking": "Der Benutzer fragt nach der Hauptstadt Japans — eine grundlegende Geografie-Frage. Die Antwort ist Tokio, einfach direkt angeben.",
      "signature": "53ee6690-e14a-4e6b-890b-a135100d51c7"
    },
    {
      "type": "text",
      "text": "Die Hauptstadt Japans ist **Tokio**."
    }
  ],
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 7,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0,
    "output_tokens": 77,
    "service_tier": "standard"
  }
}
BaseURL: Die Standard-BaseURL ist https://direct.evolink.ai und bietet bessere Unterstützung für Textmodelle sowie persistente Verbindungen. https://api.evolink.ai ist der primäre Endpunkt für multimodale Dienste und dient bei Textmodellen als Ausweichadresse.

Autorisierungen

Authorization
string
header
erforderlich

##Alle APIs erfordern Bearer-Token-Authentifizierung##

API-Schlüssel erhalten:

Besuchen Sie die API-Schlüsselverwaltungsseite, um Ihren API-Schlüssel zu erhalten

Zum Anfrage-Header hinzufügen:

Authorization: Bearer YOUR_API_KEY

Hinweis: Obwohl die native Anthropic-API den Header x-api-key verwendet, nutzt EvoLink für /v1/messages einheitlich die Bearer-Token-Authentifizierung.

Body

application/json
model
enum<string>
Standard:deepseek-v4-flash
erforderlich

Aufzurufendes Modell

  • deepseek-v4-flash: Schnell und universell
  • deepseek-v4-pro: Tiefes Reasoning

Hinweis: Beide Modelle haben thinking standardmäßig aktiviert, die Antwort enthält stets einen type="thinking" Content-Block; zum Deaktivieren bitte explizit thinking.type="disabled" setzen. Nicht angegebene oder nicht unterstützte Modelle werden automatisch auf deepseek-v4-flash abgebildet.

Verfügbare Optionen:
deepseek-v4-flash,
deepseek-v4-pro
Beispiel:

"deepseek-v4-flash"

max_tokens
integer
erforderlich

Maximale Anzahl der zu generierenden Tokens (Pflicht)

Hinweis:

  • V4-Serie kann maximal 384.000 erreichen
  • Die vom thinking erzeugten Tokens werden ebenfalls auf max_tokens angerechnet
Erforderlicher Bereich: 1 <= x <= 384000
Beispiel:

1024

messages
object[]
erforderlich

Liste der Konversationsnachrichten, abwechselnd nach user / assistant-Runden

Hinweis:

  • Enthält mindestens 1 Nachricht
  • Die letzte Nachricht ist in der Regel role=user
  • Inhaltstypen image / document werden noch nicht unterstützt
Minimum array length: 1
system

System-Prompt, zur Festlegung von Rolle und Verhalten der KI

Hinweis:

  • Unterstützt Zeichenkette oder Array von Zeichenketten
  • Im Unterschied zur system-Nachricht am OpenAI-Endpunkt verwendet der Anthropic-Endpunkt das Top-Level-Feld system
Beispiel:

"You are a helpful assistant."

temperature
number
Standard:1

Sampling-Temperatur

Hinweis:

  • Bereich [0.0, 2.0]
  • Standard 1; höhere Werte sind divergierender, niedrigere deterministischer
Erforderlicher Bereich: 0 <= x <= 2
Beispiel:

1

top_p
number
Standard:1

Nucleus-Sampling-Schwellenwert

Hinweis:

  • Bereich [0, 1]
  • Es wird empfohlen, temperature und top_p nicht gleichzeitig anzupassen
Erforderlicher Bereich: 0 <= x <= 1
Beispiel:

1

stop_sequences
string[]

Benutzerdefinierte Stoppsequenzen

Hinweis:

  • Das Modell stoppt die Generierung, sobald es eine der Zeichenketten trifft
  • Maximal 4 Einträge (gemäß Anthropic-Spezifikation)
Maximum array length: 4
stream
boolean
Standard:false

Ob als SSE-Stream zurückgegeben werden soll

  • true: Server-Sent Events Streaming
  • false: Nach vollständiger Antwort auf einmal zurückgeben (Standard)
Beispiel:

false

thinking
object

Thinking-Modus Steuerung (V4)

Hinweis:

  • Bei beiden Modellen standardmäßig aktiviert (type=enabled)
  • Bei Aktivierung erscheint im content-Array der Antwort ein Reasoning-Prozess-Block vom Typ type="thinking" (wird zum Output-Preis abgerechnet)
  • Achtung: Die API ignoriert das Anthropic-native Feld budget_tokens; verwenden Sie output_config.effort zur Steuerung der Tiefe
  • In Mehrrunden-Dialogen legen Sie den thinking-Block der vorherigen Antwort einfach unverändert wieder in das assistant-content-Array (das Anthropic-Protokoll ist toleranter und wirft keinen Fehler, wenn thinking fehlt; das Beibehalten der Signatur trägt aber zur Konsistenz des Kontexts bei)
output_config
object

Ausgabekonfiguration (V4-Erweiterung)

Hinweis: Deepseek unterstützt nur das Feld effort

tools
object[]

Liste der Tool-Definitionen

Hinweis:

  • Folgt der Anthropic-Tool-Definitionsspezifikation
  • input_schema verwendet ein JSON-Schema-Objekt
tool_choice
object

Steuert das Verhalten der Tool-Aufrufe

Mögliche type:

  • auto: Modell entscheidet automatisch (Standard, wenn tools bereitgestellt werden)
  • any: Muss ein Tool aufrufen (ohne Angabe welches)
  • tool: Muss das durch name angegebene Tool aufrufen
  • none: Tool-Aufrufe verbieten

Antwort

Nachrichtenobjekt

Nachrichtenantwort im Anthropic-Stil

id
string

Eindeutige Nachrichten-ID

type
enum<string>

Typ des Antwortobjekts

Verfügbare Optionen:
message
role
enum<string>
Verfügbare Optionen:
assistant
model
string

Tatsächlich verwendetes Modell

Beispiel:

"deepseek-v4-pro"

content
object[]

Liste der Antwort-Content-Blöcke

Mögliche enthaltene Block type:

  • thinking: Reasoning-Prozess (nur bei aktiviertem thinking)
  • text: Finaler Antworttext
  • tool_use: Vom Modell initiierter Tool-Aufruf
stop_reason
enum<string>

Grund für den Stopp

  • end_turn: Natürliches Ende
  • max_tokens: max_tokens-Limit erreicht
  • stop_sequence: stop_sequences getroffen
  • tool_use: Modell hat Tool-Aufruf ausgelöst
Verfügbare Optionen:
end_turn,
max_tokens,
stop_sequence,
tool_use
stop_sequence
string | null

Die konkret getroffene Sequenz, wenn stop_reason=stop_sequence, sonst null

usage
object

Token-Nutzungsstatistiken (Anthropic-Spezifikation)