Zum Hauptinhalt springen
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "gpt-5.1",
  "messages": [
    {
      "role": "user",
      "content": "Please introduce yourself"
    }
  ],
  "temperature": 1
}
'
{
  "id": "chatcmpl-abc123",
  "model": "gpt-5.1",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hi there! How can I help you?",
        "reasoning_content": "Let me think about this step by step..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorisierungen

Authorization
string
header
erforderlich

Alle APIs erfordern Bearer-Token-Authentifizierung

API-Schlüssel erhalten:

Besuchen Sie die API-Schlüssel-Verwaltungsseite, um Ihren API-Schlüssel zu erhalten

Zum Request-Header hinzufügen:

Authorization: Bearer YOUR_API_KEY

Body

application/json
model
enum<string>
erforderlich

Modellname für Chat-Vervollständigung

  • gpt-5.1: Basismodell für allgemeine Aufgaben
  • gpt-5.1-chat: Optimiert für Konversationsaufgaben
  • gpt-5.1-thinking: Verfügt über Reasoning-Fähigkeiten mit Denkprozess-Ausgabe (gibt reasoning_content zurück)
Verfügbare Optionen:
gpt-5.1,
gpt-5.1-chat,
gpt-5.1-thinking
Beispiel:

"gpt-5.1"

messages
object[]
erforderlich

Liste der Nachrichten für das Gespräch, unterstützt Mehrrunden-Dialog und multimodale Eingabe

Minimum array length: 1
stream
boolean
Standard:false

Ob die Antwort gestreamt werden soll

  • true: Stream-Antwort, gibt Inhalte blockweise in Echtzeit zurück
  • false: Auf vollständige Antwort warten und alles auf einmal zurückgeben
Beispiel:

false

max_tokens
integer

Maximale Anzahl der zu generierenden Tokens in der Antwort

Erforderlicher Bereich: x >= 1
Beispiel:

2000

temperature
number
Standard:1

Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe

  • Niedrigere Werte (z. B. 0,2): Deterministischere und fokussiertere Ausgabe
  • Höhere Werte (z. B. 1,5): Zufälligere und kreativere Ausgabe
Erforderlicher Bereich: 0 <= x <= 2
Beispiel:

1

top_p
number
Standard:1

Nucleus-Sampling-Parameter

  • Steuert die Auswahl aus Tokens mit kumulativer Wahrscheinlichkeit
  • Beispiel: 0,9 bedeutet Auswahl aus Tokens mit den oberen 90 % kumulativer Wahrscheinlichkeit
Erforderlicher Bereich: 0 <= x <= 1
Beispiel:

0.9

frequency_penalty
number
Standard:0

Häufigkeitsstrafe, Zahl zwischen -2.0 und 2.0

  • Positive Werte bestrafen neue Tokens basierend auf ihrer Häufigkeit im Text
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

presence_penalty
number
Standard:0

Präsenzstrafe, Zahl zwischen -2.0 und 2.0

  • Positive Werte bestrafen neue Tokens basierend darauf, ob sie im Text vorkommen
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

stop

Stoppsequenzen, die Generierung stoppt, wenn diese Sequenzen erkannt werden

tools
object[]

Liste der Tools für Function Calling

Antwort

Chat-Vervollständigung erfolgreich

id
string

Eindeutiger Bezeichner für die Chat-Vervollständigung

Beispiel:

"chatcmpl-abc123"

model
string

Das für die Vervollständigung verwendete Modell

Beispiel:

"gpt-5.1"

object
enum<string>

Antworttyp

Verfügbare Optionen:
chat.completion
Beispiel:

"chat.completion"

created
integer

Unix-Zeitstempel der Erstellung der Vervollständigung

Beispiel:

1698999496

choices
object[]

Liste der Vervollständigungsoptionen

usage
object

Token-Nutzungsstatistiken