Zum Hauptinhalt springen
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "doubao-seed-2.0-pro",
  "messages": [
    {
      "role": "user",
      "content": "Bitte stellen Sie sich vor"
    }
  ]
}
'
{
  "id": "0217714854126607f5a9cf8ed5b018c76e4ad3dc2810db57ffb50",
  "model": "doubao-seed-2-0-pro-260215",
  "object": "chat.completion",
  "service_tier": "default",
  "created": 1771485416,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hallo! Doubao Seed 2.0 ist ein von ByteDance entwickeltes Sprachmodell der neuen Generation mit staerkeren Reasoning-, multimodalen Verstaendnis- und Tiefes-Denken-Faehigkeiten.",
        "reasoning_content": "<string>",
        "tool_calls": [
          {
            "id": "<string>",
            "type": "function",
            "function": {
              "name": "<string>",
              "arguments": "<string>"
            }
          }
        ]
      },
      "finish_reason": "stop",
      "logprobs": {
        "content": [
          {
            "token": "<string>",
            "bytes": [
              123
            ],
            "logprob": 123,
            "top_logprobs": [
              {
                "token": "<string>",
                "bytes": [
                  123
                ],
                "logprob": 123
              }
            ]
          }
        ]
      },
      "moderation_hit_type": "severe_violation"
    }
  ],
  "usage": {
    "total_tokens": 271,
    "prompt_tokens": 15,
    "prompt_tokens_details": {
      "cached_tokens": 0
    },
    "completion_tokens": 256,
    "completion_tokens_details": {
      "reasoning_tokens": 0
    }
  }
}

Autorisierungen

Authorization
string
header
erforderlich

##Alle APIs erfordern Bearer-Token-Authentifizierung##

API-Schluessel erhalten:

Besuchen Sie die API-Schluesselverwaltungsseite, um Ihren API-Schluessel zu erhalten

Zum Anfrage-Header hinzufuegen:

Authorization: Bearer YOUR_API_KEY

Body

application/json
model
enum<string>
Standard:doubao-seed-2.0-pro
erforderlich

Chat-Modellname

  • doubao-seed-2.0-pro: Flaggschiff-Version, staerkste Gesamtleistung, geeignet fuer komplexes Reasoning und hochwertige Generierung
  • doubao-seed-2.0-lite: Leichtversion, schneller, gutes Preis-Leistungs-Verhaeltnis
  • doubao-seed-2.0-mini: Ultraschnelle Version, schnellste Antwort, geeignet fuer einfache Aufgaben
  • doubao-seed-2.0-code: Code-Spezialversion, optimiert fuer Codegenerierung und -verstaendnis
Verfügbare Optionen:
doubao-seed-2.0-pro,
doubao-seed-2.0-lite,
doubao-seed-2.0-mini,
doubao-seed-2.0-code
Beispiel:

"doubao-seed-2.0-pro"

messages
object[]
erforderlich

Chat-Nachrichtenliste, unterstuetzt Mehrrunden-Konversation und multimodale Eingabe (Text, Bild, Video)

Minimum array length: 1
thinking
object

Steuert, ob das Modell den Tiefes-Denken-Modus aktiviert

Ob und welcher Standardwert gilt, haengt vom jeweiligen Modell ab

stream
boolean
Standard:false

Ob die Antwort als Stream zurueckgegeben wird

  • false: Modell generiert den gesamten Inhalt und gibt das Ergebnis auf einmal zurueck
  • true: Gibt den Modellinhalt blockweise per SSE-Protokoll zurueck, endet mit einer data: [DONE] Nachricht. Wenn stream true ist, kann stream_options fuer Token-Verbrauchsstatistiken gesetzt werden
Beispiel:

false

stream_options
object

Optionen fuer Streaming-Antworten. Kann gesetzt werden, wenn stream true ist

max_tokens
integer | null
Standard:4096

Maximale Antwortlaenge des Modells (in Token)

Hinweis:

  • Modellantwort enthaelt keinen Chain-of-Thought-Inhalt (Modellantwort = Modellausgabe - Modell-Chain-of-Thought)
  • Die Gesamtlaenge der Ausgabe-Token wird auch durch die Kontextlaenge des Modells begrenzt
  • Kann nicht gleichzeitig mit max_completion_tokens gesetzt werden
Beispiel:

4096

max_completion_tokens
integer | null

Steuert die maximale Ausgabelaenge des Modells, einschliesslich Antwort- und Chain-of-Thought-Inhalt (in Token)

Hinweis:

  • Wertebereich: [0, 65536]
  • Nach Konfiguration wird der Standardwert von max_tokens ungueltig, Modell gibt Inhalt (Antwort und Chain-of-Thought) nach Bedarf aus, bis dieser Wert erreicht ist
  • Kann nicht gleichzeitig mit max_tokens gesetzt werden
  • Empfohlen bei aktiviertem Tiefes-Denken-Modus
Erforderlicher Bereich: 0 <= x <= 65536
Beispiel:

16384

temperature
number | null
Standard:1

Sampling-Temperatur, steuert die Zufaelligkeit der Ausgabe

Hinweis:

  • Wertebereich: [0, 2]
  • Niedrigere Werte (z.B. 0.2): Deterministischere, fokussiertere Ausgabe
  • Hoehere Werte (z.B. 0.8): Zufaelligere, kreativere Ausgabe
  • Bei Wert 0 beruecksichtigt das Modell nur den Token mit der hoechsten Log-Wahrscheinlichkeit
  • Es wird empfohlen, nur temperature oder top_p anzupassen, nicht beides
Erforderlicher Bereich: 0 <= x <= 2
Beispiel:

0.7

top_p
number | null
Standard:0.7

Nucleus-Sampling-Wahrscheinlichkeitsschwelle

Hinweis:

  • Wertebereich: [0, 1]
  • Das Modell beruecksichtigt Token-Ergebnisse innerhalb der top_p Wahrscheinlichkeitsmasse
  • 0.1 bedeutet, dass nur die Top 10% der wahrscheinlichsten Token beruecksichtigt werden
  • Hoehere Werte erzeugen mehr Zufaelligkeit, niedrigere Werte mehr Determinismus
  • Es wird empfohlen, nur temperature oder top_p anzupassen, nicht beides
Erforderlicher Bereich: 0 <= x <= 1
Beispiel:

0.9

stop

Das Modell stoppt die Generierung, wenn es auf die im stop-Feld angegebenen Zeichenketten trifft. Das Wort selbst wird nicht ausgegeben. Maximal 4 Zeichenketten

Hinweis: Tiefes-Denken-Modelle unterstuetzen dieses Feld nicht

Beispiel:
["Hallo", "Wetter"]
reasoning_effort
enum<string> | null
Standard:medium

Begrenzt den Denkaufwand, weniger Denktiefe kann die Geschwindigkeit erhoehen und weniger Token verbrauchen

  • minimal: Denken deaktiviert, direkte Antwort
  • low: Leichtes Denken, Fokus auf schnelle Antwort
  • medium: Ausgewogener Modus, Balance zwischen Geschwindigkeit und Tiefe
  • high: Tiefenanalyse, fuer komplexe Probleme
Verfügbare Optionen:
minimal,
low,
medium,
high
Beispiel:

"medium"

response_format
object

Antwortformat des Modells festlegen

Drei Formate unterstuetzt: text (Standard), json_object, json_schema

frequency_penalty
number | null
Standard:0

Frequenzbestrafungskoeffizient

Hinweis:

  • Wertebereich: [-2.0, 2.0]
  • Bei positiven Werten werden neue Token basierend auf ihrer Haeufigkeit im Text bestraft, wodurch die Wahrscheinlichkeit woertlicher Wiederholungen verringert wird
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

presence_penalty
number | null
Standard:0

Praesenzbestrafungskoeffizient

Hinweis:

  • Wertebereich: [-2.0, 2.0]
  • Bei positiven Werten werden neue Token bestraft, wenn sie bereits im Text vorkommen, wodurch die Wahrscheinlichkeit erhoeht wird, dass das Modell neue Themen anspricht
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

logprobs
boolean | null
Standard:false

Ob Log-Wahrscheinlichkeiten der Ausgabe-Token zurueckgegeben werden

  • false: Keine Log-Wahrscheinlichkeitsinformationen zurueckgeben
  • true: Log-Wahrscheinlichkeiten fuer jeden Ausgabe-Token im Nachrichteninhalt zurueckgeben

Hinweis: Tiefes-Denken-Modelle unterstuetzen dieses Feld nicht

top_logprobs
integer | null

Anzahl der wahrscheinlichsten Token mit Log-Wahrscheinlichkeiten an jeder Token-Position

  • Wertebereich: [0, 20]
  • logprobs muss auf true gesetzt sein, um diesen Parameter zu verwenden
Erforderlicher Bereich: 0 <= x <= 20
tools
object[] | null

Liste der vom Modell aufrufbaren Werkzeuge. Derzeit wird nur function als Werkzeugtyp unterstuetzt

tool_choice
Standard:auto

Steuert, wie das Modell Werkzeuge aufruft

  • none: Modell ruft keine Werkzeuge auf, generiert eine Nachricht
  • auto: Modell entscheidet selbst, ob es ein Werkzeug aufruft oder eine Nachricht generiert
  • required: Modell muss mindestens ein Werkzeug aufrufen
  • Objekt: Bestimmtes Werkzeug zum Aufrufen angeben
Verfügbare Optionen:
none,
auto,
required

Antwort

Chat-Generierung erfolgreich

id
string

Eindeutige Kennung dieser Anfrage

Beispiel:

"0217714854126607f5a9cf8ed5b018c76e4ad3dc2810db57ffb50"

model
string

Tatsaechlich verwendeter Modellname und Version dieser Anfrage

Beispiel:

"doubao-seed-2-0-pro-260215"

object
enum<string>

Antworttyp, fester Wert chat.completion

Verfügbare Optionen:
chat.completion
Beispiel:

"chat.completion"

service_tier
enum<string>

Service-Stufe dieser Anfrage

  • default: Standard-Service-Stufe
  • scale: Garantiepaket-Kontingent verwendet
Verfügbare Optionen:
default,
scale
Beispiel:

"default"

created
integer

Unix-Zeitstempel der Anfrageerstellung (Sekunden)

Beispiel:

1771485416

choices
object[]

Modellausgabeinhalt dieser Anfrage

usage
object

Token-Verbrauch dieser Anfrage