##Alle APIs erfordern Bearer-Token-Authentifizierung##
API-Schluessel erhalten:
Besuchen Sie die API-Schluesselverwaltungsseite, um Ihren API-Schluessel zu erhalten
Zum Anfrage-Header hinzufuegen:
Authorization: Bearer YOUR_API_KEYChat-Modellname
doubao-seed-2.0-pro: Flaggschiff-Version, staerkste Gesamtleistung, geeignet fuer komplexes Reasoning und hochwertige Generierungdoubao-seed-2.0-lite: Leichtversion, schneller, gutes Preis-Leistungs-Verhaeltnisdoubao-seed-2.0-mini: Ultraschnelle Version, schnellste Antwort, geeignet fuer einfache Aufgabendoubao-seed-2.0-code: Code-Spezialversion, optimiert fuer Codegenerierung und -verstaendnisdoubao-seed-2.0-pro, doubao-seed-2.0-lite, doubao-seed-2.0-mini, doubao-seed-2.0-code "doubao-seed-2.0-pro"
Chat-Nachrichtenliste, unterstuetzt Mehrrunden-Konversation und multimodale Eingabe (Text, Bild, Video)
1Steuert, ob das Modell den Tiefes-Denken-Modus aktiviert
Ob und welcher Standardwert gilt, haengt vom jeweiligen Modell ab
Ob die Antwort als Stream zurueckgegeben wird
false: Modell generiert den gesamten Inhalt und gibt das Ergebnis auf einmal zuruecktrue: Gibt den Modellinhalt blockweise per SSE-Protokoll zurueck, endet mit einer data: [DONE] Nachricht. Wenn stream true ist, kann stream_options fuer Token-Verbrauchsstatistiken gesetzt werdenfalse
Optionen fuer Streaming-Antworten. Kann gesetzt werden, wenn stream true ist
Maximale Antwortlaenge des Modells (in Token)
Hinweis:
4096
Steuert die maximale Ausgabelaenge des Modells, einschliesslich Antwort- und Chain-of-Thought-Inhalt (in Token)
Hinweis:
0 <= x <= 6553616384
Sampling-Temperatur, steuert die Zufaelligkeit der Ausgabe
Hinweis:
0 <= x <= 20.7
Nucleus-Sampling-Wahrscheinlichkeitsschwelle
Hinweis:
0 <= x <= 10.9
Das Modell stoppt die Generierung, wenn es auf die im stop-Feld angegebenen Zeichenketten trifft. Das Wort selbst wird nicht ausgegeben. Maximal 4 Zeichenketten
Hinweis: Tiefes-Denken-Modelle unterstuetzen dieses Feld nicht
["Hallo", "Wetter"]Begrenzt den Denkaufwand, weniger Denktiefe kann die Geschwindigkeit erhoehen und weniger Token verbrauchen
minimal: Denken deaktiviert, direkte Antwortlow: Leichtes Denken, Fokus auf schnelle Antwortmedium: Ausgewogener Modus, Balance zwischen Geschwindigkeit und Tiefehigh: Tiefenanalyse, fuer komplexe Problememinimal, low, medium, high "medium"
Antwortformat des Modells festlegen
Drei Formate unterstuetzt: text (Standard), json_object, json_schema
Frequenzbestrafungskoeffizient
Hinweis:
-2 <= x <= 20
Praesenzbestrafungskoeffizient
Hinweis:
-2 <= x <= 20
Ob Log-Wahrscheinlichkeiten der Ausgabe-Token zurueckgegeben werden
false: Keine Log-Wahrscheinlichkeitsinformationen zurueckgebentrue: Log-Wahrscheinlichkeiten fuer jeden Ausgabe-Token im Nachrichteninhalt zurueckgebenHinweis: Tiefes-Denken-Modelle unterstuetzen dieses Feld nicht
Anzahl der wahrscheinlichsten Token mit Log-Wahrscheinlichkeiten an jeder Token-Position
0 <= x <= 20Liste der vom Modell aufrufbaren Werkzeuge. Derzeit wird nur function als Werkzeugtyp unterstuetzt
Steuert, wie das Modell Werkzeuge aufruft
none: Modell ruft keine Werkzeuge auf, generiert eine Nachrichtauto: Modell entscheidet selbst, ob es ein Werkzeug aufruft oder eine Nachricht generiertrequired: Modell muss mindestens ein Werkzeug aufrufennone, auto, required Chat-Generierung erfolgreich
Eindeutige Kennung dieser Anfrage
"0217714854126607f5a9cf8ed5b018c76e4ad3dc2810db57ffb50"
Tatsaechlich verwendeter Modellname und Version dieser Anfrage
"doubao-seed-2-0-pro-260215"
Antworttyp, fester Wert chat.completion
chat.completion "chat.completion"
Service-Stufe dieser Anfrage
default: Standard-Service-Stufescale: Garantiepaket-Kontingent verwendetdefault, scale "default"
Unix-Zeitstempel der Anfrageerstellung (Sekunden)
1771485416
Modellausgabeinhalt dieser Anfrage
Token-Verbrauch dieser Anfrage