deepseek-v4-flash (schnell und universell) und deepseek-v4-pro (tiefes Reasoning)thinking.type steuern; bei deepseek-v4-pro wird der Denkinhalt über reasoning_content zurückgegebenresponse_format aktivierbarhttps://direct.evolink.ai und bietet bessere Unterstützung für Textmodelle sowie persistente Verbindungen. https://api.evolink.ai ist der primäre Endpunkt für multimodale Dienste und dient bei Textmodellen als Ausweichadresse.##Alle APIs erfordern Bearer-Token-Authentifizierung##
API-Schlüssel erhalten:
Besuchen Sie die API-Schlüsselverwaltungsseite, um Ihren API-Schlüssel zu erhalten
Zum Anfrage-Header hinzufügen:
Authorization: Bearer YOUR_API_KEYName des Chat-Modells
deepseek-v4-flash: Schnelles Universalmodell, 1M Kontextdeepseek-v4-pro: Modell für tiefes Reasoning, stark in Mathematik, Programmierung und komplexer LogikHinweis: Beide Modelle haben thinking standardmäßig aktiviert, die Antwort enthält reasoning_content. Über thinking.type="disabled" kann es deaktiviert werden, um die Output-Token-Kosten zu senken. Die Parameter beider Modelle sind identisch.
deepseek-v4-flash, deepseek-v4-pro "deepseek-v4-flash"
Liste der Konversationsnachrichten, unterstützt Mehrrunden-Dialog
Nachrichten verschiedener Rollen haben unterschiedliche Feldstrukturen. Bitte wählen Sie die entsprechende Rolle zur Ansicht.
1Thinking-Modus Steuerung (neu in V4)
Hinweis:
type=enabled)choices[].message.reasoning_content zurückgegeben und als Output-Token abgerechnet⚠️ Hinweis für Mehrrunden-Dialog / Tool-Aufrufe: Wenn die aktuelle Antwort reasoning_content enthält, muss in der nächsten Anfrage die entsprechende assistant-Nachricht in der messages-Historie dieses Feld unverändert zurückgeben, sonst antwortet die API mit 400 The reasoning_content in the thinking mode must be passed back to the API. Wenn Sie dies nicht handhaben möchten, können Sie für die gesamte Sitzung thinking.type="disabled" explizit setzen.
Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe
Hinweis:
0 <= x <= 21
Nucleus-Sampling-Parameter
Hinweis:
Empfehlung: Passen Sie nicht gleichzeitig temperature und top_p an
0 <= x <= 11
Begrenzt die maximale Anzahl der zu generierenden Tokens
Hinweis:
1 <= x <= 3840004096
Häufigkeitsstrafe, zur Reduzierung wiederholter Inhalte
Hinweis:
-2 <= x <= 20
Anwesenheitsstrafe, zur Förderung neuer Themen
Hinweis:
-2 <= x <= 20
Gibt das Antwortformat an
Hinweis:
{"type": "json_object"}, um den JSON-Modus zu aktivierenStoppsequenzen, das Modell stoppt die Generierung, wenn es diese Zeichenketten trifft
Hinweis:
Ob die Antwort als Stream zurückgegeben werden soll
true: Stream-Antwort, Inhalt wird über SSE (Server-Sent Events) blockweise in Echtzeit zurückgegebenfalse: Auf vollständige Antwort warten und alles auf einmal zurückgeben (Standard)false
Optionen für Stream-Antworten
Nur wirksam, wenn stream=true
Liste der Tool-Definitionen für Function Calling
Hinweis:
128Steuert das Verhalten der Tool-Aufrufe
Mögliche Werte:
none: Kein Tool aufrufenauto: Modell entscheidet automatisch, ob ein Tool aufgerufen wird (Standard, wenn tools bereitgestellt werden)required: Modell muss ein oder mehrere Tools aufrufen{"type":"function","function":{"name":"xxx"}}: Ein bestimmtes Tool aufrufenStandardwert: none, wenn keine tools bereitgestellt werden; auto, wenn tools bereitgestellt werden
none, auto, required Ob die Log-Wahrscheinlichkeiten der Tokens zurückgegeben werden sollen
Hinweis:
true enthält die Antwort Log-Wahrscheinlichkeitsinformationen für jedes TokenGibt die Log-Wahrscheinlichkeiten der Top-N Tokens zurück
Hinweis:
logprobs auf true gesetzt[0, 20]0 <= x <= 20Token-Bias-Mapping
Hinweis:
Anzahl der zu generierenden Chat-Vervollständigungen pro Eingabenachricht
Hinweis:
1 <= x <= 81
Zufalls-Seed (Beta)
Hinweis:
Eindeutiger Bezeichner des Endbenutzers
Hinweis:
Chat-Generierung erfolgreich
Eindeutiger Bezeichner der Chat-Vervollständigung
"53c548dc-ec02-4a2f-bbb6-eca4184630b8"
Name des tatsächlich verwendeten Modells
"deepseek-v4-flash"
Antworttyp
chat.completion "chat.completion"
Erstellungszeitstempel (Unix-Sekunden)
1777021417
Liste der Auswahlmöglichkeiten der Chat-Generierung
Token-Nutzungsstatistiken (einschließlich Cache- und Reasoning-Aufschlüsselung)
System-Fingerprint-Kennung
"fp_evolink_v4_20260402"