deepseek-chat (allgemeine Konversation) und deepseek-reasoner (tiefes Denken) Modelle##Alle APIs erfordern Bearer-Token-Authentifizierung##
API-Schlüssel erhalten:
Besuchen Sie die API-Schlüsselverwaltungsseite, um Ihren API-Schlüssel zu erhalten
Zum Anfrage-Header hinzufügen:
Authorization: Bearer YOUR_API_KEY
Chat-Modellname
deepseek-chat: Allgemeines Konversationsmodelldeepseek-reasoner: Tiefes Denkmodell, hervorragend in Mathematik, Programmierung und komplexem logischem DenkenHinweis: deepseek-reasoner unterstützt die Parameter temperature, top_p, tools, tool_choice, response_format nicht. Die Übergabe dieser Parameter wird vom Upstream abgelehnt
deepseek-chat, deepseek-reasoner "deepseek-chat"
Konversationsnachrichtenliste, unterstützt Mehrrunden-Konversation
Verschiedene Rollen haben unterschiedliche Feldstrukturen, wählen Sie die entsprechende Rolle zur Ansicht
1Denkmodus-Steuerung (Beta)
Details:
deepseek-reasoner-ModellsFrequenzstrafe-Parameter zur Reduzierung repetitiver Inhalte
Details:
-2 <= x <= 20
Maximale Anzahl der zu generierenden Tokens
Details:
x >= 14096
Präsenzstrafe-Parameter zur Förderung neuer Themen
Details:
-2 <= x <= 20
Antwortformat angeben
Details:
{"type": "json_object"} setzen, um den JSON-Modus zu aktivierenStoppsequenzen. Das Modell stoppt die Generierung, wenn es auf diese Zeichenketten trifft
Details:
Ob die Antwort gestreamt werden soll
true: Streaming über SSE (Server-Sent Events), Inhalte werden in Echtzeit-Blöcken zurückgegebenfalse: Auf die vollständige Antwort warten, bevor sie zurückgegeben wirdfalse
Streaming-Antwortoptionen
Nur wirksam, wenn stream=true
Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe
Details:
0 <= x <= 21
Nucleus-Sampling-Parameter
Details:
Tipp: Vermeiden Sie es, temperature und top_p gleichzeitig anzupassen
0 <= x <= 11
Tool-Definitionsliste für Function Calling
Details:
128Steuert das Verhalten von Tool-Aufrufen
Optionen:
none: Keine Tools aufrufenauto: Modell entscheidet, ob Tools aufgerufen werdenrequired: Modell wird gezwungen, ein oder mehrere Tools aufzurufenStandard: none wenn keine Tools bereitgestellt werden, auto wenn Tools bereitgestellt werden
none, auto, required Ob Token-Log-Wahrscheinlichkeiten zurückgegeben werden sollen
Details:
true gesetzt, enthält die Antwort Log-Wahrscheinlichkeitsinformationen für jedes TokenLog-Wahrscheinlichkeiten der N wahrscheinlichsten Tokens zurückgeben
Details:
logprobs auf true gesetzt ist[0, 20]0 <= x <= 20Chat-Vervollständigung erfolgreich generiert
Eindeutiger Bezeichner für die Chat-Vervollständigung
"930c60df-bf64-41c9-a88e-3ec75f81e00e"
Tatsächlich verwendeter Modellname
"deepseek-chat"
Antworttyp
chat.completion "chat.completion"
Erstellungszeitstempel
1770617860
Liste der Chat-Vervollständigungsoptionen
Token-Nutzungsstatistiken
System-Fingerabdruck-Bezeichner
"fp_eaab8d114b_prod0820_fp8_kvcache"