Zum Hauptinhalt springen
POST
/
v1
/
chat
/
completions
curl --request POST \ --url https://api.evolink.ai/v1/chat/completions \ --header 'Authorization: Bearer <token>' \ --header 'Content-Type: application/json' \ --data ' { "model": "deepseek-chat", "messages": [ { "role": "user", "content": "Tell me about yourself" } ] } '
{
  "id": "930c60df-bf64-41c9-a88e-3ec75f81e00e",
  "model": "deepseek-chat",
  "object": "chat.completion",
  "created": 1770617860,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hello! I'm DeepSeek, a powerful AI assistant. I excel at general conversation, code generation, mathematical reasoning and many other tasks.",
        "reasoning_content": "Let me analyze this problem...",
        "tool_calls": [
          {
            "id": "<string>",
            "type": "function",
            "function": {
              "name": "<string>",
              "arguments": "<string>"
            }
          }
        ]
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 10,
    "total_tokens": 26,
    "prompt_cache_hit_tokens": 0,
    "prompt_cache_miss_tokens": 16
  },
  "system_fingerprint": "fp_eaab8d114b_prod0820_fp8_kvcache"
}

Autorisierungen

Authorization
string
header
erforderlich

##Alle APIs erfordern Bearer-Token-Authentifizierung##

API-Schlüssel erhalten:

Besuchen Sie die API-Schlüsselverwaltungsseite, um Ihren API-Schlüssel zu erhalten

Zum Anfrage-Header hinzufügen:

Authorization: Bearer YOUR_API_KEY

Body

application/json
model
enum<string>
Standard:deepseek-chat
erforderlich

Chat-Modellname

  • deepseek-chat: Allgemeines Konversationsmodell
  • deepseek-reasoner: Tiefes Denkmodell, hervorragend in Mathematik, Programmierung und komplexem logischem Denken

Hinweis: deepseek-reasoner unterstützt die Parameter temperature, top_p, tools, tool_choice, response_format nicht. Die Übergabe dieser Parameter wird vom Upstream abgelehnt

Verfügbare Optionen:
deepseek-chat,
deepseek-reasoner
Beispiel:

"deepseek-chat"

messages
(Systemnachricht · object | Benutzernachricht · object | Assistenten-Nachricht · object | Werkzeugnachricht · object)[]
erforderlich

Konversationsnachrichtenliste, unterstützt Mehrrunden-Konversation

Verschiedene Rollen haben unterschiedliche Feldstrukturen, wählen Sie die entsprechende Rolle zur Ansicht

Minimum array length: 1
thinking
object

Denkmodus-Steuerung (Beta)

Details:

  • Steuert die Tiefdenk-Funktion des deepseek-reasoner-Modells
  • Wenn aktiviert, führt das Modell vor der Antwort tiefes Denken durch
frequency_penalty
number
Standard:0

Frequenzstrafe-Parameter zur Reduzierung repetitiver Inhalte

Details:

  • Positive Werte bestrafen Tokens basierend auf ihrer Häufigkeit im generierten Text
  • Höhere Werte machen es unwahrscheinlicher, bestehende Inhalte zu wiederholen
  • Standard: 0 (keine Strafe)
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

max_tokens
integer

Maximale Anzahl der zu generierenden Tokens

Details:

  • Das Modell stoppt die Generierung, wenn dieses Limit erreicht ist
  • Wenn nicht gesetzt, entscheidet das Modell über die Generierungslänge
Erforderlicher Bereich: x >= 1
Beispiel:

4096

presence_penalty
number
Standard:0

Präsenzstrafe-Parameter zur Förderung neuer Themen

Details:

  • Positive Werte bestrafen Tokens basierend darauf, ob sie im Text vorgekommen sind
  • Höhere Werte fördern die Diskussion neuer Themen
  • Standard: 0 (keine Strafe)
Erforderlicher Bereich: -2 <= x <= 2
Beispiel:

0

response_format
object

Antwortformat angeben

Details:

  • Auf {"type": "json_object"} setzen, um den JSON-Modus zu aktivieren
  • Im JSON-Modus gibt das Modell gültigen JSON-Inhalt aus
stop

Stoppsequenzen. Das Modell stoppt die Generierung, wenn es auf diese Zeichenketten trifft

Details:

  • Kann eine einzelne Zeichenkette oder ein Array von Zeichenketten sein
  • Maximal 16 Stoppsequenzen
stream
boolean
Standard:false

Ob die Antwort gestreamt werden soll

  • true: Streaming über SSE (Server-Sent Events), Inhalte werden in Echtzeit-Blöcken zurückgegeben
  • false: Auf die vollständige Antwort warten, bevor sie zurückgegeben wird
Beispiel:

false

stream_options
object

Streaming-Antwortoptionen

Nur wirksam, wenn stream=true

temperature
number
Standard:1

Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe

Details:

  • Niedrigere Werte (z.B. 0.2): Deterministischere, fokussiertere Ausgabe
  • Höhere Werte (z.B. 1.5): Zufälligere, kreativere Ausgabe
  • Standard: 1
Erforderlicher Bereich: 0 <= x <= 2
Beispiel:

1

top_p
number
Standard:1

Nucleus-Sampling-Parameter

Details:

  • Steuert das Sampling von Tokens, deren kumulative Wahrscheinlichkeit den Schwellenwert erreicht
  • Zum Beispiel bedeutet 0.9, dass aus Tokens mit 90% kumulativer Wahrscheinlichkeit gesampelt wird
  • Standard: 1.0 (alle Tokens berücksichtigen)

Tipp: Vermeiden Sie es, temperature und top_p gleichzeitig anzupassen

Erforderlicher Bereich: 0 <= x <= 1
Beispiel:

1

tools
object[]

Tool-Definitionsliste für Function Calling

Details:

  • Maximal 128 Tool-Definitionen
  • Jedes Tool erfordert einen Namen, eine Beschreibung und ein Parameterschema
Maximum array length: 128
tool_choice

Steuert das Verhalten von Tool-Aufrufen

Optionen:

  • none: Keine Tools aufrufen
  • auto: Modell entscheidet, ob Tools aufgerufen werden
  • required: Modell wird gezwungen, ein oder mehrere Tools aufzurufen

Standard: none wenn keine Tools bereitgestellt werden, auto wenn Tools bereitgestellt werden

Verfügbare Optionen:
none,
auto,
required
logprobs
boolean
Standard:false

Ob Token-Log-Wahrscheinlichkeiten zurückgegeben werden sollen

Details:

  • Wenn auf true gesetzt, enthält die Antwort Log-Wahrscheinlichkeitsinformationen für jedes Token
top_logprobs
integer

Log-Wahrscheinlichkeiten der N wahrscheinlichsten Tokens zurückgeben

Details:

  • Erfordert, dass logprobs auf true gesetzt ist
  • Bereich: [0, 20]
Erforderlicher Bereich: 0 <= x <= 20

Antwort

Chat-Vervollständigung erfolgreich generiert

id
string

Eindeutiger Bezeichner für die Chat-Vervollständigung

Beispiel:

"930c60df-bf64-41c9-a88e-3ec75f81e00e"

model
string

Tatsächlich verwendeter Modellname

Beispiel:

"deepseek-chat"

object
enum<string>

Antworttyp

Verfügbare Optionen:
chat.completion
Beispiel:

"chat.completion"

created
integer

Erstellungszeitstempel

Beispiel:

1770617860

choices
object[]

Liste der Chat-Vervollständigungsoptionen

usage
object

Token-Nutzungsstatistiken

system_fingerprint
string

System-Fingerabdruck-Bezeichner

Beispiel:

"fp_eaab8d114b_prod0820_fp8_kvcache"