Zum Hauptinhalt springen
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "MiniMax-M2.5",
  "messages": [
    {
      "role": "user",
      "content": "Bitte stellen Sie sich vor"
    }
  ]
}
'
{
  "id": "cmpl-04ea926191a14749b7f2c7a48a68abc6",
  "model": "MiniMax-M2.5",
  "object": "chat.completion",
  "created": 1698999496,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Hallo! Wie kann ich Ihnen helfen?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 8,
    "completion_tokens": 292,
    "total_tokens": 300
  }
}

Autorisierungen

Authorization
string
header
erforderlich

##Alle APIs erfordern Bearer-Token-Authentifizierung##

API Key erhalten:

Besuchen Sie die API Key-Verwaltungsseite, um Ihren API Key zu erhalten

Zum Anfrage-Header hinzufügen:

Authorization: Bearer YOUR_API_KEY

Body

application/json
model
enum<string>
erforderlich

Name des Chat-Modells

Verfügbare Optionen:
MiniMax-M2.5
Beispiel:

"MiniMax-M2.5"

messages
object[]
erforderlich

Liste der Konversationsnachrichten, unterstützt Mehrrunden-Dialog

Minimum array length: 1
max_tokens
integer

Maximale Anzahl an Tokens für generierten Inhalt, Obergrenze ist 2048

Hinweis:

  • Inhalt, der das Limit überschreitet, wird abgeschnitten
  • Wenn die Generierung aufgrund von length unterbrochen wird, versuchen Sie diesen Wert zu erhöhen
Erforderlicher Bereich: 1 <= x <= 2048
Beispiel:

2048

stream
boolean

Ob die Antwort im Streaming-Modus zurückgegeben werden soll

  • true: Stream-Antwort, Inhalt wird in Echtzeit-Blöcken zurückgegeben
  • false: Warten auf vollständige Antwort vor der Rückgabe
Beispiel:

false

temperature
number

Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe

Hinweis:

  • Niedrigere Werte (z.B. 0.1): Bestimmtere, fokussiertere Ausgabe
  • Höhere Werte (z.B. 0.9): Zufälligere, kreativere Ausgabe
  • Wertebereich: (0, 1], ohne 0
Erforderlicher Bereich: x <= 1
Beispiel:

0.7

top_p
number

Nucleus Sampling-Parameter

Hinweis:

  • Steuert die Abtastung aus Tokens mit kumulativer Wahrscheinlichkeit
  • z.B. 0.9 bedeutet Auswahl aus Tokens, die 90% kumulative Wahrscheinlichkeit erreichen
  • Wertebereich: (0, 1], ohne 0

Empfehlung: Passen Sie temperature und top_p nicht gleichzeitig an

Erforderlicher Bereich: x <= 1
Beispiel:

0.9

Ob die Websuche aktiviert werden soll

  • true: Websuche aktivieren, das Modell durchsucht bei Bedarf das Internet nach aktuellen Informationen
  • false: Websuche deaktivieren
Beispiel:

true

search_options
object

Websuchoptionen, erfordert enable_search: true

Antwort

Chat-Vervollständigung erfolgreich

id
string

Eindeutiger Bezeichner für die Chat-Vervollständigung

Beispiel:

"cmpl-04ea926191a14749b7f2c7a48a68abc6"

model
string

Tatsächlich verwendeter Modellname

Beispiel:

"MiniMax-M2.5"

object
enum<string>

Antworttyp

Verfügbare Optionen:
chat.completion
Beispiel:

"chat.completion"

created
integer

Erstellungszeitstempel

Beispiel:

1698999496

choices
object[]

Liste der Chat-Vervollständigungsoptionen

usage
object

Token-Nutzungsstatistiken