Documentation Index
Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt
Use this file to discover all available pages before exploring further.
https://direct.evolink.ai und bietet bessere Unterstützung für Textmodelle sowie persistente Verbindungen. https://api.evolink.ai ist der primäre Endpunkt für multimodale Dienste und dient bei Textmodellen als Ausweichadresse.##Alle APIs erfordern Bearer-Token-Authentifizierung##
API-Schlüssel erhalten:
Besuchen Sie die API-Schlüsselverwaltungsseite, um Ihren API-Schlüssel zu erhalten
Zum Anfrage-Header hinzufügen:
Authorization: Bearer YOUR_API_KEY
Chat-Modellname
gemini-2.5-flash-lite "gemini-2.5-flash-lite"
Liste der Chat-Nachrichten, unterstützt Mehrrunden-Dialog und multimodale Eingabe
1Ob die Antwort im Streaming-Modus zurückgegeben werden soll
true: Streaming-Rückgabe, empfängt Inhalte in Echtzeit-Blöckenfalse: Gibt die vollständige Antwort auf einmal zurückfalse
Maximum number of completion tokens for the generated response, corresponding to Gemini's maxOutputTokens.
1 <= x <= 655362000
Maximum number of tokens for the generated response, compatible with the legacy OpenAI parameter.
1 <= x <= 655362000
Sampling-Temperatur, steuert die Zufälligkeit der Ausgabe
Beschreibung:
0 <= x <= 20.7
Nucleus-Sampling-Parameter
Beschreibung:
Empfehlung: temperature und top_p nicht gleichzeitig anpassen
0 <= x <= 10.9
Frequency penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's frequencyPenalty.
-2 <= x <= 20
Presence penalty coefficient. Range: -2.0 to 2.0. Corresponds to Gemini's presencePenalty.
-2 <= x <= 20
Stop sequences. Supports a string or string array, corresponding to Gemini's stopSequences.
Number of generated candidates.
x >= 11
Begrenzt den Denkaufwand. Gemini 2.5 Flash und Flash Lite unterstützen none zum Deaktivieren des Denkens; low/medium/high entsprechen unterschiedlichen Denkbudgets.
none, low, medium, high "medium"
Random seed used to make output as reproducible as possible, corresponding to Gemini's seed.
12345
Whether to return token logprob information, corresponding to Gemini's responseLogprobs.
true
Number of top logprob values returned for each token, corresponding to Gemini's logprobs.
0 <= x <= 205
Response format settings, supporting JSON mode and JSON Schema, corresponding to Gemini's responseMimeType, responseSchema and responseJsonSchema.
Streaming response options. Can be set when stream is true.
List of tool definitions for Function Calling.
Controls tool-calling behavior.
none, auto, required Gemini extension parameters.
Chat-Vervollständigung erfolgreich generiert
Eindeutiger Bezeichner für die Chat-Vervollständigung
"chatcmpl-20251010015944503180122WJNB8Eid"
Tatsächlich verwendeter Modellname
"gemini-2.5-flash-lite"
Antworttyp
chat.completion "chat.completion"
Erstellungszeitstempel
1760032810
Liste der Chat-Vervollständigungsoptionen
Token-Nutzungsstatistiken