Documentation Index
Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt
Use this file to discover all available pages before exploring further.
https://direct.evolink.ai,对文本模型支持更好,支持长连接;https://api.evolink.ai 是多模态主力地址,对文本模型作为备用地址使用。##所有接口均需要使用Bearer Token进行认证##
获取 API Key:
访问 API Key 管理页面 获取您的 API Key
使用时在请求头中添加:
Authorization: Bearer YOUR_API_KEY
对话模型名称
gemini-2.5-flash-lite "gemini-2.5-flash-lite"
对话消息列表,支持多轮对话和多模态输入
1是否以流式方式返回响应
true: 流式返回,逐块实时返回内容false: 等待完整响应后一次性返回false
生成回复的最大 completion token 数量,对应 Gemini 的 maxOutputTokens。
1 <= x <= 655362000
生成回复的最大 token 数量,兼容旧版 OpenAI 参数。
1 <= x <= 655362000
采样温度,控制输出的随机性
说明:
0 <= x <= 20.7
核采样(Nucleus Sampling)参数
说明:
建议: 不要同时调整 temperature 和 top_p
0 <= x <= 10.9
重复 token 惩罚系数,范围 -2 到 2,对应 Gemini 的 frequencyPenalty。
-2 <= x <= 20
已出现 token 惩罚系数,范围 -2 到 2,对应 Gemini 的 presencePenalty。
-2 <= x <= 20
停止序列,支持字符串或字符串数组,对应 Gemini 的 stopSequences。
生成候选数量
x >= 11
限制思考工作量。Gemini 2.5 Flash 和 Flash Lite 支持 none 以关闭思考,low/medium/high 对应不同的思考预算。
none, low, medium, high "medium"
用于尽可能复现输出的随机种子,对应 Gemini 的 seed。
12345
是否返回 token 的 logprob 信息,对应 Gemini 的 responseLogprobs。
true
每个 token 返回的 top logprob 数量,对应 Gemini 的 logprobs。
0 <= x <= 205
响应格式设置,支持 JSON mode 与 JSON Schema,对应 Gemini 的 responseMimeType、responseSchema 和 responseJsonSchema。
流式响应的选项。当 stream 为 true 时,可设置此字段
工具定义列表,用于 Function Calling
控制工具调用行为
none, auto, required Gemini 扩展参数