메인 콘텐츠로 건너뛰기
POST
/
v1beta
/
models
/
gemini-3.1-pro-preview-customtools:generateContent
curl --request POST \
  --url https://direct.evolink.ai/v1beta/models/gemini-3.1-pro-preview-customtools:generateContent \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "contents": [
    {
      "role": "user",
      "parts": [
        {
          "text": "Please introduce yourself"
        }
      ]
    }
  ]
}
'
{
  "candidates": [
    {
      "content": {
        "role": "model",
        "parts": [
          {
            "text": "Hello! I'm pleased to introduce myself.\n\nI'm a large language model, trained and developed by Google...",
            "thought": true,
            "thoughtSignature": "<Signature_A>"
          }
        ]
      },
      "finishReason": "STOP",
      "index": 0,
      "safetyRatings": [
        {}
      ]
    }
  ],
  "promptFeedback": {
    "safetyRatings": [
      {}
    ]
  },
  "usageMetadata": {
    "promptTokenCount": 4,
    "candidatesTokenCount": 611,
    "totalTokenCount": 2422,
    "thoughtsTokenCount": 1807,
    "promptTokensDetails": [
      {
        "modality": "TEXT",
        "tokenCount": 4
      }
    ],
    "cachedContentTokenCount": 0
  },
  "modelVersion": "gemini-3.1-pro-preview",
  "responseId": "l-LoaPu0BPmo1dkP6ZPHiQc"
}

Documentation Index

Fetch the complete documentation index at: https://docs.evolink.ai/llms.txt

Use this file to discover all available pages before exploring further.

스트리밍 호출: URL의 generateContentstreamGenerateContent로 변경하세요. 요청 본문 파라미터는 동일합니다. 응답은 스트리밍 방식으로 청크 단위로 반환됩니다. 응답 형식은 아래 「스트리밍 응답」 설명을 참조하세요.
BaseURL: 기본 BaseURL은 https://direct.evolink.ai이며, 텍스트 모델 지원이 더 우수하고 장시간 연결을 지원합니다. https://api.evolink.ai는 멀티모달 서비스의 주력 엔드포인트이며, 텍스트 모델에 대해서는 대체 주소로 사용됩니다.

인증

Authorization
string
header
필수

##모든 API는 Bearer Token 인증이 필요합니다##

API Key 받기:

API Key 관리 페이지를 방문하여 API Key를 받으세요

요청 헤더에 추가:

Authorization: Bearer YOUR_API_KEY

본문

application/json
contents
object[]
필수

List of conversation contents, supports multi-turn dialogue and multimodal input

Minimum array length: 1
generationConfig
object

Generation configuration parameters (optional)

systemInstruction
object

System instruction (optional), mainly text content

tools
object[]

List of tools the model can call, such as function calling or code execution

toolConfig
object

Tool calling configuration (optional)

safetySettings
object[]

Safety settings list (optional)

cachedContent
string

Cached content name, in the form cachedContents/{cachedContent}

응답

콘텐츠가 성공적으로 생성되었습니다

응답 형식 설명:

  • generateContent 엔드포인트 사용 시, GenerateContentResponse 반환 (완전한 응답을 한 번에 반환)
  • streamGenerateContent 엔드포인트 사용 시, StreamGenerateContentResponse 반환 (스트리밍 응답, 콘텐츠를 청크 단위로 반환)
candidates
object[]

List of candidate responses

promptFeedback
object
usageMetadata
object

사용량 통계

modelVersion
string

Model version

예시:

"gemini-3.1-pro-preview"

responseId
string

Response ID

예시:

"l-LoaPu0BPmo1dkP6ZPHiQc"