メインコンテンツへスキップ
POST
/
v1
/
messages
curl --request POST \ --url https://direct.evolink.ai/v1/messages \ --header 'Authorization: Bearer <token>' \ --header 'Content-Type: application/json' \ --data ' { "model": "deepseek-v4-flash", "max_tokens": 1024, "messages": [ { "role": "user", "content": "Hello, world" } ] } '
{ "id": "53ee6690-e14a-4e6b-890b-a135100d51c7", "type": "message", "role": "assistant", "model": "deepseek-v4-flash", "content": [ { "type": "thinking", "thinking": "ユーザーは「日本の首都」を尋ねています。基礎的な地理の質問で、答えは東京、直接答えればよいです。", "signature": "53ee6690-e14a-4e6b-890b-a135100d51c7" }, { "type": "text", "text": "日本の首都は**東京**です。" } ], "stop_reason": "end_turn", "stop_sequence": null, "usage": { "input_tokens": 7, "cache_creation_input_tokens": 0, "cache_read_input_tokens": 0, "output_tokens": 77, "service_tier": "standard" } }
BaseURL:デフォルトの BaseURL は https://direct.evolink.ai で、テキストモデルへの対応が優れており、長時間接続をサポートします。https://api.evolink.ai はマルチモーダルの主力エンドポイントで、テキストモデルに対しては代替アドレスとして使用されます。

承認

Authorization
string
header
必須

##すべてのインターフェースは Bearer Token による認証が必要です##

API Key の取得

API Key 管理ページ にアクセスして API Key を取得してください

使用時はリクエストヘッダに追加

Authorization: Bearer YOUR_API_KEY

備考:Anthropic ネイティブ API は x-api-key ヘッダを使用しますが、EvoLink の /v1/messages は統一して Bearer Token 認証を採用します。

ボディ

application/json
model
enum<string>
デフォルト:deepseek-v4-flash
必須

呼び出すモデル

  • deepseek-v4-flash:高速汎用
  • deepseek-v4-pro:深度推論

ヒント:両モデルは デフォルトで thinking が有効 であり、レスポンスには常に type="thinking" の content block が含まれます。無効化する場合は明示的に thinking.type="disabled" を指定してください。未指定またはサポートされていない model は自動的に deepseek-v4-flash にマッピングされます。

利用可能なオプション:
deepseek-v4-flash,
deepseek-v4-pro
:

"deepseek-v4-flash"

max_tokens
integer
必須

生成する最大 token 数(必須

説明

  • V4 シリーズは最大 384,000 まで可能
  • thinking で生成される token も max_tokens の上限に含まれます
必須範囲: 1 <= x <= 384000
:

1024

messages
object[]
必須

会話メッセージリスト、ターンごとに user / assistant が交互

説明

  • 少なくとも 1 つのメッセージを含む
  • 最後のメッセージは通常 role=user
  • image / document コンテンツタイプは現在未サポート
Minimum array length: 1
system

システムプロンプト、AI の役割と動作を設定するために使用

説明

  • 文字列または文字列配列をサポート
  • OpenAI エンドポイントの system メッセージとは異なり、Anthropic エンドポイントはトップレベルの system フィールドを使用
:

"You are a helpful assistant."

temperature
number
デフォルト:1

サンプリング温度

説明

  • 範囲 [0.0, 2.0]
  • デフォルト 1;値が高いほど発散的、低いほど確定的
必須範囲: 0 <= x <= 2
:

1

top_p
number
デフォルト:1

核サンプリング閾値

説明

  • 範囲 [0, 1]
  • temperature と top_p を同時に調整しないことを推奨
必須範囲: 0 <= x <= 1
:

1

stop_sequences
string[]

カスタム停止シーケンス

説明

  • モデルがいずれかの文字列に遭遇すると生成を停止
  • 最大 4 個(Anthropic 規範に従う)
Maximum array length: 4
stream
boolean
デフォルト:false

SSE ストリーミングで返すかどうか

  • true:Server-Sent Events でストリーミング返却
  • false:完全なレスポンス後に一度に返す(デフォルト)
:

false

thinking
object

思考モード制御(V4)

説明

  • 両モデルともデフォルトで有効type=enabled
  • 有効時、レスポンスの content 配列に type="thinking" の推論過程 block が出現します(出力 token として課金)
  • 注意:この API は Anthropic ネイティブの budget_tokens フィールドを 無視 します。深度制御には output_config.effort を使用してください
  • マルチターン会話では、前ターンのレスポンスの thinking block をそのまま assistant content 配列に戻すだけで OK(Anthropic プロトコルスタイルはより寛容で、thinking の欠落でエラーにはなりませんが、signature を保持することでコンテキストの一貫性が向上します)
output_config
object

出力設定(V4 拡張)

説明:Deepseek は effort フィールドのみサポート

tools
object[]

ツール定義リスト

説明

  • Anthropic tool 定義規範に従う
  • input_schema は JSON Schema オブジェクトを使用
tool_choice
object

ツール呼び出し動作を制御

選択可能な type

  • auto:モデルが自動決定(tools 提供時のデフォルト)
  • any:必ず何らかのツールを呼び出す(どれかは指定しない)
  • tool:指定された name のツールを必ず呼び出す
  • none:ツール呼び出しを禁止

レスポンス

メッセージオブジェクト

Anthropic スタイルのメッセージレスポンス

id
string

メッセージの一意 ID

type
enum<string>

レスポンスオブジェクトタイプ

利用可能なオプション:
message
role
enum<string>
利用可能なオプション:
assistant
model
string

実際に使用されたモデル

:

"deepseek-v4-pro"

content
object[]

レスポンス内容ブロックリスト

含まれる可能性のある block type

  • thinking:推論過程(thinking 有効時のみ)
  • text:最終回答テキスト
  • tool_use:モデルが発起したツール呼び出し
stop_reason
enum<string>

停止理由

  • end_turn:自然終了
  • max_tokens:max_tokens の上限に到達
  • stop_sequence:stop_sequences にヒット
  • tool_use:モデルがツール呼び出しをトリガー
利用可能なオプション:
end_turn,
max_tokens,
stop_sequence,
tool_use
stop_sequence
string | null

stop_reason=stop_sequence の場合にヒットした具体的なシーケンス、それ以外は null

usage
object

Token 使用統計(Anthropic 規範)