メインコンテンツへスキップ
POST
/
v1
/
chat
/
completions
curl --request POST \
  --url https://direct.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "deepseek-v4-flash",
  "messages": [
    {
      "role": "user",
      "content": "自己紹介をお願いします"
    }
  ]
}
'
{
  "id": "837f529d-00f9-4731-b2e1-4a54fc31790a",
  "object": "chat.completion",
  "created": 1777026806,
  "model": "deepseek-v4-flash",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "こんにちは!私は DeepSeek アシスタントです。いつでもご質問にお答えし、お手伝いします。"
      },
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 7,
    "completion_tokens": 31,
    "total_tokens": 38,
    "prompt_tokens_details": {
      "cached_tokens": 0
    },
    "prompt_cache_hit_tokens": 0,
    "prompt_cache_miss_tokens": 7
  },
  "system_fingerprint": "fp_evolink_v4_20260402"
}
BaseURL:デフォルトの BaseURL は https://direct.evolink.ai で、テキストモデルへの対応が優れており、長時間接続をサポートします。https://api.evolink.ai はマルチモーダルの主力エンドポイントで、テキストモデルに対しては代替アドレスとして使用されます。

承認

Authorization
string
header
必須

##すべてのインターフェースは Bearer Token による認証が必要です##

API Key の取得

API Key 管理ページ にアクセスして API Key を取得してください

使用時はリクエストヘッダに追加

Authorization: Bearer YOUR_API_KEY

ボディ

application/json
model
enum<string>
デフォルト:deepseek-v4-flash
必須

会話モデル名

  • deepseek-v4-flash:高速汎用モデル、1M コンテキスト
  • deepseek-v4-pro:深度推論モデル、数学、プログラミング、複雑なロジックが得意

ヒント:両モデルは thinking がデフォルトで有効 であり、レスポンスには reasoning_content が含まれます。thinking.type="disabled" で無効化すると出力 token コストを削減できます。両モデルのパラメータは完全に同一です。

利用可能なオプション:
deepseek-v4-flash,
deepseek-v4-pro
:

"deepseek-v4-flash"

messages
(System Message · object | User Message · object | Assistant Message · object | Tool Message · object)[]
必須

会話メッセージリスト、マルチターン会話をサポート

役割ごとにメッセージのフィールド構造が異なるため、該当する役割を選択して確認してください

Minimum array length: 1
thinking
object

思考モード制御(V4 新機能)

説明

  • 深度思考(Chain of Thought)機能を制御するために使用
  • 両モデルともデフォルトで有効type=enabled
  • 有効時、推論過程は choices[].message.reasoning_content で返され、出力 token として課金されます

⚠️ マルチターン会話 / ツール呼び出しの注意:本ターンのレスポンスに reasoning_content が含まれている場合、次のリクエストの messages 履歴の該当 assistant メッセージでこのフィールドをそのまま返送する必要があります。さもないと API は 400 The reasoning_content in the thinking mode must be passed back to the API を返します。処理したくない場合は、セッション全体で明示的に thinking.type="disabled" を指定できます。

temperature
number
デフォルト:1

サンプリング温度、出力のランダム性を制御

説明

  • 低い値(例:0.2):より確定的で集中した出力
  • 高い値(例:1.5):よりランダムで創造的な出力
  • デフォルト値:1
必須範囲: 0 <= x <= 2
:

1

top_p
number
デフォルト:1

核サンプリング(Nucleus Sampling)パラメータ

説明

  • 累積確率の上位何%の token からサンプリングするかを制御
  • 例:0.9 は累積確率が 90% に達する token から選択
  • デフォルト値:1.0(すべての token を考慮)

推奨:temperature と top_p を同時に調整しないでください

必須範囲: 0 <= x <= 1
:

1

max_tokens
integer

生成するコンテンツの最大 token 数を制限

説明

  • V4 シリーズは最大 384,000 tokens まで可能
  • thinking 有効時、reasoning_tokens も max_tokens の上限に含まれます
  • 未設定の場合、モデル自身が生成長さを決定
必須範囲: 1 <= x <= 384000
:

4096

frequency_penalty
number
デフォルト:0

頻度ペナルティパラメータ、繰り返し内容を減らすため

説明

  • 正の値は、生成済みテキストで出現した token の頻度に基づいてペナルティを与えます
  • 値が大きいほど、既出の内容を繰り返しにくくなります
  • デフォルト値:0(ペナルティなし)
必須範囲: -2 <= x <= 2
:

0

presence_penalty
number
デフォルト:0

存在ペナルティパラメータ、新しいトピックの生成を促進するため

説明

  • 正の値は、token がテキストに既出かどうかに基づいてペナルティを与えます
  • 値が大きいほど、新しいトピックを議論する傾向が強くなります
  • デフォルト値:0(ペナルティなし)
必須範囲: -2 <= x <= 2
:

0

response_format
object

レスポンスフォーマットを指定

説明

  • {"type": "json_object"} に設定すると JSON モードを有効化
  • JSON モード下、モデルは有効な JSON 形式のコンテンツを出力します
  • 最適な効果を得るため、system または user メッセージで JSON 出力を明示的に要求することを推奨
stop

停止シーケンス、モデルがこれらの文字列に遭遇すると生成を停止

説明

  • 単一文字列または文字列配列を指定可能
  • 最大 16 個の停止シーケンスをサポート
stream
boolean
デフォルト:false

ストリーミング方式でレスポンスを返すかどうか

  • true:ストリーミング返却、SSE(Server-Sent Events)を通じてチャンクごとにリアルタイムでコンテンツを返す
  • false:完全なレスポンスを待ってから一度に返す(デフォルト)
:

false

stream_options
object

ストリーミングレスポンスオプション

stream=true の場合のみ有効

tools
object[]

ツール定義リスト、Function Calling に使用

説明

  • 最大 128 個のツール定義をサポート
  • 各ツールには名前、説明、パラメータ schema を定義する必要があります
Maximum array length: 128
tool_choice

ツール呼び出し動作を制御

選択可能な値

  • none:いかなるツールも呼び出さない
  • auto:モデルが自動的にツール呼び出しを決定(tools 提供時のデフォルト)
  • required:モデルに 1 つ以上のツールを強制的に呼び出させる
  • オブジェクト形式 {"type":"function","function":{"name":"xxx"}}:特定のツール呼び出しを指定

デフォルト値:tools を提供しない場合は none、提供する場合は auto

利用可能なオプション:
none,
auto,
required
logprobs
boolean
デフォルト:false

token の対数確率を返すかどうか

説明

  • true に設定すると、レスポンスに各 token の対数確率情報が含まれます
top_logprobs
integer

確率の最も高い上位 N 個の token の対数確率を返す

説明

  • logprobstrue に設定する必要があります
  • 値の範囲:[0, 20]
必須範囲: 0 <= x <= 20
logit_bias
object

Token バイアスマッピング

説明

  • キーは tokenizer 中の token ID、値は -100 から 100 の間のバイアス値
  • -100 はその token を完全に禁止、100 は強制生成
  • 典型的な値の範囲 -1 から 1 でも観測可能な影響を及ぼします
n
integer
デフォルト:1

各入力メッセージに対して生成するチャット補完オプションの数

説明

  • デフォルト 1;N に設定すると N 個の候補が返されます(N × output_tokens で課金)
必須範囲: 1 <= x <= 8
:

1

seed
integer

ランダムシード(Beta)

説明

  • 指定するとモデルは確定的サンプリングを試みます
  • 同じ seed + 同じ他のパラメータ → 同じ出力(100% の保証ではない)
user
string

エンドユーザーを表す一意の識別子

説明

  • プラットフォームの悪用監視と検出に役立ちます
  • ハッシュ化されたユーザー ID の使用を推奨

レスポンス

会話生成成功

id
string

会話補完の一意識別子

:

"53c548dc-ec02-4a2f-bbb6-eca4184630b8"

model
string

実際に使用されたモデル名

:

"deepseek-v4-flash"

object
enum<string>

レスポンスタイプ

利用可能なオプション:
chat.completion
:

"chat.completion"

created
integer

作成タイムスタンプ(Unix 秒)

:

1777021417

choices
object[]

会話生成の選択肢リスト

usage
object

Token 使用統計情報(キャッシュと推論の分項を含む)

system_fingerprint
string

システム指紋識別子

:

"fp_evolink_v4_20260402"