メインコンテンツへスキップ
POST
/
v1
/
chat
/
completions
インテリジェントモデルルーティング
curl --request POST \
  --url https://api.evolink.ai/v1/chat/completions \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "evolink/auto",
  "messages": [
    {
      "role": "user",
      "content": "人工知能の発展の歴史を紹介してください"
    }
  ],
  "temperature": 0.7,
  "top_p": 0.9,
  "top_k": 40,
  "stream": false
}
'
{
  "id": "chatcmpl-20260308112637503180122ABCD1234",
  "model": "gpt-5.4",
  "object": "chat.completion",
  "created": 1741428397,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "人工知能の発展の歴史は1950年代に遡ることができます..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 15,
    "completion_tokens": 120,
    "total_tokens": 135
  }
}

機能紹介

EvoLink Autoは、リクエスト内容に基づいて最適なAIモデルを自動的に選択するインテリジェントモデルルーティング機能です。手動でモデルを指定する必要はありません。

主な利点

  • スマートマッチング:リクエスト内容を自動分析し、最適なモデルを選択
  • コスト最適化:品質を維持しながら、コストパフォーマンスの高いモデルを優先
  • 負荷分散:複数のモデル間でリクエストを自動分散し、システムの安定性を向上
  • 透明性:レスポンスに実際に使用されたモデル名を返し、追跡と最適化を容易に

使用シーン

どのモデルを使用すべきか不明な場合や、システムにモデル選択を自動最適化させたい場合に最適です。
modelパラメータをevolink/autoに設定するだけで、システムが自動的に最適なモデルを選択します。

承認

Authorization
string
header
必須

すべてのAPIにBearer Token認証が必要です

APIキーの取得:

APIキー管理ページにアクセスしてAPIキーを取得してください

リクエストヘッダーに追加:

Authorization: Bearer YOUR_API_KEY

ボディ

application/json
model
enum<string>
デフォルト:evolink/auto
必須

インテリジェントルーティングを使用

利用可能なオプション:
evolink/auto
:

"evolink/auto"

messages
object[]
必須

会話メッセージリスト

Minimum array length: 1
:
[
{
"role": "user",
"content": "人工知能の発展の歴史を紹介してください"
}
]
temperature
number

サンプリング温度、出力のランダム性を制御

説明:

  • 低い値(例: 0.2): より確定的で集中した出力
  • 高い値(例: 1.5): よりランダムで創造的な出力
必須範囲: 0 <= x <= 2
:

0.7

top_p
number

核サンプリング(Nucleus Sampling)パラメータ

説明:

  • 累積確率の上位何パーセントのトークンからサンプリングするかを制御
  • 例えば 0.9 は累積確率が90%に達するトークンから選択
  • デフォルト値: 1.0(すべてのトークンを考慮)

推奨: temperature と top_p を同時に調整しないでください

必須範囲: 0 <= x <= 1
:

0.9

top_k
integer

Top-K サンプリングパラメータ

説明:

  • 例えば 10 は各サンプリング時に確率が最も高い10個のトークンのみを考慮
  • 小さい値は出力をより集中させます
  • デフォルトでは制限なし
必須範囲: x >= 1
:

40

stream
boolean
デフォルト:false

ストリーミング方式でレスポンスを返すかどうか

  • true: ストリーミング返却、チャンクごとにリアルタイムで内容を返す
  • false: 完全なレスポンスを待ってから一括返却
:

false

レスポンス

リクエスト成功

id
string

チャット補完の一意の識別子

:

"chatcmpl-20260308112637503180122ABCD1234"

model
string

実際に使用されたモデル名

:

"gpt-5.4"

object
enum<string>

レスポンスタイプ

利用可能なオプション:
chat.completion
:

"chat.completion"

created
integer

作成タイムスタンプ

:

1741428397

choices
object[]

生成された選択肢のリスト

usage
object

トークン使用統計