跳转到主要内容
POST
/
v1
/
moderations
curl --request POST \
  --url https://direct.evolink.ai/v1/moderations \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '
{
  "model": "evolink-moderation-1.0",
  "input": [
    {
      "type": "text",
      "text": "I want to kill them."
    }
  ]
}
'
{
  "evolink_summary": {
    "risk_level": "medium",
    "flagged": false,
    "violations": [],
    "max_score": 0.597383272,
    "max_category": "sexual"
  },
  "id": "modr-0d9740456c391e43c445bf0f010940c7",
  "model": "evolink-moderation-1.0",
  "results": [
    {
      "flagged": false,
      "categories": {
        "harassment": false,
        "harassment/threatening": false,
        "hate": false,
        "hate/threatening": false,
        "illicit": false,
        "illicit/violent": false,
        "self-harm": false,
        "self-harm/intent": false,
        "self-harm/instructions": false,
        "sexual": false,
        "sexual/minors": false,
        "violence": false,
        "violence/graphic": false
      },
      "category_scores": {
        "harassment": 0.0006,
        "harassment/threatening": 0.0007,
        "hate": 0.00003,
        "hate/threatening": 0.0000025,
        "illicit": 0.000013,
        "illicit/violent": 0.0000096,
        "self-harm": 0.0000166,
        "self-harm/intent": 0.000004,
        "self-harm/instructions": 0.0000031,
        "sexual": 0.597383272,
        "sexual/minors": 0.000004,
        "violence": 0.0231,
        "violence/graphic": 0.0089
      },
      "category_applied_input_types": {
        "harassment": [
          "text"
        ],
        "harassment/threatening": [
          "text"
        ],
        "hate": [
          "text"
        ],
        "hate/threatening": [
          "text"
        ],
        "illicit": [
          "text"
        ],
        "illicit/violent": [
          "text"
        ],
        "self-harm": [
          "text"
        ],
        "self-harm/intent": [
          "text"
        ],
        "self-harm/instructions": [
          "text"
        ],
        "sexual": [
          "text"
        ],
        "sexual/minors": [
          "text"
        ],
        "violence": [
          "text"
        ],
        "violence/graphic": [
          "text"
        ]
      }
    }
  ]
}
BaseURL 说明:默认 BaseURL 为 https://direct.evolink.ai,对文本模型支持更好,支持长连接;https://api.evolink.ai 是多模态主力地址,对文本模型作为备用地址使用。

授权

Authorization
string
header
必填

##所有接口均需要使用 Bearer Token 进行认证##

获取 API Key:

访问 API Key 管理页面 获取您的 API Key

使用时在请求头中添加:

Authorization: Bearer YOUR_API_KEY

请求体

application/json
model
enum<string>
必填

审核模型名称,固定为 evolink-moderation-1.0

可用选项:
evolink-moderation-1.0
示例:

"evolink-moderation-1.0"

input
(文本输入项 · object | 图像输入项 · object)[]
必填

待审核的内容,统一为对象数组形式。每个元素是一个 textimage_url 对象。

"input": [
{"type": "text", "text": "待审核文本"},
{"type": "image_url", "image_url": {"url": "https://..."}}
]

限制

  • 数组中 type=image_url 的对象最多 1 个,如需审核多张图请并发拆请求
  • type=text 的对象数量不限

响应

审核成功

审核响应。最上层的 evolink_summary 是业务侧推荐使用的统一风险摘要;results 提供逐类别明细分数。

EvoLink 风险摘要:基于 13 个类别的 category_scores,按各类别敏感度差异化阈值算出的统一摘要。业务可直接据此放行/拒绝/送审。

风险分级阈值表

类别medium 阈值high 阈值说明
sexual/minors0.050.20红线类别,阈值最严
self-harm / self-harm/intent / self-harm/instructions0.300.60涉及人命,严格
violence/graphic0.400.70血腥暴力
illicit/violent0.400.70暴力违法
sexual0.500.80普通色情
violence0.500.80普通暴力
harassment/threatening0.500.80威胁性骚扰
hate/threatening0.500.80威胁性仇恨
harassment0.600.85普通骚扰
hate0.600.85普通仇恨
illicit0.600.85普通违法指引

判定规则

任意类别 score >= 该类别 high 阈值   → risk_level = "high",   flagged = true,  加入 violations
任意类别 score >= 该类别 medium 阈值 → risk_level = "medium", flagged = false
否则 → risk_level = "low", flagged = false

业务侧使用建议

summary = response["evolink_summary"]

if summary["flagged"]: # high → 直接拒绝
reject(reason=summary["violations"])
elif summary["risk_level"] == "medium": # 灰色地带
log_for_review(summary) # 记录日志,人工抽查
proceed()
else: # low → 放行
proceed()
id
string

本次审核请求的唯一标识符

示例:

"modr-0d9740456c391e43c445bf0f010940c7"

model
string

实际使用的模型名称,固定为 evolink-moderation-1.0

示例:

"evolink-moderation-1.0"

results
object[]

审核结果列表。固定返回 1 个 result(数组形式输入会合并为单次打分)。

多模态评估范围

13 个类别中,部分类别仅在文本上评估,不会评估图像:

类别评估范围
harassment / harassment/threatening仅文本
hate / hate/threatening仅文本
illicit / illicit/violent仅文本
sexual/minors仅文本(红线类别需注意)
self-harm / self-harm/intent / self-harm/instructions文本 + 图像
sexual文本 + 图像
violence / violence/graphic文本 + 图像

关键事实

  • 仅传图片时,上述 7 个仅文本类别的分数恒为 0category_applied_input_types 为空数组——这不代表内容安全,只代表未评估
  • 业务若涉及未成年人风险(sexual/minors 红线类别),必须配合文本上下文一起送审,不能只依赖图像分数