evolink_summary devuelve un resumen unificado con cinco propiedades: risk_level / flagged / violations / max_score / max_categoryCapacidades principales:
category_scores por categoría y el evolink_summary simplificado; el negocio puede usar uno u otroLimitaciones de entrada:
Uso típico: consulta los ejemplos de abajo, que cubren los tres escenarios habituales: solo texto, texto + imagen y solo imagen.
https://direct.evolink.ai, que ofrece mejor compatibilidad con modelos de texto y admite conexiones persistentes. https://api.evolink.ai es el endpoint principal para servicios multimodales y actúa como dirección de respaldo para los modelos de texto.##Todos los endpoints requieren autenticación con Bearer Token##
Obtener tu API Key:
Visita la página de gestión de API Keys para obtener tu API Key.
Inclúyela en el encabezado de la solicitud:
Authorization: Bearer YOUR_API_KEYNombre del modelo de moderación, fijo a evolink-moderation-1.0
evolink-moderation-1.0 "evolink-moderation-1.0"
Contenido a moderar, unificado en forma de array de objetos. Cada elemento es un objeto text o image_url.
"input": [
{"type": "text", "text": "texto a moderar"},
{"type": "image_url", "image_url": {"url": "https://..."}}
]Limitaciones:
type=image_url; si necesitas moderar varias imágenes, divide la carga en solicitudes paralelastype=text no está limitadoModeración completada con éxito
Respuesta de moderación. El evolink_summary del nivel superior es el resumen unificado de riesgo recomendado para el lado de negocio; results ofrece el detalle de puntuaciones por categoría.
Resumen de riesgo de EvoLink: resumen unificado calculado a partir de category_scores de las 13 categorías, aplicando umbrales diferenciados según la sensibilidad de cada categoría. El negocio puede usarlo directamente para permitir / rechazar / enviar a revisión.
| Categoría | Umbral medium | Umbral high | Notas |
|---|---|---|---|
sexual/minors | 0.05 | 0.20 | Categoría crítica, umbrales más estrictos |
self-harm / self-harm/intent / self-harm/instructions | 0.30 | 0.60 | Riesgo vital, estricto |
violence/graphic | 0.40 | 0.70 | Violencia gráfica |
illicit/violent | 0.40 | 0.70 | Ilícito violento |
sexual | 0.50 | 0.80 | Sexual general |
violence | 0.50 | 0.80 | Violencia general |
harassment/threatening | 0.50 | 0.80 | Acoso amenazante |
hate/threatening | 0.50 | 0.80 | Odio amenazante |
harassment | 0.60 | 0.85 | Acoso general |
hate | 0.60 | 0.85 | Odio general |
illicit | 0.60 | 0.85 | Instrucciones ilícitas generales |
Cualquier categoría con score >= umbral high → risk_level = "high", flagged = true, se añade a violations
Cualquier categoría con score >= umbral medium → risk_level = "medium", flagged = false
En caso contrario → risk_level = "low", flagged = falsesummary = response["evolink_summary"]
if summary["flagged"]: # high → rechazar directamente
reject(reason=summary["violations"])
elif summary["risk_level"] == "medium": # zona gris
log_for_review(summary) # registrar y revisar manualmente
proceed()
else: # low → permitir
proceed()Identificador único de esta solicitud de moderación
"modr-0d9740456c391e43c445bf0f010940c7"
Nombre del modelo realmente utilizado, fijo a evolink-moderation-1.0
"evolink-moderation-1.0"
Lista de resultados de moderación. Devuelve siempre 1 result (las entradas en forma de array se consolidan en una única evaluación).
De las 13 categorías, algunas se evalúan solo sobre texto y no se aplican a imágenes:
| Categoría | Alcance de evaluación |
|---|---|
harassment / harassment/threatening | Solo texto |
hate / hate/threatening | Solo texto |
illicit / illicit/violent | Solo texto |
sexual/minors | Solo texto (categoría crítica — atención) |
self-harm / self-harm/intent / self-harm/instructions | Texto + imagen |
sexual | Texto + imagen |
violence / violence/graphic | Texto + imagen |
Hechos clave:
0 y category_applied_input_types vacío — esto no significa que el contenido sea seguro, solo que no se evaluósexual/minors), debes enviar siempre el contexto textual junto con la imagen; no puedes apoyarte únicamente en la puntuación de la imagen