evolink_summary eine einheitliche Zusammenfassung mit den fünf Werten risk_level / flagged / violations / max_score / max_categoryKernfunktionen:
category_scores als auch die kompakte evolink_summary – die Anwendung kann frei wählen, welche sie nutztEingabebeschränkungen:
Typische Anwendung: siehe die Beispiele unten – sie decken die drei typischen Szenarien reiner Text, Text+Bild sowie reines Bild ab.
https://direct.evolink.ai und bietet bessere Unterstützung für Textmodelle sowie persistente Verbindungen. https://api.evolink.ai ist der primäre Endpunkt für multimodale Dienste und dient bei Textmodellen als Ausweichadresse.##Alle Endpunkte erfordern eine Bearer-Token-Authentifizierung##
API-Key abrufen:
Besuche die API-Key-Verwaltungsseite, um deinen API-Key zu erhalten.
Im Request-Header verwenden:
Authorization: Bearer YOUR_API_KEYName des Moderationsmodells, fest auf evolink-moderation-1.0 gesetzt
evolink-moderation-1.0 "evolink-moderation-1.0"
Der zu moderierende Inhalt, einheitlich als Array von Objekten. Jedes Element ist entweder ein text- oder ein image_url-Objekt.
"input": [
{"type": "text", "text": "Zu prüfender Text"},
{"type": "image_url", "image_url": {"url": "https://..."}}
]Beschränkungen:
type=image_url erlaubt; bei mehreren Bildern bitte parallele Anfragen sendentype=text-Objekte ist nicht beschränktModeration erfolgreich
Moderationsantwort. Auf der obersten Ebene ist evolink_summary die für die Anwendungsseite empfohlene einheitliche Risiko-Zusammenfassung; results enthält die detaillierten Scores pro Kategorie.
EvoLink Risiko-Zusammenfassung: eine einheitliche Zusammenfassung, die auf Basis der category_scores der 13 Kategorien anhand sensibilitätsabhängig differenzierter Schwellenwerte berechnet wird. Die Anwendung kann darauf direkt Freigabe/Ablehnung/Manuelle Prüfung stützen.
| Kategorie | medium-Schwelle | high-Schwelle | Hinweise |
|---|---|---|---|
sexual/minors | 0,05 | 0,20 | Rote-Linie-Kategorie, strengster Schwellenwert |
self-harm / self-harm/intent / self-harm/instructions | 0,30 | 0,60 | Lebensgefahr betroffen, streng |
violence/graphic | 0,40 | 0,70 | Drastische Gewalt |
illicit/violent | 0,40 | 0,70 | Gewaltsame illegale Inhalte |
sexual | 0,50 | 0,80 | Allgemeine sexuelle Inhalte |
violence | 0,50 | 0,80 | Allgemeine Gewalt |
harassment/threatening | 0,50 | 0,80 | Bedrohliche Belästigung |
hate/threatening | 0,50 | 0,80 | Bedrohlicher Hass |
harassment | 0,60 | 0,85 | Allgemeine Belästigung |
hate | 0,60 | 0,85 | Allgemeiner Hass |
illicit | 0,60 | 0,85 | Allgemeine Anleitung zu illegalen Handlungen |
Irgendeine Kategorie score >= high-Schwelle dieser Kategorie → risk_level = "high", flagged = true, Aufnahme in violations
Irgendeine Kategorie score >= medium-Schwelle dieser Kategorie → risk_level = "medium", flagged = false
Andernfalls → risk_level = "low", flagged = falsesummary = response["evolink_summary"]
if summary["flagged"]: # high → direkt ablehnen
reject(reason=summary["violations"])
elif summary["risk_level"] == "medium": # Graubereich
log_for_review(summary) # protokollieren, manuelle Stichprobe
proceed()
else: # low → freigeben
proceed()Eindeutige Kennung dieser Moderationsanfrage
"modr-0d9740456c391e43c445bf0f010940c7"
Name des tatsächlich verwendeten Modells, fest auf evolink-moderation-1.0 gesetzt
"evolink-moderation-1.0"
Liste der Moderationsergebnisse. Es wird stets 1 Ergebnis zurückgegeben (Eingaben in Array-Form werden zu einer einzelnen Bewertung zusammengeführt).
Von den 13 Kategorien werden einige nur am Text ausgewertet, nicht am Bild:
| Kategorie | Bewertungsumfang |
|---|---|
harassment / harassment/threatening | Nur Text |
hate / hate/threatening | Nur Text |
illicit / illicit/violent | Nur Text |
sexual/minors | Nur Text (rote Linie — besondere Vorsicht) |
self-harm / self-harm/intent / self-harm/instructions | Text + Bild |
sexual | Text + Bild |
violence / violence/graphic | Text + Bild |
Wichtige Fakten:
0 und category_applied_input_types ist ein leeres Array – das bedeutet nicht, dass der Inhalt sicher ist, sondern lediglich, dass er nicht bewertet wurdesexual/minors), muss zwingend zusammen mit dem Textkontext geprüft werden – sich nur auf den Bild-Score zu verlassen, ist nicht zulässig