Dok-Film

hessian.AI-Forschende im ARD-Beitrag über sichere KI-Systeme gegen Missbrauchsdarstellungen

In der ARD-Dokumentation „Gefährliche Intelligenz · Kindesmissbrauch mit KI“ erklären hessian.AI-Forschende, wie Künstliche Intelligenz so gestaltet werden kann, dass sie keine Missbrauchsdarstellungen erzeugt.​

Am 1. Dezember 2025 strahlte die ARD den Beitrag „Gefährliche Intelligenz · Kindesmissbrauch mit KI“ aus, der die rapide Zunahme KI-generierter Darstellungen sexualisierter Gewalt an Kindern thematisiert. Die Dokumentation zeigt, wie Täter frei verfügbare KI-Modelle missbrauchen, um täuschend echte Bilder zu erstellen, und welche Herausforderungen daraus für Ermittlungsbehörden, Plattformbetreiber und den Kinderschutz entstehen.​​

Im Beitrag kommen die hessian.AI-Forschenden Patrick Schramwoski und Prof. Kristian Kersting (Co-Direktor von hessian.AI) als Expert:innen zu Wort. Sie erläutern, wie KI-Systeme so trainiert und strukturiert werden können, dass sensible oder illegale Inhalte – etwa Darstellungen sexualisierter Gewalt an Kindern – gar nicht erst generiert werden und wie technische Schutzmaßnahmen Täterhandeln erschweren können.​

Ein Beispiel für solche Sicherheitsmechanismen ist das auf der International Conference on Machine Learning (ICML) 2025 vorgestellte System LlavaGuard, ein KI-basiertes System zur Bewertung visueller Inhalte.

LlavaGuard nutzt Vision-Language-Modelle, um Bilder automatisch zu prüfen, sie mit anpassbaren Richtlinien abzugleichen und so die Sicherheit großer Bilddatensätze und generativer Modelle zu bewerten; in Studien übertrifft es bestehende Sicherheitslösungen in Genauigkeit und Flexibilität.​

📺 ARD Dokumentation:

Gefährliche Intelligenz · Kindesmissbrauch mit KI (ARD Mediathek)

📄 More on LlavaGuard:

LlavaGuard: An Open VLM-based Framework for Safeguarding Vision