hessian.AI-Forschende im ARD-Beitrag über sichere KI-Systeme gegen Missbrauchsdarstellungen
In der ARD-Dokumentation „Gefährliche Intelligenz · Kindesmissbrauch mit KI“ erklären hessian.AI-Forschende, wie Künstliche Intelligenz so gestaltet werden kann, dass sie keine Missbrauchsdarstellungen erzeugt.
Am 1. Dezember 2025 strahlte die ARD den Beitrag „Gefährliche Intelligenz · Kindesmissbrauch mit KI“ aus, der die rapide Zunahme KI-generierter Darstellungen sexualisierter Gewalt an Kindern thematisiert. Die Dokumentation zeigt, wie Täter frei verfügbare KI-Modelle missbrauchen, um täuschend echte Bilder zu erstellen, und welche Herausforderungen daraus für Ermittlungsbehörden, Plattformbetreiber und den Kinderschutz entstehen.
Im Beitrag kommen die hessian.AI-Forschenden Patrick Schramwoski und Prof. Kristian Kersting (Co-Direktor von hessian.AI) als Expert:innen zu Wort. Sie erläutern, wie KI-Systeme so trainiert und strukturiert werden können, dass sensible oder illegale Inhalte – etwa Darstellungen sexualisierter Gewalt an Kindern – gar nicht erst generiert werden und wie technische Schutzmaßnahmen Täterhandeln erschweren können.
Ein Beispiel für solche Sicherheitsmechanismen ist das auf der International Conference on Machine Learning (ICML) 2025 vorgestellte System LlavaGuard, ein KI-basiertes System zur Bewertung visueller Inhalte.
LlavaGuard nutzt Vision-Language-Modelle, um Bilder automatisch zu prüfen, sie mit anpassbaren Richtlinien abzugleichen und so die Sicherheit großer Bilddatensätze und generativer Modelle zu bewerten; in Studien übertrifft es bestehende Sicherheitslösungen in Genauigkeit und Flexibilität.
📺 ARD Dokumentation:
Gefährliche Intelligenz · Kindesmissbrauch mit KI (ARD Mediathek)
📄 More on LlavaGuard:
LlavaGuard: An Open VLM-based Framework for Safeguarding Vision