KI-Training: Die richtige Balance zwischen Datentraining und Privatsphäre
Über Dr. Ivan Habernal
Dr. Ivan Habernal forscht am Fachbereich Informatik der Technischen Universität Darmstadt. Er studierte und promovierte an der Westböhmischen Universität in Pilsen, Tschechien.
Nach diversen Stationen in der Wirtschaft ist er seit 2021 Nachwuchsgruppenleiter in der Forschungsgruppe „Trustworthy Human Language Technologies“.
Seine KI-Methoden schützen personenbezogene Daten
Die Verarbeitung natürlicher Sprache (NLP) mit Künstlicher Intelligenz hat in den vergangenen Jahren rasante Fortschritte gemacht. Ob Sprachassistenten im Smartphone oder KI-basierte Textgenerierung mit ChatGPT: NLP ist heute allgegenwärtig und stiftet großen Nutzen.
Damit eine KI natürliche Sprache lernen und verarbeiten kann, benötigt sie große Datenmengen. Häufig ist der Schutz personenbezogener Daten eine besondere Herausforderung: Rezensionen zu Medikamenten oder Gerichtsurteile können sensible Informationen enthalten, die nicht in die KI-Modelle einfließen sollen.
Habernal will diese Modelle optimieren und forscht daran, wie KI Privatsphäre wahren kann. Die einfachste Form ist etwa die Anonymisierung von Texten. Jedoch enthalten mitunter auch geschwärzte Daten sensible Informationen, mit denen sich Rückschlüsse auf Personen bilden lassen: „Es gibt Modelle, mit denen das Geschlecht, die soziale Klasse oder die ganze Vorgeschichte eines Menschen berechnet werden kann.“
Deshalb entwickelt Habernal mit seiner Forschungsgruppe eigene KI-Modelle, die indirekte Zusammenhänge von personenbezogenen Daten automatisch erkennt und diese ausschließt.
Eine zentrale Herausforderung sieht Habernal darin, die Balance zwischen der Genauigkeit des KI-Modells und dem Grad der Privatsphäre zu finden. Die KI soll so gut wie möglich funktionieren und idealerweise keine sensiblen Daten verarbeiten.
Mit interdisziplinärer Forschung zu mehr Logik in KI
In diesem Spannungsfeld bewegt sich der Informatiker in einem weiteren Forschungsprojekt zu Legal-Natural-Language-Processing. Habernal entwickelt mit seinem Team ein Modell, das die Arbeit von Rechtswissenschaftler*innen erleichtern soll.
Die KI soll Argumentationsmuster und -logiken in Gerichtsurteilen automatisch erkennen und die händische Annotation weitestgehend ersetzen. Für Habernal erfordert das eine enge Zusammenarbeit mit Jurist*innen: „Jura ist nicht Informatik. Die Herangehensweise ist unterschiedlich und kostet Zeit – aber das lohnt sich.“
Habernal verfolgt deshalb eine interdisziplinäre Forschung. Hier sieht er die Stärken von hessian.AI, das etwa mit Förderprogrammen oder Anschubfinanzierungen unterstützt. In einem geförderten Projekt analysieren Habernal und Jurist*innen etwa gemeinsam Gerichtsverhandlungen, um mit einer KI mehr über die Argumente, ihre Logiken und den Einfluss auf Urteile zu erkennen – stets mit der Wahrung der Privatsphäre im Blick.