KI im Kino

KI im Kino: „The Matrix“ und die gesellschaftliche Auseinandersetzung mit Künstlicher Intelligenz – ein Interview mit hessian.AI Professor Dr. Ralph Ewerth

Die Kunst ist der Realität oft einen oder mehrere Schritte voraus. Erst müssen Ideen und Visionen ihren Weg in die Köpfe der Menschen finden – in Gedanken, Geschichten und Bildern –, bevor sie technologisch Wirklichkeit werden.


Unter dem Motto „KI im Kino“ lädt das Programmkino Rex in Darmstadt dazu ein, die faszinierende Welt der künstlichen Intelligenz aus filmischer und wissenschaftlicher Perspektive zu entdecken. Gemeinsam mit Expert:innen aus Informatik, Psychologie und Medienwissenschaften wird beleuchtet, wie KI in der Popkultur dargestellt wird – und was die aktuelle Forschung dazu sagt.

Den Auftakt macht „The Matrix“ – die Vorführung des Kultfilms aus dem Jahr 1999 wird durch eine anschließende Diskussionsrunde mit hessian.AI Prof. Dr. Ralph Ewerth von der Universität Marburg begleitet. Prof. Dr. Ralph Ewerth ist Experte für multimodale Modellierung, maschinelles Lernen und generative KI-Systeme. Wir haben mit ihm über die Faszination der Science-Fiction-Dystopie und aktuelle Bezüge zur KI-Forschung gesprochen.

Aus Sicht des KI-Forschers sind mehrere Dinge (am Film „the Matrix“) interessant: das hohe Ausmaß der Fähigkeiten der KI-Systeme, „Agent Smith“ bzw. der Roboter sowie die Tatsache, dass die Menschen in der Matrix nahezu vollkommen überwacht sind. Vielleicht mit dem Unterschied, dass wir heute in der Realität unsere Daten freiwillig preisgeben und darauf vertrauen, dass sie nicht von Konzernen, Ämtern und Regierenden missbraucht werden. Prof. Dr. Ralph Ewerth

hessian.AI: Der Film „The Matrix“ wurde 1999 veröffentlicht, als das Internet und Mobiltelefon ihren kommerziellen Durchbruch erzielten. Was fasziniert Sie persönlich an diesem Film, auch aus der Sicht des KI-Forschers?

Ralph Ewerth: Ich kann mich noch gut erinnern, dass ich den Film damals im Spätsommer im Open Air Kino im Rebstockbad in Frankfurt gesehen und beim Abspann des Films vollkommen gebannt auf die Leinwand geschaut habe. Da saß ich auf meiner Isomatte und dachte: Wow, was war denn das jetzt! Ich hatte das Gefühl, gerade einen ganz besonderen Film gesehen zu haben. Bis dahin war ich der Meinung, dass ich Actionfilme nicht mag, weil sie meist eine einfache und oberflächliche Geschichte erzählen – aber Matrix war anders und gehört nach wie vor zu meinen Lieblingsfilmen.

An dem Film faszinierten mich mehrere Aspekte: Technisch waren da die neuartigen Action- und Kampfszenen mit dem Bullet-Time-Effekt, der meines Wissens auch filmgestalterisch innovativ war. Aber vor allem ist der Anfang des Films bzw. der erste Teil der Trilogie so gut gemacht, dass es von Anfang an spannend ist und man neugierig darauf ist, was sich hinter der Matrix verbirgt. Besonders packend finde ich, wie die Geschichte in Teil 1 filmisch erzählt wird. Stück für Stück bekommt man mit interessanten Effekten und Dialogen erklärt, was hinter der Matrix steckt.

Und natürlich wirft der Film auch philosophische Fragen auf: Was ist Realität? Können wir unseren Sinnen bzw. Nachrichten, Bildern und Videos trauen? Diese Fragen sind durch KI-generierte Inhalte, Desinformationskampagnen, aber auch durch „Social“ Media und die Macht von einigen wenigen Monopolisten, Informationsflüsse zu steuern und zu beeinflussen, heute sehr aktuell. Und andere Fragen: Was ist der freie Wille? Können wir uns frei entscheiden?

Aus Sicht des KI-Forschers sind mehrere Dinge interessant: das hohe Ausmaß der Fähigkeiten der KI-Systeme, „Agent Smith“ bzw. der Roboter sowie die Tatsache, dass die Menschen in der Matrix nahezu vollkommen überwacht sind. Vielleicht mit dem Unterschied, dass wir heute in der Realität unsere Daten freiwillig preisgeben und darauf vertrauen, dass sie nicht von Konzernen, Ämtern und Regierenden missbraucht werden.

h.AI: Gibt es ein Lieblingsmotiv oder eine bestimmte Szene, die Sie besonders spannend finden?

R.E.: Es gibt mehrere Lieblingsmotive. Amüsant finde ich das folgende wiederkehrende Motiv: In mehreren Szenen dient das klassische Telefon Trinity, Morpheus, Neo und den anderen als Rettungsanker, wenn sie in Gefahr sind. Übertragen auf den heutigen Alltag könnte man es ironisch als Aufforderung zu mehr digitaler Enthaltsamkeit deuten.

h.AI: Ein Teil ihrer Forschungsarbeit dreht sich um das automatische Verstehen und Interpretieren von Bildern, Texten und Videos. Könnten Sie uns etwas mehr über ihr Forschungsfeld erzählen?

R.E.: Meine Arbeitsgruppe forscht zu Methoden zur Analyse von multimodalen Daten, wobei ich mich besonders für die Kombination von Bild und Text sowie für Videodaten interessiere. Spannend daran finde ich, dass die Kombination von zwei Modalitäten, also z. B. Text und Bild oder Ton und Bewegbild, neue Bedeutungen erzeugen oder Bedeutung umkehren können. In der Kommunikationsforschung wird das auch Meaning Multiplication genannt. Dies lässt sich gut mit Memes erläutern, die oft mit Ironie spielen. Ein Beispiel: Wir könnten ein Meme bauen für den Studienalltag mit dem Bild von Morpheus, der die rote und blaue Pille anbietet, kombiniert mit dem Text „Du entscheidest: Für die Prüfung zur Informatik-Vorlesung lernen oder noch eine Folge Netflix“. Morpheus auf dem Bild schaut ernst; der Text allein ist banal – zusammen entstehen Ironie und Humor.

Methodisch ist es einer unserer Ansätze, datengetriebene Modelle wie neuronale Netze oder vortrainierte Sprachmodelle mit semantischen Wissensrepräsentationen nutzbringend zu verbinden. Durch die Hinzunahme von explizitem Wissen aus Wissensbasen zielen wir darauf ab, datengetriebene Modelle zu verbessern, um zum Beispiel Halluzinationen bei generativen KI-Modellen zu verringern.
Unsere Arbeiten sind sehr interdisziplinär geprägt. So befassen wir uns mit der Anwendung von KI-Methoden in den MINT-Fachdidaktiken für Schule und Universität, für Forschungsfragen aus den digitalen Geisteswissenschaften, zum Beispiel für die computergestützte Filmanalyse, oder auch in der Sportinformatik, hier etwa zur Spielanalyse.

h.AI: Im Film „the Matrix“ erkennt der Protagonist, Neo, dass die menschliche „Realität“ eine von Maschinen erzeugte Simulation ist. Heutzutage fällt es uns Menschen tatsächlich immer schwerer, zwischen von Menschen oder KI generiertem Content oder gar Gesprächspartner zu unterscheiden. Wie beurteilen Sie diese Entwicklungen?

R.E.: Das ist ein komplexes Thema. Es gibt sicher viele Bereiche, in denen wir genau wissen wollen, ob ein Inhalt oder ein Produkt Menschen- oder KI-gemacht ist. In dem naheliegenden Beispiel aus der Schule und der Universität möchten wir natürlich wissen, dass Aufgaben von den Lernenden selbst bearbeitet wurden und nicht gänzlich von KI. Wobei wir gleichzeitig vermitteln müssen, wie man KI-Systeme zum Lernen einsetzen kann. Im Bereich Nachrichten und bei der Frage nach Informationsqualität und Desinformation ist es ebenfalls hochrelevant, ob ein Nachrichteninhalt oder ein Nachrichtenfoto mit KI manipuliert oder generiert wurde.

Generative KI-Systeme haben es deutlich einfacher gemacht, Inhalte zu manipulieren. Das kann sehr problematisch sein und wir benötigen dringend Methoden oder Mechanismen, um die Herkunft und Bearbeitung von Nachrichten nachverfolgen zu können.



R.E.: Generative KI-Systeme haben es deutlich einfacher gemacht, Inhalte zu manipulieren. Das kann sehr problematisch sein und wir benötigen dringend Methoden oder Mechanismen, um die Herkunft und Bearbeitung von Nachrichten nachverfolgen zu können. Derzeit werden Ansätze wie digitale Wasserzeichen, Blockchain-basierte Herkunftsnachweise oder verpflichtende Kennzeichnungen von KI-Inhalten diskutiert und teilweise bereits umgesetzt.

h.AI: Ein zentrales Motiv des dystopischen Szenarios von The Matrix stellt die Entmächtigung der Menschen durch die Maschinen (bzw. durch die KI) dar. Die Frage nach der Entscheidungsfähigkeit des Menschen bei immer komplexeren Modellen erscheint als durchaus berechtigt, auch wenn diese in „the Matrix“ extrem zugespitzt dargestellt wird. Worin sehen Sie die größten Herausforderungen dabei?

R.E.: Es ist ein Problem, dass wir die interne Funktionsweise und Ergebnisgenerierung von den großen neuronalen Modellen nicht mehr im Detail nachvollziehen können. Ein Lösungsansatz kann sein, dass wir Methoden erschaffen, die uns die Funktionsweise von genutzten Modellen erklären können. Ein anderer Trend ist, dass wir kleinere Modelle bauen, die genauso leistungsfähig sind – das löst aber nicht das prinzipielle Problem. Ein wichtiger Aspekt ist auch, dass wir für jede Aufgabe das jeweils passende KI-System wählen. Für viele Problemstellungen etwa sind generative KI-Systeme nicht die erste Wahl, da sie nicht die bestmögliche Lösung bieten oder zu ressourcenintensiv sind.

Es ist ein Problem, dass wir die interne Funktionsweise und Ergebnisgenerierung von den großen neuronalen Modellen nicht mehr im Detail nachvollziehen können.



Eine weitere Herausforderung liegt auch generell darin, dass Modelle zu systematisch verzerrten Ergebnissen kommen können, was natürlich so nicht erwünscht ist. Dies hängt mit der Art der Daten zusammen, die zum Training verwendet wurden; wenn dort Verzerrungen, Diskriminierungen von Gruppen oder Stereotype enthalten sind, werden diese auch so vom Modell gelernt. Dies müssen Menschen wissen, wenn sie mithilfe von KI-Systemen Entscheidungen treffen. Dieses Wissen könnte indirekt vermittelt sein, indem die zum Training verwendeten Daten bekannt sind, oder etwas direkter durch gezielte Evaluationen der Modelle für die jeweilige Anwendung bzw. Entscheidung.

Wichtig ist, dass wir bei kritischen Entscheidungen – etwa in Medizin, Justiz oder Bildung – KI als unterstützendes Werkzeug betrachten, während die letzte Entscheidung beim Menschen bleiben sollte. Die Verantwortung für wichtige Entscheidungen können wir nicht an Maschinen delegieren. Das Prinzip ‚Human-in-the-Loop‘ gewinnt hier an Bedeutung.

h.AI: Die Wirtschaftsjournalistin Parmy Olsen stellt in ihrem Buch „ Supremacy“ fest, dass ausgerechnet die großen Namen in der (KI-) Tech-Branche wie Elon Musk, Sam Altman oder Demis Hassabis das Bild einer „Doom AI“ aus „Marketingzwecken“ selbst heraufbeschwören – etwa um vor den KI-Lösungen der Konkurrenz zu warnen oder die technischen Möglichkeiten von KI für zu unterstreichen und dadurch für Investoren interessant zu machen.

Worin sehen Sie persönlich die größten Risiken für Künstliche Intelligenz und worin die größten Chancen?



R.E.: Leider gibt es einige größere Risiken durch KI-Systeme. Erstens erleben wir gerade, dass KI in der Kriegsführung eingesetzt wird und Menschenleben kostet. Gleichzeitig werden durch KI auch Menschenleben im Krieg geschützt. Ein zweites großes Risiko ist, dass KI-Methoden zur Überwachung und Manipulation von Menschen und im schlimmsten Fall einer gesamten Gesellschaft eingesetzt werden können.

Eine dritte Gefahr durch KI-Systeme bzw. durch den unterschiedlichen Zugang zu diesen – sei es auf individueller, wirtschaftlicher oder gesellschaftlicher Ebene – ist, dass die Kluft zwischen Arm und Reich und zwischen Mächtigen und Abhängigen noch weiter anwächst. Ein weiteres Problem ist die Umweltbelastung durch den Energieverbrauch beim Training großer KI-Modelle.

Eine der größten Chancen von KI-Systemen liegt darin, dass wir sie nutzbringend in der Medizin einsetzen können, um Krankheiten besser zu verstehen oder leichter behandeln zu können. Generell können KI-Systeme auch dazu dienen, fundamentale Fortschritte in verschiedenen Forschungsgebieten zu erzielen. Eine weitere Chance liegt darin, dass KI-Systeme Bildung und Weiterbildung von Menschen erheblich unterstützen können; hier gibt es aber noch viel Forschungsarbeit zu leisten. Auch im Klimaschutz bietet KI großes Potenzial: von der Optimierung von Energienetzen über die Entwicklung neuer Materialien bis hin zur Vorhersage von Umweltveränderungen.

h.AI: Lassen Sie uns zum Schluss selbst ein wenig in den Bereich der (optimistischen) Science-Fiction abtauchen:
Welche Durchbrüche möchten Sie persönlich in der KI-Forschung und Anwendung gerne in den nächsten Jahren oder Jahrzehnten sehen?

R.E.: Hier bin ich weniger an Durchbrüchen in der KI-Forschung selbst als an Durchbrüchen in den gesellschaftlich relevanten Anwendungsbereichen interessiert. Es wäre sicherlich die Erfüllung eines Menschheitstraums, Krankheiten wie Krebs oder gefährliche Infektionskrankheiten ausrotten zu können. Darüber hinaus würde ich mir wünschen, dass KI-Systeme dabei helfen, den Klimawandel zu bewältigen und nachhaltige Lösungen für Energie- und Ressourcenprobleme zu finden. Auch ein gerechterer Zugang zu KI-Systemen, aber generell zu Bildung und bessere Aufstiegschancen im Allgemeinen ist sehr wichtig, um die wirtschaftliche und soziale Ungleichheit bzw. Ungerechtigkeit zu verringern.

Ich bin weniger an Durchbrüchen in der KI-Forschung selbst als an Durchbrüchen in den gesellschaftlich relevanten Anwendungsbereichen interessiert.

R.E.: Nicht zuletzt sollten wir uns dafür einsetzen, dass KI-Systeme zur Sicherung der Demokratie bzw. in deren Sinne verwendet werden, und nicht zur Förderung, Etablierung und Sicherung von autoritären politischen Systemen. Damit wir eines Tages nicht in einer Matrix-ähnlichen Welt leben.

h.AI: Vielen Dank für das Gespräch!