Singakademie Dresden

Zukunftsmusik: Singakademie Dresden hat KI-Komposition uraufgeführt

Stellen Sie sich vor: Können Maschinen komponieren? Ein Team von KI-Experten von hessian.AI und Aleph Alpha sowie Musiker der Singakademie Dresden haben das Experiment gewagt: Am 20. November 2022 kam das von Künstlicher Intelligenz komponierte Stück „Meistersinger Reloaded“ zur Uraufführung.

Vor gut einem Jahr wandte sich der Dirigent Michael Käppler aus Dresden mit einem ungewöhnlichen Anliegen an Technische Universitäten in Deutschland: Ihm schwebte eine KI vor, die Musik komponiert. Kristian Kersting, der Gründungs-Co-Direktor des Hessischen Forschungszentrums für KI (hessian.AI) und Informatikprofessor an der TU Darmstadt, war von der Idee begeistert. Er vermittelte Käppler Forscher und Studierende aus seinem Feld, die gemeinsam mit dem Musiker ans Werk gingen. Mit ihrem Projekt haben sie nun in Dresden und darüber hinaus eine breitere Öffentlichkeit angesprochen.

„Meistersinger reloaded“ wurde am 20. November 2022 in der Lukaskirche Dresden von der Elbland Philharmonie und dem Großen Chor der Singakademie unter der Leitung von Chorleiter Käppler mit insgesamt rund 130 Musikerinnen und Musikern aufgeführt. Die KI-Komposition war eingebettet in ein Programm mit Werken von Franz Schubert, Felix Draeseke, Richard Wagner und Alexander von Zemlinsky. Teilnehmende waren überrascht, wie harmonisch und gefällig sich die Komposition in das Konzertganze einfügte: Da es kein Signal wie einen akustischen Piepston gab und die Reihenfolge der angekündigten Stücke sich kurz vor der Aufführung änderte, vermochten nur wenige, das akustische Memory zu lösen. Keines der Stücke fiel aus dem Rahmen oder klang überraschend anders, das war vielleicht das Überraschendste an diesem Abend, der das Projekt seinem künstlerischen und wissenschaftlichen Höhepunkt zuführte.

Meistersinger reloaded (UA)

Kooperation mit Aleph Alpha und der Singakademie Dresden

Im Laufe eines Jahres hat ein Team von Informatikern des KI-Forschungsunternehmens Aleph Alpha in Heidelberg, von der TU Darmstadt und Musikern der Singakademie Dresden eine KI-Komposition über Wagners Musik geschaffen: Im KI-Datenzentrum der Heidelberger KI-Forscher wurde anhand von MIDI-Dateien zu Klaviermusik der deutschen Romantik ein großes KI-Transformatormodell trainiert, das selbständig auf dem großen Datensatz grundlegende Kompositionsregeln erlernte und dann ein spezielles Training auf Wagners Werke erhielt, um seinen Stil nachahmen zu können. Koen Oostermijer und das Forscherteam von Aleph Alpha, Michael Lang und Wolfgang Stammer von der TU Darmstadt sowie der Künstlerische Leiter Käppler waren über viele Experimente in engem Austausch, bewerteten gemeinsam verschiedene Experimente, Ansätze und Iterationen, bis der KI-Wagner perfekt schien. Hilfreich war dabei, dass große Sprachmodelle, wie Aleph Alpha sie entwickelt, bereits eine ähnliche Mustererkennung verinnerlicht haben: Musik hat wie Sprache eine zeitlich gerichtete Struktur, einige Details der Modellierung mussten jedoch angepasst werden. Nach erfolgreichem Training schreibt die KI nun Noten für ein beliebiges Stück weiter und nutzt dabei die gelernte Struktur und den Stil von Musik im Allgemeinen und Wagner im Speziellen.

„Das erste Stück aus der fünften Generation war besonders“, verriet Käppler. Das hatte ihn ergriffen. Mit diesem Stück, das so etwas wie eine Motivik aufwies und am ehesten einer Komposition glich, arbeiteten die Forscher weiter, bis am Ende ein Stück entstand, das Käppler für das Orchester bearbeitete und den Text für den Chor darauf anpasste. Chormusik erfordert längere Noten, um die Sprache zu tragen: Feinheiten, die die Forscher beim Input für die KI berücksichtigen mussten. Für die KI-Forscher war das Projekt ein spannender Balanceakt zwischen dem Beeinflussen des Systems hin zu einem gewünschten Output und dem Freiraumlassen, damit etwas Kreatives, Spielbares, Hörenswertes entsteht, das auch menschliche Ohren erfreut. In dem rund dreiminütigen Stück stecken über 3000 Stunden Musik, die zum Training verwendet wurden, sowie viele Stunden menschlicher Hörproben. An der musikalischen Substanz der KI-Komposition selbst hat Käppler nicht gerüttelt, sondern sie so originalgetreu wie möglich (sofern man das sagen kann in dem Fall) für das Orchester übernommen.

Klangkunst: Können Maschinen Kreativität?

Über die Hintergründe des Projekts und seine praktischen Grundlagen informierte vor dem Konzert ein Diskussionspanel. Viele Konzertgäste nutzten die Gelegenheit zur Einstimmung und kamen ins Gemeindehaus, um sich über KI- und Kunstschaffen zu informieren. Kulturelle Neugier einte das Publikum, einige Gäste hatten einen technischen Hintergrund. Michael Käppler, Kristian Kersting, der Mathematiker und emeritierte Musikprofessor Christfried Brödel sowie der Darmstädter KI-Masterstudent und klassische Musiker Matthias Lang diskutierten mit der Musikwissenschaftlerin Miriam Akkermann (TU Dresden).

Ausgangspunkt war für Kersting und die Machine-Learning-Forscher von Aleph Alpha und der TU Darmstadt die Frage gewesen, wie sich Musik formalisieren lässt, um sie maschinell zu erzeugen. Komposition mit künstlerischem Anspruch ist das Erschaffen von etwas Neuem nach bestehenden Regeln – wiedererkennbar, aber nicht zu nah dran am Bestehenden, also nicht bloßes „Nachplappern“, wie Käppler ausführte. Kann das gut gehen ohne Emotion? Denn Gefühle haben Maschinen ja mutmaßlich nicht. Letztlich ist Kunst „die Begegnung von Menschen, für Menschen gemacht“, wie Christfried Brödel präzisierte. Menschen bleiben die Empfänger auch der maschinengemachten Kunst, und zu ihnen sollte sie sprechen.

Können Maschinen kreativ sein?

KI fürs Gemüt – Blumen für den Maschinenraum

Das Projekt hatte sich im Spannungsfeld zwischen Technik und menschlichen Emotionen bewegt. Das Dresdner Konzertpublikum reagierte mit Neugier und Offenheit: An der Aufführung fand offenkundig niemand etwas Befremdliches, am Ende gab es Applaus und Blumen auch für die Informatiker. Das Publikum behandelte sie hier wie Teil-Komponisten. Vielleicht ist genau das das Originelle dabei und eine Antwort auf manche der offenen Fragen: Wagner selbst hatte sich für ein unübertreffliches Genie gehalten, sein musikalisches Vermächtnis ist durch Antisemitismus und die Nähe einiger seiner Nachfahren zum NS-Regime sowie die Rezeption seiner Musik in dieser Zeit überschattet. Die KI „weiß“ davon nichts und kann sich auf die formalen Aspekte der Wagnermusik „konzentrieren“.

KI ist ein emotionsgeladenes Feld: Menschen reagieren mit Ängsten, Hoffnungen und Faszination auf Machine Learning. Angst, da Menschen sich redundant fühlen, wenn Maschinen etwas besser können. Hoffnungen, da praktische Assistenzsysteme uns bereits konkret im Alltag begleiten. Die großen Probleme der Menschheit werden wohl nur mit übermenschlicher Intelligenz lösbar sein. Aber können Maschinen auch Kunst schaffen, lässt sich maschineller Produktion Kreativität beimessen? Und wenn ja, was bedeutet das für uns? Einige Befürchtungen, soweit sie vorhanden waren, konnte der Abend sicherlich auflösen und in informierte Neugierde überführen. Das Konzert hatte breiten Anklang gefunden, die Kirche war voll besetzt.

Forschung und Kunst finden gemeinsam Anklang

Auf der technischen Seite schuf das gemeinsame Projekt ein komplexes KI-System, optimiert für Musik – ähnlich wie das Ausgangssystem der multimodalen Modelle von Aleph Alpha. Auf der menschlichen Seite brachte und bringt es Kunst und Forschung zueinander für eine sinnliche Form des Zusammenspiels von Mensch und Maschine. Wagner wurde bei dem Konzert nicht entzaubert, aber für die heutige Zeit renoviert. In den Meistersingern äußert sich ein unerschütterlicher Glaube an Kunst als Grundlage für Sinn und Zusammenhalt, so Käppler. Ein bisschen von diesem (um seine nationalistischen Töne bereinigten) Geist können wir alle gut gebrauchen – KI leistet hier einen Beitrag zur zeitgenössischen Wagner-Rezeption.