Im Interview berichten Kay Voges, Andrea Schumacher und Tommy Finke über die Produktion von RCE. Das Stück nach dem Roman von Sybille Berg feiert heute Abend Uraufführung am Berliner Ensemble.
Sibylle Bergs Roman RCE wird heute Abend am Berliner Ensemble uraufgeführt und verspricht mit modernsten Produktionsmitteln eine zeitgemäße Inszenierung – Regisseur Kay Voges, die Videodesignerin Andrea Schumacher und der Komponist Tommy Finke sprachen mit uns über ihren kollaborativen künstlerischen Ansatz und die Co-Creation mit KI.
Wie kamt ihr auf die Idee für RCE mit KI zu arbeiten?
Kay Voges: In RCE wehren sich die Hacker zum Beispiel durch generative KI, mit Fake News, eingeschleusten Viren und Trojanern gegen die Mächtigen. Ich habe mich gefragt: warum wollen wir nicht selbst die Methoden anwenden und nutzen, um diese Geschichte zu erzählen?
Wir setzen die aktuellen Tools in der Bild- und Tonbearbeitung ein, die auch im Stück behandelt werden. Dazu arbeiten wir wie in der Romanvorlage kollektiv mit acht Visual Artists zusammen: Das ist einerseits größenwahnsinnig, aber andererseits sehr, sehr aufregend.
Wie werden die KI-Visuals genau eingesetzt?
Kay: Sehr aufregend. Ich zeige dir mal die Probebühne, die sieht ein bisschen so aus, als sei ein Raumschiff in einem dreidimensionalen Monitor gelandet. Hinten ist eine riesige LED-Wand und vorne haben wir eine riesengroße Projektionsfläche für die Visuals.
Zwischen diesen zwei Räumen spielen die Schauspieler:innen. Und wir haben auch zwei Computer Arbeitsplätze für Bild und Ton aber der größte Arbeitsplatz ist gerade der Schnittraum bei Andrea zuhause.
Wie seid ihr an dieses Projekt herangegangen?
Kay: Wir haben damit angefangen, dass Tommy Finke uns Musik komponiert hat, während ich unsere 50-seitige Theater-Fassung in einen Text-to-Speech-Programm reingegeben habe.
Aus Ton und Text haben wir dann erstmal ein Hörspiel gemacht, das die Schauspieler:innen über in-ears hören und während des Stückes im gleichen Rhythmus wie die KI-Sprecher:innen nachsprechen. Und zu dieser Tonspur generieren uns die Artists ihre Bildwelten.
Tommy, wie hast du dich an den Sound herangearbeitet?
Tommy Fink: Kay hat mich letztes Jahr im September gefragt, ob ich Lust auf das Projekt hätte und ich habe dann ein bisschen ausprobiert mit den Tools, die ich ohnehin schon benutze. Das sind eine Menge Audio-Plugins, in denen KI-Features die Arbeit leichter machen. Dann habe ich mir auch Tools angeschaut, mit denen ich generativ arbeiten kann, und hab sie verglichen.
Und wie waren sie geeignet?
Tommy: Das Problem ist die Geschwindigkeit, mit der sie sich entwickeln. Suno war damals als Version 2 verfügbar, vor 3 Wochen haben sie ihr Modell 3 veröffentlicht. Stable Audio und AIVA haben sich ebenfalls stark entwickelt, überzeugen mich aber nicht so stark wie Suno oder Udio, wenn es um schnelle Eindrücke geht.
Insgesamt waren die meisten Tools nicht in der Lage, längere Stücke zu komponieren, die zu einem dramaturgischen Ende kommen. Da bemerkt man, dass teilweise auf Musicals trainiert wurde oder Diffusion Modelle an ihre Grenzen kommen.
Wie hast du dann damit komponiert?
Tommy: Ich habe mit der Textfassung von Kay Voges und Sibylle Baschung als Grundlage dreiminütige Fragmente erstellt und KI damit gefüttert, um zu sehen was passiert. Die KIs waren zur Inspiration und als Sparrings Partner bereichernd aber vieles, was ich an Material erzeugt habe, war noch nicht wirklich brauchbar für unsere Zwecke. Darum bin ich auch dazu über gegangen, organisch mit dem Materal zu arbeiten.
Würdest du inzwischen anderes an die Sache heran gehen?
Tommy: Wenn ich jetzt neu starten würde, würde ich gezielter nach Stärken und Schwächen vorsortieren mit meinen Erfahrungen. Ich findeallerdings das aktuelle Ergebnis eine gute Mischung aus künstlerisch wertvoller, menschlicher Arbeit und dem was man als Mensch so noch irgendwie hören will, obwohl es KI-inspiriert ist.
Andrea, dieser Soundtrack ist nun die Timeline für ein Video von dir?
Andrea Schumacher: Ja, das ist neben den vielen beteiligten Artists auch eine ganz neue spannende Herangehensweise. Von der Musik zum Bild sozusagen. Bei mir landet alles, was die Kollegen und wir hier generiert haben.
Das ist nicht nur mit KI generiertes Material, das ist auch gedrehter und animierter Stoff. Daraus schneiden wir am Ende eine 70-minütige Mehrkanal-Videospur, die dann in der Vorstellung abgespielt wird. Die Montage läuft nicht über KI, die läuft bei uns mit HI, Human Intelligenz.
Ansonsten steuert alles die Timeline?
Andrea: Ja, wir drücken Play und dann steuert die Timeline die Schauspieler:innen. Sie müssen sich nach dem Video richten. Wie in einer Maschine, die ihnen den Rhythmus und die Bilderwelten vorgibt, eine Umwelt, in der sie sich dann behaupten müssen.
So schließt sich dieses KI-Thema wieder und wird aufgefangen. Der menschlicher Faktor dabei ist unser kuratorischer Auftrag. Wir müssen auswählen aus diesem vielen KI-generierten Material.
Das müssen hunderte Stunden Material sein, das ihr jetzt sichtet
Andrea: Ja, genau, viel ist bei wie bei einem Filmdreh, das Material potenziert sich, man hat alles mindestens mal 10 und dann muss man sieben wie so ein Goldgräber und das Beste auswählen.
Und in dieser Bildwelt gibt es dann auch Bezüge zum Text?
Kay: Ja, die Brücke zwischen Text, KI und Schauspieler:innen ist klar und dazu kommen auch passende Bilder. Worüber die Menschen auf der Bühne sprechen, wird von der KI ersonnen. Wenn sie über Barcelona reden und die Menschenmassen, die dort demonstrieren, dann kriegen wir Bilderwelten aus Barcelona dazu von der KI.
Also eine sehr realistische Anmutung?
Andrea: Nein, wir suchen in unserer Ästhetik nicht nach einer möglichst naturgetreuen Darstellung. Wir suchen nach Uncanny Valley Ästhetiken und Glitches, die nicht versuchen, Wirklichkeit darzustellen, sondern ein Bild von Wirklichkeit, ein Abbild von Wirklichkeit oder ein Sinnbild von Wirklichkeit geben und eigentlich immer auch ihre künstliche Herstellung offenlegen.
Fake News ist eine scharfe Waffe von Populisten, wie eignet ihr sie euch an?
Kay: Im Roman stellen die Nerds unter anderem Fake-Videos her und arbeiten dabei mit Stimmen von Politikern. Bei uns passiert es, dass Helene Fischer und Günther Jauch zwischendurch sprechen.
Ohne moralische Bedenken?
Kay: Ja, die Hacker treten in diesen Wettbewerb der Manipulation ein und sagen: Wenn wir nicht mit guten Argumenten die Welt retten können, dann nehmen wir die fiesen Tricks, so wie das die Kapitalisten und Faschisten machen.
Adornos Ansatz, es gibt kein richtiges Leben im Falschen, haben die Hacker fahren gelassen. Sie sagen: da es so viel falsches Leben gibt, müssen wir auch die bösen Mittel nutzen. Dem hohen moralischen Anspruch von Adorno können wir gar nicht mehr folgen. Und wir nehmen das auf: Mit den Tricks der Bösen, teilweise gute Kunst zu machen. Wir müssen zu den Waffen greifen!
Welche Gefühle hat die Zusammenarbeit mit KI bei euch ausgelöst?
Kay: Also ich war wirklich geschockt und gegruselt zwischendurch. Meine Kolleg:innen haben mich einmal mit KI animiert und mir meine eigenen Texte in den Mund gelegt. Das hörte sich stimmlich so täuschend echt an, dass ich selbst dachte, ich könnte das gewesen sein.
Andrea: als Team haben wir es natürlich gefeiert und uns kaputtgelacht, aber es macht deutlich, wo man steht. Bin ich der Konsument, der darüber lacht oder bin ich derjenige, der benutzt wird oder sogar derjenige, der das Video erstellt hat.
Kay: Medienkompetenz ist die große Herausforderung unserer Zeit; sie zu besitzen oder auf dem aktuellen Level zu halten. Neben einer künstlerischen Auseinandersetzung geht es auch darum, diese Kompetenzen nicht zu verlieren und um Wissenserlernung, die wir hier machen.