PAGE online

Moralfrage: Voice Cloning

In ihrer regelmäßigen Kolumne aus dem PAGE-Magazin lässt sich Dr. Claudia Gerdes über Stimmen aus dem Jenseits aus …

PAGE-Kolumne »Moralfrage«

 

Eigentlich sollte es herzergreifend werden, als Amazon jüngst auf seiner großen KI-Konferenz in Las Vegas seine neue Voice-Cloning-Funktion präsentierte: Eine einmütige Audiovorlage reicht ihr schon, um eine Stimme waschecht nachzuahmen, selbst wenn die Sprecher:innen gar nicht mehr unter den Lebenden weilen … Toll, oder etwa nicht?

 

Welch wunderbare Möglichkeiten die neuen, ruckzuck generierten synthetischen Stimmen der Sprachassistentin Alexa eröffnen, sollte ein Demonstrationsvideo anhand der Stimme einer verstorbenen Großmutter zeigen. »Alexa, kann Oma mir den ›Zauberer von Oz‹ zu Ende vorlesen?«, fragt der Enkel und bekommt sofort in liebevollem Ton das Gewünschte geliefert.

Rohit Prasad, Head Scientist beim Alexa-Team, schwurbelte zwar noch davon, wie Amazons KI auf diese Weise helfen könne, den Verlust geliebter Menschen etwa durch Covid-19 erträglicher zu machen. Aber beim Publikum kam diese Argumentation ganz und gar nicht gut an. Auf Twitter und YouTube löste die »deepfakezombiegranny« eine Flut ätzender Kommentare aus. »Toll, ich kann es nicht abwarten, bis meine Großmutter stirbt, um das auszuprobieren!«, schrieb jemand, andere fantasierten davon, sich von Oma erotische Literatur vorlesen zu lassen.

 

 

»So was passiert, wenn totale Soziopathen die Produktentwicklung leiten«, lautete ein umfassenderes Fazit dieser gründlich misslungenen Präsentation. Wobei es sich eher um ein totales Kommunikationsdebakel handelt, das ein soziopathisches Grundproblem der Tech-Riesen nur auf die Spitze treibt: Ständig wollen sie sich in unser Gefühlsleben drängen, dieses angeblich mit ihren Produkten verbessern … Die Entwicklung von Voice-Cloning-Produkten jedenfalls ist eh nicht aufzuhalten.

Microsoft oder Start-ups wie Respeecher aus der Ukraine arbeiten längst an ähnlichen Anwendungen für Kundschaft aus Marken-, Film- und Game-Industrie. Bei Descript aus San Francisco kann man schon Stock Voices kaufen, die jeden beliebigen Text von sich geben. Alles brav mit ethischen Codes und Sicherheitsmaßnahmen, um Missbrauch zu verhindern. Aber es wird nicht lange dauern, bis die Technik wirklich jedem zur Verfügung steht, der damit kriminellen Unsinn anstellen will. Sich »Mein Kampf« in Adolf Hitlers Originalstimme vorlesen zu lassen (eine weitere von der Deepfake-Zombie-Oma inspirierte Kommentatoren-Idee) dürfte da noch vergleichsweise harmlos sein.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Sie auch interessieren