Logo Rocketeer

Deepfake

Jay-Z rappt Hamlet – oder doch nicht? Wie Deepfakes unsere Realität verzerren

Deepfakes bilden sehr erfolgreich die menschliche Stimme nach
Spätestens seit dem Obama-Video des US-Schauspielers und Regisseurs Jordan Peele sind sich die Meisten bewusst, welche (gruseligen) Möglichkeiten Deepfakes bieten. Vor allem die menschliche Stimme lässt sich täuschend echt nachbilden. Das sorgt auch in der Musikindustrie für Wirbel - und ethische Diskussionen.

Jay-Z ist eine unfreiwillige Inspiration für die AI-Szene geworden und war darüber nicht besonders erfreut. In einem YouTube-Video konnte man dem Rapper scheinbar dabei zuhören, wie er den „to be or not to be“-Monolog aus Hamlet in seinem Flow rezitierte. Die Performance war aber nicht von Jay-Z selbst, sondern eine künstliche Rekonstruktion. Er ist damit nicht der erste Künstler, dessen Stimme – oder sogar Bild – mithilfe von AI sozusagen zweckentfremdet wurde. Allein der Channel, der den Hamlet-Monolog hochgeladen hatte, hat zahlreiche andere Videos. „Barack Obama reads ’99 Problems’“, oder „Donald Trump reads The Book of Genesis“ sind zwei der beliebtesten. Doch Jay-Zs Management hat bei YouTube Beschwerde gegen das Video des Rappers eingelegt und damit eine grundsätzliche Fragestellung aufgeworfen: Wer hat das Recht an der Stimme?

 

 

Elvis singt wieder

Die Thematik betrifft nicht nur lebende Celebrities. Das AI-Forschungsunternehmen OpenAi hat ein Algorithmus-System entwickelt, mit dem komplette Musikstücke computergeneriert werden können. Auf der Website kann man sich also Songs von Elvis Presley und Frank Sinatra anhören, die die Künstler nie gesungen haben. Die Algorithmen analysieren die Songs, finden Muster, die mit dem bestimmten Stil des Sängers korrelieren und generieren daraus neue Musik.

 

 Südkoreanischer Folk-Sänger wird wiederbelebt

Diese Technologie, kombiniert mit den Möglichkeiten von Hologrammen – die beispielsweise für eine Auftritt von 2Pac auf dem Coachella-Festival sorgten – sollen nun wohl für die musikalische Wiederauferstehung eines südkoreanischen Folk-Sängers sorgen. Kim Kwang-seok war ein nationaler Superstar. Seit seinem Tod 1996 sammeln sich nach wie vor jedes Jahr zahlreiche Fans in der Nähe seines Heimatortes, um ihm Tribut zu zollen. Jetzt sorgt laut Berichten von CNN der Sender SBS dafür, dass Kim zum ersten mal seit 25 Jahren mit neuem Song-Material im Fernsehen auftritt. Ein Video-Clip, der einen Ausschnitt der kommenden Performance als Teaser zeigt, hat mittlerweile über 160.000 Aufrufe und das passende Behind-the-Scenes Video mehr als 840.000. „Die wiederhergestellte Stimme klingt genau nach ihm. Als ob Kim es live aufgenommen hätte.“ Kommentierte ein Langzeitfan.

 

 

Junges Startup verantwortlich für neues Liedermaterial

Hinter der Performance steckt das 2020 gegründete, südkoreanische Startup Supertone. Supertones „Singing Voice Synthesis“-Technologie lernt, indem sie mehrere Songs, zusammen mit den jeweiligen Texten und den Noten, analysiert. „Wir haben Kim Kwang-seok wiederbelebt, um die Leistungsfähigkeit des Systems zu zeigen“ so Nam, der Produzent der Show, gegenüber CNN.

 

Auch Zalando nutzt Deepfake

Nicht nur in der Musikindustrie werden Deepfakes und AI-generierte Abbildungen immer populärer. Während sie vor einigen Jahren vor allem für ihre Rolle in Erotikfilmen mit angeblichen Stars und der Verbreitung von Fake News ins Licht der Öffentlichkeit rückten, sind sie heute auch für etablierte Unternehmen interessant. In einer Marketing-Kampagne mit Model Cara Delevigne beispielsweise, setzte Zalando auf AI, um eine Auswahl an alternativen Posen, Fotos und gesprochenen Sätzen zu produzieren. Und als Hollywood in „Rogue One: A Star Wars Story“ eine junge Carrie Fisher als Prinzessin Leia zurück auf die Leinwand brachte, waren Fans begeistert. Auch die Southpark-Macher haben Deepfakes für ihre Zwecke genutzt und lassen so in einer neuen Serie Donald Trump und Mark Zuckerberg als unfreiwillige Hauptpersonen auftreten.

 

AI sorgt für künstlichen Blickkontakt

Noch alltäglicher in der Anwendung wird die Technologie bei der Plattform Maxine der Entwickler-Firma Nvidia: Hier soll AI und deep learning dabei helfen, Videoanrufe angenehmer und qualitativ hochwertiger zu machen. Maxime soll dabei solche Faktoren wie Videoqualität und Geschwindigkeit verbessern – hat aber auch eine Funktion, die dafür sorgt, dass man bei einem Call immer so aussieht, als würde man Blickkontakt halten. Auch, wenn man eigentlich nicht in die Kamera schaut. Der Videostream der Teilnehmer wird also während einem Call live verändert.

 

Ungeklärte Fragen

Hollywood, Marketing oder die Musikindustrie: Deepfakes haben eine Menge Potential, werfen aber auch viele noch ungeklärte Fragen auf. Jay-Z hat seinen Streit mit YouTube übrigens verloren: Das Video mit seiner Stimme und dem Hamlet-Text darf öffentlich bleiben.

Lies auch: