Op 6 juni 2022 stonden Chris Umé en Thomas Graham, de oprichters van Metaphysic, samen met Daniel Emmet op het podium van America's Got Talent. Met behulp van de technologie die Metaphysic ontwikkelde, voerde Daniel Emmet "You're the Inspiration" uit met behulp van de gelijkenis van AGT-jurylid Simon Cowell, live op het podium.
Dit optreden verbaasde de jury en veroverde het publiek, wat resulteerde in vier jassen. De groep gaat door naar de volgende ronde van AGT, maar wat betekent hun gebruik van deepfake-technologie voor de toekomst van entertainment?
Wat gebeurde er op het AGT-stadium?
De belangrijkste deelnemers aan de show waren Chris en Thomas. Toen ze zich voorstelden, zeiden ze:
"We gebruiken kunstmatige intelligentie om hyperrealistische inhoud te creëren."
Daarna brachten ze Daniel Emmet op het podium. Toen Simon vroeg hoe hij bij het duo was gekomen, zei hij:
“Ik ben fan van wat ze online doen, en zij zijn fans van AGT. En toen ze me vroegen om deel uit te maken van dit prachtige, unieke, originele wat ze gaan doen, kon ik geen nee zeggen.”
Dus, met al het mysterie rond het trio, wenste Cowell hen veel succes en begonnen ze de show.
Terwijl Emmet zich klaarmaakte om te zingen, liep een camera het podium op om hem in profiel op te nemen, waardoor het publiek (en het zicht van de jury) werd geblokkeerd. Toen de muziek begon, ging de camera-feed live op het scherm van het podium, waar we Simons hyperrealistische avatar bovenop David zagen en live op het podium zong.
Het publiek werd wild toen ze dat zagen, maar Simon was aanvankelijk in de war. Naarmate het optreden vorderde, ging Cowell van verward naar beschaamd naar vermaakt. Uiteindelijk gaf hij (en de rest van het publiek) de act een staande ovatie en kreeg de groep een "ja" van alle vier de juryleden.
Hoe deepfakes van invloed zijn op entertainment
Hoewel deepfakes voor de meeste mensen een nieuwe ontwikkeling lijken, is dit niet het geval, vooral niet in Hollywood. Toegegeven, dit is waarschijnlijk de eerste keer dat deepfake-technologie in een live setting wordt gebruikt, maar films gebruiken deze technologie al jaren.
Een populair voorbeeld is de Furious 7-film uit 2015, waarin een van de hoofdrolspelers, Paul Walker, halverwege het filmen omkwam bij een auto-ongeluk. In plaats van zijn personage in de film te vermoorden, besloten de producenten hem te filmen met zijn broers als stand-ins en vervolgens CGI te gebruiken om Paul's gezicht op hen te plaatsen.
Deze techniek verscheen ook in Rogue One: A Star Wars Story in 2016 en werd toegepast op Grand Moff Tarkin en Princess Leia. Helaas stierf de acteur die het personage speelde, Peter Cushing, in 1994. En hoewel Carrie Fisher nog leefde tijdens het filmen, was haar uiterlijk sinds 1977 aanzienlijk veranderd.
Voor deze film gebruikte de productie stand-ins en technologie vergelijkbaar met deepfakes om de originele personages digitaal na te bootsen.
En hoewel je misschien denkt dat dit een recente ontwikkeling is, zal het je misschien verbazen te weten dat Gladiator uit 2000 ook soortgelijke technologie gebruikte. Toen een van de hoofdrolspelers in een bijrol, Oliver Reed, plotseling stierf tijdens het filmen, koos de productie ervoor om hem digitaal te recreëren terwijl hij een body double gebruikte voor de eigenlijke opname.
Deze technologie gaat echter verder dan het doen herleven en leeftijd omkeren van beroemdheden. Ze gebruikten het zelfs in Captain America: The First Avenger om het kolossale lichaam van Chris Evan te verwisselen voor het kleinere frame van Leander Deeny. Hoewel ze ook verschillende andere technieken gebruikten om zijn kleine verschijning te maken vóór het experiment van Howard Stark, was deepfake-technologie een van hun hulpmiddelen.
Hoe deepfakes de entertainmentindustrie kunnen revolutioneren
Een ding dat alle bovenstaande voorbeelden gemeen hebben, is dat ze maanden en miljoenen dollars moesten uitgeven om het gewenste effect te bereiken. Op het AGT-podium liet Metaphysic echter zien dat ze in realtime een andere beroemdheid in hoge kwaliteit konden recreëren.
Hoewel hun output op het AGT-podium niet 100% realistisch is, komt het dicht genoeg bij het echte werk als je niet goed kijkt. En een groot ding is dat ze het in realtime doen. Met de manier waarop technologie evolueert, zullen we binnenkort een realtime deepfake-toepassing vinden die onmiddellijk een realistische video kan produceren.
De ontwikkeling kan de afhankelijkheid van studio's van geavanceerde volgpakken en uitgebreide nabewerking verminderen, waardoor hun postproductie-workflow verder wordt gestroomlijnd. En terwijl naadloze deepfake-video's maken is niet zo eenvoudig als het klinkt, je hoeft niet langer een miljoenenproductiebedrijf te zijn om het te betalen.
Door de mainstream-introductie van de technologie zouden kleinere studio's en zelfs indie-filmmakers het zich kunnen veroorloven en gebruiken voor hun creaties. Eigenlijk kan iedereen met een smartphone probeer deze technologie via face swap-apps, hoewel ze niet zo goed zijn als op het AGT-podium.
De toekomst van deepfakes in films en tv
Naarmate de deepfake-technologie evolueert, zullen we binnenkort misschien ontdekken dat studio's gemakkelijk de gelijkenis van beroemdheden uit het verleden kunnen gebruiken om hun nieuwste films tot leven te brengen. Deze zouden helpen om de continuïteit te behouden, vooral omdat producties (en bioscoopbezoekers) de voorkeur geven aan langlopende franchises, waar ze worden geconfronteerd met problemen met ouder wordende of zelfs stervende beroemdheden.
Deze ontwikkeling heeft echter ook een ander facet: het kan worden gebruikt om de gelijkenis van een persoon opnieuw te creëren zonder hun toestemming. Bovendien kan diezelfde video gebruikt worden om angst, spanning en verwarring bij mensen te zaaien, zeker als het van een politieke figuur is en de deepfake niet als zodanig herkenbaar is.
Hoe blij we ook zijn met deze technologie in entertainment, we moeten ook op onze hoede zijn dat het ethisch wordt gebruikt en nooit chaos zaait.