Deepfake-technologie kan leuk zijn om mee te spelen, maar het potentieel voor schade is aanzienlijk. Dit is wat de toekomst van deepfakes zou kunnen brengen.

Vroeger waren de veelbetekenende tekenen van een deepfake-afbeelding gemakkelijk te herkennen, maar generatieve AI doet ons twijfelen aan zo ongeveer alles wat we nu zien en horen. Met elk nieuw AI-model dat wordt uitgebracht, nemen de veelbetekenende tekenen van een nepbeeld af, en om toe te voegen aan de verwarring, je kunt nu deepfake-video's maken, stemklonen van je dierbaren maken en nepartikelen maken in louter seconden.

Om te voorkomen dat u voor de gek wordt gehouden door AI-deepfakes, is het de moeite waard om te weten wat voor soort gevaren ze vormen.

De evolutie van deepfakes

Een deepfake laat zien dat een persoon iets doet dat in het echte leven nooit is gebeurd. Het is helemaal nep. We lachen om deepfakes als ze als meme of grap op internet worden gedeeld, maar heel weinig mensen vinden het grappig als ze worden gebruikt om ons te misleiden.

instagram viewer

In het verleden werden deepfakes gemaakt door een bestaande foto te nemen en deze te bewerken in een beeldbewerkingssoftware zoals Photoshop. Maar wat een AI-deepfake onderscheidt, is dat deze helemaal opnieuw kan worden gegenereerd met behulp van deep learning-algoritmen.

De Merriam-Webster-woordenboek definieert een deepfake als:

Een afbeelding of opname die op overtuigende wijze is gewijzigd en gemanipuleerd om iemand verkeerd voor te stellen alsof hij iets doet of zegt dat niet echt is gedaan of gezegd.

Maar met de vooruitgang in AI-technologie begint deze definitie achterhaald te lijken. Met het gebruik van AI-tools omvatten deepfakes nu afbeeldingen, tekst, video's en het klonen van stemmen. Soms worden alle vier manieren van AI-generatie tegelijk gebruikt.

Omdat het een geautomatiseerd proces is dat ongelooflijk snel en goedkoop in gebruik is, is het de perfecte tool om uit te blinken deepfakes met een snelheid die we nog nooit eerder hebben gezien - allemaal zonder ook maar iets te hoeven weten over het bewerken van foto's, video's of geluid.

De grote gevaren van AI-deepfakes

Een gastheer van AI-videogeneratoren bestaan ​​al, naast tal van AI-spraakgeneratoren. Gooi een groot taalmodel zoals GPT-4 en je hebt een recept voor het maken van de meest geloofwaardige deepfakes die we tot nu toe in de moderne geschiedenis hebben gezien.

Zich bewust zijn van de verschillende soorten AI-deepfakes en hoe ze kunnen worden gebruikt om u te misleiden, is een manier om te voorkomen dat u wordt misleid. Hier zijn slechts enkele serieuze voorbeelden van hoe AI-deepfake-technologie een reële bedreiging vormt.

1. AI-identiteitsdiefstal

Je hebt ze misschien gezien. Onder de eerste echt virale AI-deepfakes die zich over de wereld verspreidden, waren een afbeelding van Donald Trump die werd gearresteerd en een afbeelding van paus Franciscus in een wit pufferjack.

Hoewel het lijkt alsof je je onschuldig opnieuw voorstelt wat een beroemde religieuze figuur zou aantrekken om te dragen op een kille dag in Rome; het andere beeld, dat een politiek figuur laat zien in een ernstige situatie met de wet, heeft veel grotere gevolgen als het echt wordt aangenomen.

Tot nu toe hebben mensen zich vooral gericht op beroemdheden, politieke figuren en andere beroemde personen bij het maken van AI-deepfakes. Gedeeltelijk komt dit doordat beroemde personen tal van foto's van hen op internet hebben staan, wat waarschijnlijk heeft bijgedragen aan de training van het model in de eerste plaats.

In het geval van een AI-beeldgenerator zoals Midjourney - gebruikt in zowel de deepfake van Trump als de paus - hoeft een gebruiker alleen maar tekst in te voeren die beschrijft wat hij wil zien. Sleutelwoorden kunnen worden gebruikt om de kunststijl te specificeren, zoals een foto of fotorealisme, en de resultaten kunnen worden verfijnd door de resolutie op te schalen.

U kunt net zo gemakkelijk leer Midjourney gebruiken en test dit zelf uit, maar om voor de hand liggende morele en juridische redenen moet u voorkomen dat u deze afbeeldingen openbaar plaatst.

Helaas garandeert het zijn van een doorsnee, niet-beroemd mens ook niet dat je veilig bent voor AI-deepfakes.

Het probleem ligt bij een belangrijk kenmerk van AI-beeldgeneratoren: de mogelijkheid om uw eigen afbeelding te uploaden en deze met AI te manipuleren. En een tool als Overschilderen in DALL-E 2 kan een bestaande afbeelding buiten zijn grenzen uitbreiden door een tekstprompt in te voeren en te beschrijven wat u nog meer wilt genereren.

Als iemand anders dit met jouw foto's zou doen, zouden de gevaren aanzienlijk groter kunnen zijn dan de deepfake van de paus in een wit jasje - ze kunnen het overal gebruiken en doen alsof ze jou zijn. Hoewel de meeste mensen AI over het algemeen met goede bedoelingen gebruiken, zijn er maar heel weinig beperkingen die voorkomen dat mensen het gebruiken om schade aan te richten, vooral in gevallen van identiteitsdiefstal.

2. Deepfake Voice Clone-zwendel

Met behulp van AI hebben deepfakes een grens overschreden waar de meesten van ons niet op voorbereid waren: nep-stemklonen. Met slechts een kleine hoeveelheid originele audio - misschien van een TikTok-video die je ooit hebt gepost, of een YouTube-video waarin je voorkomt - kan een AI-model je enige echte stem repliceren.

Het is zowel griezelig als beangstigend om je voor te stellen dat je een telefoontje ontvangt dat klinkt als een familielid, vriend of collega. Deepfake-stemklonen zijn een zorg genoeg dat de Federale Handelscommissie (FTC) heeft hiervoor een waarschuwing afgegeven.

Vertrouw de stem niet. Bel de persoon die zogenaamd contact met u heeft opgenomen en verifieer het verhaal. Gebruik een telefoonnummer waarvan u weet dat het van hen is. Als je je geliefde niet kunt bereiken, probeer dan contact met hem op te nemen via een ander familielid of zijn vrienden.

Dat meldt de Washington Post een geval van een stel van in de zeventig dat werd gebeld door iemand die net zo klonk als hun kleinzoon. Hij zat in de gevangenis en had dringend geld nodig voor borgtocht. Omdat ze geen andere reden hadden om te twijfelen met wie ze aan het praten waren, gingen ze door en overhandigden het geld aan de oplichter.

Het is niet alleen de oudere generatie die risico loopt, De Voogd meldde nog een voorbeeld van een bankdirecteur die een transactie van $ 35 miljoen goedkeurde na een reeks "deep-faked calls" van iemand waarvan ze dachten dat het een bankdirecteur was.

3. In massa geproduceerd nepnieuws

Grote taalmodellen, zoals ChatGPT zijn erg, erg goed in het produceren van tekst die klinkt als een mens, en we hebben momenteel geen effectieve hulpmiddelen om het verschil te herkennen. In verkeerde handen zullen nepnieuws en complottheorieën goedkoop te produceren zijn en meer tijd kosten om te ontkrachten.

Het verspreiden van desinformatie is natuurlijk niets nieuws, maar een onderzoeksartikel gepubliceerd op arXiv in januari 2023 legt uit dat het probleem zit in hoe gemakkelijk het is om de output op te schalen met AI-tools. Ze noemen het "door AI gegenereerde beïnvloedingscampagnes", waarvan ze zeggen dat ze bijvoorbeeld door politici kunnen worden gebruikt om hun politieke campagnes uit te besteden.

Door meer dan één door AI gegenereerde bron te combineren, ontstaat een deepfake op hoog niveau. Een AI-model kan bijvoorbeeld een goed geschreven en overtuigend nieuwsbericht genereren naast het nepbeeld van de arrestatie van Donald Trump. Dit geeft het meer legitimiteit dan wanneer de afbeelding alleen zou worden gedeeld.

Nepnieuws is ook niet beperkt tot afbeeldingen en schrijven, ontwikkelingen in het genereren van AI-video's betekenen dat we meer deepfake-video's zien opduiken. Hier is er een van Robert Downey Jr. geënt op een video van Elon Musk, gepost door de YouTube-kanaal Deepfakery.

Het maken van een deepfake kan net zo eenvoudig zijn als het downloaden van een app. Je kunt een app gebruiken zoals TokkingHeads om stilstaande beelden om te zetten in geanimeerde avatars, waarmee je je eigen afbeelding en audio kunt uploaden, zodat het lijkt alsof de persoon aan het praten is.

Voor het grootste deel is het vermakelijk en leuk, maar er is ook kans op problemen. Het laat ons zien hoe gemakkelijk het is om iemands afbeelding te gebruiken om het te laten lijken alsof die persoon woorden uitsprak die hij nooit heeft gesproken.

Laat u niet misleiden door een AI-deepfake

Deepfakes kunnen snel worden ingezet tegen zeer lage kosten en met een lage lat aan expertise of rekenkracht. Ze kunnen de vorm aannemen van een gegenereerde afbeelding, een stemkloon of een combinatie van door AI gegenereerde afbeeldingen, audio en tekst.

Vroeger was het veel moeilijker en arbeidsintensiever om een ​​deepfake te maken, maar nu, met de overvloed aan AI-apps die er zijn, heeft vrijwel iedereen toegang tot de tools die worden gebruikt om deepfakes te maken. Naarmate AI-deepfake-technologie steeds geavanceerder wordt, is het de moeite waard om de gevaren die het met zich meebrengt nauwlettend in de gaten te houden.