Kunstmatige intelligentie (AI) heeft het potentieel om de aard van onze samenleving te veranderen. En als de AI-tools die we momenteel tot onze beschikking hebben een indicatie zijn van wat komen gaat, hebben we veel om naar uit te kijken.
We hebben ook veel om op te letten. Namelijk de bewapening van AI door cybercriminelen en andere bedreigingsactoren. Dit is geen theoretische zorg, en zelfs AI-beeldgeneratoren zijn niet immuun voor misbruik.
Wat zijn AI-beeldgeneratoren? Hoe werken ze?
Als je ooit een AI-beeldgenerator hebt gebruikt, heb je een redelijk goed idee waar het allemaal om draait. Zelfs als je er nog nooit een hebt gebruikt, ben je hoogstwaarschijnlijk door AI gegenereerde afbeeldingen tegengekomen op sociale media en elders. De software die tegenwoordig populair is, werkt volgens een heel eenvoudig principe: de gebruiker typt de tekst in en de AI genereert op basis van die tekst een afbeelding.
Wat zich onder de motorkap afspeelt, is veel complexer. AI is de afgelopen jaren veel beter geworden, en de meeste tekst-naar-beeld generatoren tegenwoordig zijn er zogenaamde diffusiemodellen. Dit betekent dat ze gedurende een lange periode worden "getraind" op een enorme hoeveelheid tekst en afbeeldingen, wat hun creaties zo indrukwekkend en verbluffend realistisch maakt.
Wat deze AI-tools nog indrukwekkender maakt, is het feit dat ze niet alleen bestaande afbeeldingen wijzigen of duizenden afbeeldingen combineren tot één, maar ook nieuwe, originele afbeeldingen vanaf nul creëren. Hoe meer mensen deze tekst-naar-beeld-generatoren gebruiken, hoe meer informatie ze krijgen en hoe beter hun creaties worden.
Enkele van de bekendste AI-beeldgeneratoren zijn Dream van WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor en Craiyon. Links en rechts duiken er nieuwe op, en technische reuzen – waaronder Google – brengen hun eigen uit, dus we kunnen alleen maar speculeren over wat de toekomst zal brengen.
4 manieren waarop bedreigingsactoren AI-beeldgeneratoren bewapenen
Zoals vrijwel alle technologie kunnen AI-beeldgeneratoren worden misbruikt door kwaadwillende actoren. Eigenlijk worden ze al voor allerlei snode doeleinden gebruikt. Maar wat voor soort oplichting en cyberaanvallen kan een crimineel precies uitvoeren met behulp van AI-beeldgeneratoren?
1. Social engineering
Een voor de hand liggend ding dat bedreigingsactoren kunnen doen met AI-beeldgeneratoren is doen aan social engineering; maak bijvoorbeeld nepprofielen op sociale media. Sommige van deze programma's kunnen ongelooflijk realistische afbeeldingen maken die er net zo uitzien als echte foto's van echte mensen, en een oplichter kan deze nepprofielen op sociale media gebruiken voor catfishing.
In tegenstelling tot foto's van echte mensen, kunnen door AI gegenereerde foto's niet worden ontdekt via reverse image search, en de cybercrimineel hoeft niet te werken met een beperkt aantal foto's om hun doel te bedriegen - met behulp van AI kunnen ze er zoveel maken als ze willen, en een overtuigende online identiteit opbouwen van kras.
Maar er zijn praktijkvoorbeelden van bedreigingsactoren die AI-beeldgeneratoren gebruiken om mensen op te lichten. april 2022, TechTalks blogger Ben Dickinson ontving een e-mail van een advocatenkantoor waarin hij beweerde dat hij zonder toestemming een afbeelding had gebruikt. De advocaten e-mailden een DMCA Copyright Infringement Notice, waarin ze Dickinson vertelden dat hij terug moest linken naar een klant van hen, of de afbeelding moest verwijderen.
Dickinson googelde het advocatenkantoor en vond de officiële website. Het leek allemaal volkomen legitiem; de site had zelfs foto's van 18 advocaten, compleet met hun biografieën en geloofsbrieven. Maar niets ervan was echt. De foto's zijn allemaal gegenereerd door AI en de vermeende kennisgevingen van inbreuk op het auteursrecht zijn verzonden door iemand die backlinks wil afpersen van nietsvermoedende bloggers, als onderdeel van een onethische, zwarte hoed SEO (Zoekmachine Optimalisatie) strategie.
2. Liefdadigheidszwendel
Toen Turkije en Syrië in februari 2023 werden getroffen door verwoestende aardbevingen, betuigden miljoenen mensen over de hele wereld hun solidariteit met de slachtoffers door kleding, voedsel en geld te doneren.
Volgens een rapport van BBC, maakten oplichters hiervan gebruik door AI te gebruiken om realistische afbeeldingen te maken en om donaties te vragen. Een oplichter toonde AI-gegenereerde afbeeldingen van ruïnes op TikTok Live en vroeg zijn kijkers om donaties. Een ander plaatste een door AI gegenereerde afbeelding van een Griekse brandweerman die een gewond kind uit de ruïnes redt, en vroeg zijn volgers om donaties in Bitcoin.
Je kunt je alleen maar voorstellen wat voor soort liefdadigheidszwendel criminelen in de toekomst zullen uitvoeren met behulp van AI, maar het is veilig om aan te nemen dat ze alleen maar beter zullen worden in het misbruiken van deze software.
3. Deepfakes en desinformatie
Overheden, actiegroepen en denktanks waarschuwen al lang voor de gevaren van deepfakes. AI-beeldgeneratoren voegen nog een component toe aan dit probleem, gezien hoe realistisch hun creaties zijn. In het VK is er zelfs een comedyshow genaamd Deep Fake Neighbor Wars, die humor vindt in onwaarschijnlijke combinaties van beroemdheden. Wat zou een desinformatieagent ervan weerhouden een nepbeeld te creëren en dit met behulp van bots op sociale media te promoten?
Dit kan gevolgen hebben in het echte leven, zoals bijna het geval was in maart 2022, toen online een nepvideo circuleerde waarin de Oekraïense president Volodymyr Zelensky de Oekraïners vertelde zich over te geven. NPR. Maar dat is slechts één voorbeeld, want de mogelijkheden zijn bijna eindeloos en er zijn talloze manieren om a een bedreigingsactor kan met behulp van de hulp iemands reputatie schaden, een vals verhaal promoten of nepnieuws verspreiden van AI.
4. Advertentiefraude
TrendMicro onderzoekers ontdekten in 2022 dat oplichters door AI gegenereerde inhoud gebruikten om misleidende advertenties te maken en duistere producten te promoten. Ze creëerden afbeeldingen die suggereerden dat populaire beroemdheden bepaalde producten gebruiken en voerden advertentiecampagnes uit op basis van die afbeeldingen.
In een advertentie voor een "financiële adviesmogelijkheid" stond bijvoorbeeld miljardair Elon Musk, de oprichter en CEO van Tesla. Natuurlijk heeft Musk het product in kwestie nooit onderschreven, maar de door AI gegenereerde beelden lieten het zo lijken, waardoor vermoedelijk nietsvermoedende kijkers werden gelokt om op de advertenties te klikken.
AI en cyberbeveiliging: een complex probleem dat we moeten aanpakken
In de toekomst zullen overheidsregulatoren en cyberbeveiligingsexperts waarschijnlijk moeten samenwerken om de opkomende dreiging van door AI aangedreven cybercriminaliteit aan te pakken. Maar hoe kunnen we AI reguleren en gewone mensen beschermen, zonder innovatie te belemmeren en digitale vrijheden in te perken? Die vraag zal de komende jaren groot blijven.
Totdat er een antwoord is, doe wat je kunt om jezelf te beschermen: controleer zorgvuldig alle informatie die je online ziet, vermijd schaduwrijke websites, gebruik veilige software, houd uw apparaten up-to-date en leer kunstmatige intelligentie te gebruiken voor uw voordeel.