Kunstmatige intelligentie kan klinken als de president. Of het klinkt als jij of ik. Dus welk cyberbeveiligingsrisico vormt de AI-software voor het klonen van stemmen?

Kunstmatige intelligentie (AI) is een krachtige technologie die belooft ons leven te transformeren. Nog nooit was dat zo duidelijk als nu, wanneer krachtige tools beschikbaar zijn voor iedereen met een internetverbinding.

Dit omvat AI-spraakgeneratoren, geavanceerde software die menselijke spraak zo goed kan nabootsen dat het onmogelijk kan zijn om onderscheid te maken tussen de twee. Wat betekent dit voor cybersecurity?

Hoe werken AI-spraakgeneratoren?

Spraaksynthese, het proces waarbij menselijke spraak kunstmatig wordt geproduceerd, bestaat al tientallen jaren. En zoals alle technologie heeft het door de jaren heen ingrijpende veranderingen ondergaan.

Degenen die Windows 2000 en XP hebben gebruikt, herinneren zich misschien Microsoft Sam, de standaard mannelijke tekst-naar-spraakstem van het besturingssysteem. Microsoft Sam klaarde de klus, maar de geluiden die het produceerde waren robotachtig, stijf en onnatuurlijk. De tools die we vandaag tot onze beschikking hebben, zijn aanzienlijk geavanceerder, grotendeels dankzij deep learning.

instagram viewer

Diep leren is een methode van machinaal leren dat is gebaseerd op kunstmatige neurale netwerken. Vanwege deze neurale netwerken is moderne AI in staat om gegevens te verwerken, bijna zoals de neuronen in het menselijk brein informatie interpreteren. Dat wil zeggen, hoe meer mensachtige AI wordt, hoe beter het menselijk gedrag kan nabootsen.

Dat is in een notendop hoe moderne AI-spraakgeneratoren werken. Hoe meer spraakgegevens ze worden blootgesteld, hoe bedrevener ze worden in het nabootsen van menselijke spraak. Vanwege relatief recente ontwikkelingen in deze technologie, kan geavanceerde tekst-naar-spraaksoftware in wezen de geluiden repliceren die worden ingevoerd.

Hoe Threat Actors AI-spraakgeneratoren gebruiken

Het is niet verwonderlijk dat deze technologie wordt misbruikt door bedreigingsactoren. En niet alleen door cybercriminelen in de typische zin van het woord, maar ook door desinformatieagenten, oplichters, black hat-marketeers en trollen.

Op het moment dat ElevenLabs in januari 2023 een bètaversie van zijn tekst-naar-spraaksoftware uitbracht, begonnen extreemrechtse trollen op het prikbord 4chan deze te misbruiken. Met behulp van de geavanceerde AI reproduceerden ze de stemmen van individuen als David Attenborough en Emma Watson, waardoor het leek alsof de beroemdheden gemene, haatdragende tirades voerden.

Als Zonde ElevenLabs gaf destijds toe dat mensen misbruik maakten van de software, met name het klonen van stemmen. Met deze functie kan iedereen de stem van iemand anders "klonen"; het enige wat u hoeft te doen is een opname van één minuut uploaden en de AI de rest laten doen. Vermoedelijk, hoe langer een opname is, hoe beter de output.

In maart 2023 trok een virale TikTok-video de aandacht van De New York Times. In de video waren de beroemde podcaster Joe Rogan en Dr. Andrew Huberman, een frequente gast van The Joe Rogan Experience, te horen die een 'libido-stimulerend' cafeïnedrankje bespraken. Door de video leek het alsof zowel Rogan als Huberman het product ondubbelzinnig onderschreven. In werkelijkheid werden hun stemmen gekloond met behulp van AI.

Rond dezelfde tijd stortte de in Santa Clara, Californië gevestigde Silicon Valley Bank in als gevolg van fouten in risicobeheer en andere problemen, en werd overgenomen door de deelstaatregering. Dit was het grootste bankfaillissement in de Verenigde Staten sinds de financiële crisis van 2008 en veroorzaakte dus schokgolven over de wereldmarkten.

Wat bijdroeg aan de paniek was een nep-audio-opname van de Amerikaanse president Joe Biden. In de opname hoorde men Biden blijkbaar waarschuwen voor een op handen zijnde "ineenstorting" en zijn regering opdragen "de volledige kracht van de media te gebruiken om het publiek te kalmeren". Factcheckers houden van Politifact waren er snel bij om de clip te ontkrachten, maar het is waarschijnlijk dat miljoenen het op dat moment hadden gehoord.

Als AI-spraakgeneratoren kunnen worden gebruikt om beroemdheden na te doen, kunnen ze ook worden gebruikt om zich voor te doen als gewone mensen, en dat is precies wat cybercriminelen hebben gedaan. Volgens ZDNet, vallen duizenden Amerikanen voor oplichting die bekend staat als vishing of spraakphishing elk jaar. Een ouder echtpaar haalde in 2023 de landelijke krantenkoppen toen ze een telefoontje kregen van hun 'kleinzoon', die beweerde in de gevangenis te zitten en om geld vroeg.

Als je ooit een YouTube-video hebt geüpload (of in een video bent verschenen), hebt deelgenomen aan een groot groepsgesprek met mensen die je niet kent weet, of je stem in een bepaalde hoedanigheid naar het internet hebt geüpload, zouden jij of je dierbaren in theorie in gevaar kunnen zijn. Wat zou een oplichter ervan weerhouden om uw stem te uploaden naar een AI-generator, deze te klonen en contact op te nemen met uw familie?

AI-spraakgeneratoren verstoren het cyberbeveiligingslandschap

Er is geen cyberbeveiligingsexpert voor nodig om te beseffen hoe gevaarlijk AI in verkeerde handen kan zijn. En hoewel het waar is dat hetzelfde kan worden gezegd voor alle technologie, vormt AI om verschillende redenen een unieke bedreiging.

Ten eerste is het relatief nieuw, wat betekent dat we niet echt weten wat we ervan kunnen verwachten. Met moderne AI-tools kunnen cybercriminelen hun activiteiten op een ongekende manier opschalen en automatiseren, terwijl ze profiteren van de relatieve onwetendheid van het publiek met betrekking tot deze kwestie. Ook stelt generatieve AI dreigingsactoren met weinig kennis en vaardigheden in staat om dit te doen schadelijke code maken, zwendelsites bouwen, spam verspreiden, phishing-e-mails schrijven, realistische afbeeldingen genereren, en eindeloze uren valse audio- en video-inhoud produceren.

Cruciaal is dat dit twee kanten op werkt: AI wordt ook gebruikt om systemen te beschermen, en dat zal waarschijnlijk nog tientallen jaren zo blijven. Het zou niet onredelijk zijn om aan te nemen dat wat ons te wachten staat een soort AI-wapenwedloop is tussen cybercriminelen en de cyberbeveiligingsindustrie, aangezien de defensieve en offensieve capaciteiten van deze tools inherent zijn gelijkwaardig.

Voor de gemiddelde persoon vraagt ​​de komst van wijdverbreide generatieve AI om een ​​radicaal heroverweging van beveiligingspraktijken. Hoe opwindend en nuttig AI ook is, het kan op zijn minst de grens tussen wat echt is en wat vervagen is dat niet, en in het slechtste geval verergeren ze bestaande beveiligingsproblemen en creëren ze nieuwe manoeuvreerruimte voor bedreigingsactoren in.

Stemgeneratoren tonen het destructieve potentieel van AI

Zodra ChatGPT op de markt kwam, begonnen de gesprekken over het reguleren van AI. Elke poging om deze technologie aan banden te leggen zou waarschijnlijk internationale samenwerking vereisen in een mate die we in decennia niet hebben gezien, wat het onwaarschijnlijk maakt.

De geest is uit de fles en het beste wat we kunnen doen is eraan wennen. Dat, en ik hoop dat de cybersecurity-sector zich dienovereenkomstig aanpast.