Nepnieuws, deepfakes, misleidende beelden: het kan allemaal gecreëerd worden met behulp van kunstmatige intelligentie. Dit is hoe AI betekent dat verkeerde informatie zich verspreidt.

Artificial Intelligence (AI) speelt inmiddels een rol in verschillende aspecten van ons leven. Met name generatieve AI-tools zoals ChatGPT en andere zijn aanzienlijk gegroeid. Dit betekent dat er in de toekomst een overvloed aan door AI gegenereerde content zal zijn.

Generatieve AI introduceert echter ook het risico van door AI gegenereerde desinformatie. De functies ervan maken het voor opportunistische individuen gemakkelijker om valse informatie te verspreiden. Laten we dus eens kijken hoe generatieve AI wordt gebruikt voor desinformatie.

Potentiële risico's van generatieve AI om desinformatie te verspreiden

Generatieve AI vormt veel bedreigingen voor mensen, zoals het wegnemen van banen, meer toezicht en cyberaanvallen. En de beveiligingsproblemen met AI zullen nog erger worden. Maar er is nog een andere zorg: mensen kunnen het gebruiken om leugens te verspreiden. Misleidende personen kunnen generatieve AI gebruiken om nepnieuws te delen via visuele, auditieve of tekstuele inhoud.

instagram viewer

Vals nieuws kan worden onderverdeeld in drie soorten:

  1. Desinformatie: Onbedoelde onjuiste of onjuiste informatie.
  2. desinformatie: Opzettelijk gebruik van manipulatieve of misleidende informatie.
  3. Verkeerde informatie: Misleidend nieuws of een overdreven versie van de waarheid.

Wanneer gecombineerd met deepfake-technologiekunnen generatieve AI-tools inhoud maken die er echt uitziet en klinkt, zoals foto's, video's, audioclips en documenten. Er zijn veel mogelijkheden voor het maken van nep-inhoud, wetende dus hoe je jezelf kunt beschermen tegen deepfake video's is belangrijk.

Nepnieuwsverspreiders kunnen inhoud in grote hoeveelheden genereren, waardoor het gemakkelijker wordt om via sociale media onder de massa te verspreiden. Gerichte desinformatie kan worden gebruikt om politieke campagnes te beïnvloeden, met mogelijk gevolgen voor verkiezingen. Bovendien roept het gebruik van AI-tools voor het genereren van tekst en afbeeldingen zorgen op met betrekking tot auteursrechtwetten, zoals gerapporteerd door de congresonderzoeksdienst: het bepalen van het eigendom van inhoud die door deze tools wordt gegenereerd, wordt een uitdaging.

Hoe gaat de wet de verspreiding van nepnieuws via generatieve AI aanpakken? Wie wordt verantwoordelijk gehouden voor het verspreiden van valse informatie: de gebruikers, ontwikkelaars of de tools zelf?

4 manieren waarop generatieve AI kan worden gebruikt om desinformatie te verspreiden

Om online veilig te blijven, moet iedereen de risico's begrijpen van generatieve AI bij het verspreiden van desinformatie, aangezien deze in veel verschillende vormen voorkomt. Hier zijn een paar manieren waarop het kan worden gebruikt om mensen te manipuleren.

1. Nep-inhoud online genereren

Het creëren van nep-inhoud met behulp van generatieve AI is een veelgebruikte strategie van degenen die nepnieuws verspreiden. Ze gebruiken populaire generatieve AI-tools zoals ChatGPT, DALL-E, Bard, Midjourney en andere om verschillende soorten inhoud te produceren. Bijvoorbeeld, ChatGPT kan makers van inhoud op veel manieren helpen. Maar het kan ook berichten op sociale media of nieuwsartikelen genereren die mensen kunnen misleiden.

Om dit te bewijzen, vroeg ik ChatGPT om een ​​verzonnen artikel te schrijven over de arrestatie van de Amerikaanse president Joe Biden op beschuldiging van corruptie. We hebben ook gevraagd om verklaringen van relevante autoriteiten op te nemen om het geloofwaardiger te laten lijken.

Hier is het fictieve artikel dat ChatGPT bedacht:

Verrassend genoeg was de output zeer overtuigend. Het bevatte de namen en verklaringen van gezaghebbende figuren om het artikel overtuigender te maken. Dit laat zien hoe iedereen dergelijke tools kan gebruiken om nepnieuws te genereren en dit gemakkelijk online te verspreiden.

2. Chatbots gebruiken om de mening van mensen te beïnvloeden

Chatbots die afhankelijk zijn van generatieve AI-modellen kunnen verschillende tactieken gebruiken om de mening van mensen te beïnvloeden, waaronder:

  • Emotionele manipulatie: AI kan modellen voor emotionele intelligentie gebruiken om emotionele triggers en vooroordelen te benutten om uw perspectieven vorm te geven.
  • Echokamers en voorkeur voor bevestiging: Chatbots kunnen bestaande overtuigingen versterken door echokamers te creëren die uw vooroordelen valideren. Als u al een bepaald standpunt heeft, kan AI dit versterken door informatie te presenteren die aansluit bij uw mening.
  • Sociaal bewijs en bandwagon-effect: AI kan het publieke sentiment manipuleren door sociaal bewijs te genereren. Dit kan aanzienlijke gevolgen hebben, omdat het ertoe kan leiden dat individuen zich conformeren aan populaire meningen of de massa volgen.
  • Gerichte personalisatie: Chatbots hebben toegang tot enorme hoeveelheden gegevens die ze kunnen verzamelen om gepersonaliseerde profielen te maken. Hierdoor kunnen ze inhoud aanpassen op basis van uw voorkeuren. Door gerichte personalisatie kan AI individuen overtuigen of hun mening verder versterken.

Deze voorbeelden illustreren allemaal hoe chatbots kunnen worden gebruikt om mensen te misleiden.

3. AI DeepFakes maken

Iemand kan deepfakes gebruiken om valse video's te maken van een persoon die dingen zegt of doet die hij nooit heeft gedaan. Ze kunnen dergelijke tools gebruiken voor social engineering of het voeren van lastercampagnes tegen anderen. Bovendien kunnen deepfakes in de huidige meme-cultuur dienen als instrumenten voor cyberpesten op sociale media.

Bovendien kunnen politieke tegenstanders deepfake audio en video's gebruiken om de reputatie van hun tegenstanders te schaden en het publieke sentiment te manipuleren met behulp van AI. Dus Door AI gegenereerde deepfakes vormen in de toekomst tal van bedreigingen. Volgens een 2023 Dat meldt Reuters, kan de opkomst van AI-technologie gevolgen hebben voor de Amerikaanse verkiezingen van 2024. Het rapport benadrukt de toegankelijkheid van tools zoals Midjourney en DALL-E die gemakkelijk verzonnen inhoud kunnen creëren en de collectieve meningen van mensen kunnen beïnvloeden.

Het is dan cruciaal om te kunnen video's identificeren die zijn gemaakt door deepfakes en onderscheid ze van originelen.

4. Menselijke stemmen klonen

Generatieve AI maakt samen met deepfake-technologie de manipulatie van iemands spraak mogelijk. Deepfake-technologie ontwikkelt zich snel en biedt een verscheidenheid aan tools die ieders stem kunnen nabootsen. Hierdoor kunnen kwaadwillende personen zich voordoen als anderen en nietsvermoedende personen misleiden. Een voorbeeld hiervan is het gebruik van deepfake muziek.

Je bent misschien tools tegengekomen zoals Lijkt op AI, Speechify, FakeYou, en anderen die de stemmen van beroemdheden kunnen nabootsen. Hoewel deze AI-audiotools vermakelijk kunnen zijn, vormen ze aanzienlijke risico's. Oplichters kunnen technieken voor het klonen van stemmen gebruiken voor verschillende frauduleuze plannen, met financiële verliezen tot gevolg.

Oplichters kunnen deepfake-stemmen gebruiken om zich voor te doen als uw dierbaren en u te bellen, alsof ze in nood verkeren. Met synthetische audio die overtuigend klinkt, kunnen ze u aansporen om dringend geld te sturen, waardoor u het slachtoffer wordt van hun oplichting. Een incident gemeld door De Washington Post in maart 2023 illustreert dit probleem: oplichters gebruikten deepfake-stemmen om mensen ervan te overtuigen dat hun kleinzonen in de gevangenis zaten en geld nodig hadden...

Hoe door AI verspreide desinformatie te herkennen

Het tegengaan van de verspreiding van door AI gefaciliteerde desinformatie is een urgente kwestie in de wereld van vandaag. Dus hoe kun je valse informatie herkennen die door AI is gemaakt?

  1. Benader online content met scepsis. Als je iets tegenkomt dat manipulatief of ongelooflijk lijkt, verifieer het dan door middel van kruiscontrole.
  2. Voordat u een nieuwsartikel of bericht op sociale media vertrouwt, moet u ervoor zorgen dat het afkomstig is van een betrouwbare bron.
  3. Pas op voor indicatoren van deepfakes, zoals onnatuurlijk knipperen of gezichtsbewegingen, slechte geluidskwaliteit, vervormde of wazige beelden en gebrek aan oprechte emotie in spraak.
  4. Gebruik websites voor feitencontrole om de juistheid van informatie te verifiëren.

Door deze stappen te volgen, kunt u uzelf identificeren en beschermen tegen door AI aangestuurde desinformatie.

Pas op voor desinformatie verspreid door AI

Generatieve software heeft een cruciale rol gespeeld bij het bevorderen van AI. Toch kunnen ze ook een belangrijke bron van desinformatie in de samenleving zijn. Met deze betaalbare tools kan iedereen verschillende soorten inhoud maken met behulp van geavanceerde AI-modellen; hun vermogen om inhoud in grote hoeveelheden te genereren en deepfakes op te nemen, maakt ze zelfs nog gevaarlijker.

Het is belangrijk dat u zich bewust bent van de uitdagingen van desinformatie in het AI-tijdperk. Begrijpen hoe AI kan worden gebruikt om nepnieuws te verspreiden, is de eerste stap om jezelf te beschermen tegen verkeerde informatie.