Ben je lid geworden van een dating-app? Of zoek je de liefde elders? Oplichters kunnen misbruik van u maken met behulp van kunstmatige intelligentie. Hier is hoe.

Online dating-apps zijn altijd een broeinest geweest voor oplichting op het gebied van romantiek. Cybercriminelen doen er alles aan om geld, persoonlijke informatie en expliciete foto's te stelen. Je vindt hun nepprofielen overal.

En met de wildgroei aan generatieve AI-tools, worden romantiekzwendel nog gemakkelijker uit te voeren. Ze verlagen de toetredingsdrempels. Hier zijn zeven veelvoorkomende manieren waarop romantische oplichters AI uitbuiten, plus hoe u uzelf kunt beschermen.

1. Massaal door AI gegenereerde e-mails verzenden

Spam-e-mails worden steeds moeilijker te filteren. Romantische oplichters misbruiken generatieve AI-tools om binnen enkele uren misleidende, overtuigende berichten te schrijven en meerdere accounts aan te maken. Ze naderen honderden bijna onmiddellijk.

U ziet door AI gegenereerde spamberichten op verschillende platforms, niet alleen in uw e-mailinbox. Neem de

instagram viewer
oplichterij met verkeerd nummer als voorbeeld. Oplichters sturen massaal schattige selfies of suggestieve foto's. En als iemand reageert, spelen ze het af als een onschuldige fout.

Zodra iemand aan de lijn is, wordt deze doorgeschakeld naar een ander berichtenplatform (bijvoorbeeld WhatsApp of Telegram). De meeste regelingen lopen weken. Oplichters bouwen geleidelijk aan vertrouwen op voordat ze doelen vragen om mee te doen aan investeringsprogramma's, hun rekeningen te betalen of reizen te betalen.

Blijf veilig door spamberichten volledig te vermijden. Beperk je omgang met vreemden, ongeacht hoe ze eruit zien of wat ze te bieden hebben.

2. Snel reageren op meer gesprekken

Bots verspreiden zich als een lopend vuurtje online. Imperva meldt dat slechte bots in 2022 30 procent van het geautomatiseerde webverkeer uitmaakten. Je vindt er een binnen enkele seconden nadat je door Tinder-matches hebt geveegd.

Een van de redenen voor deze plotselinge piek in bots is de wildgroei aan generatieve AI-tools. Ze produceren bots in bulk. Voer gewoon de juiste prompt in en uw tool presenteert een compleet, efficiënt codefragment voor het genereren van bots.

Weet wanneer je met een bot praat. Hoewel AI een natuurlijke, gemoedelijke toon gebruikt, klinkt de dialoog nog steeds eentonig en onhandig. Chatbots volgen immers slechts patronen. Het kan soortgelijke antwoorden op verschillende vragen, verklaringen en verzoeken opleveren.

3. Meerdere identiteiten creëren op basis van gestolen afbeeldingen

2 afbeeldingen

AI-kunstgeneratoren afbeeldingen manipuleren. Neem de onderstaande demonstratie als voorbeeld. We gaven Playground AI een openhartige foto van een beroemde zanger - het platform produceerde binnen enkele seconden drie variaties.

Ja, ze hebben gebreken. Houd er echter rekening mee dat we een gratis tool hebben gebruikt met een verouderd tekst-naar-afbeelding-model. Oplichters produceren realistischere uitvoer met geavanceerde iteraties. Ze kunnen snel honderden aangepaste, gemanipuleerde foto's maken van slechts enkele voorbeelden.

Helaas zijn AI-beelden moeilijk te detecteren. Je kunt het beste doen om a omgekeerde afbeelding zoeken en doorzoek relevante resultaten.

4. Het bouwen van bedrieglijk authentiek ogende profielen

Bots benaderen slachtoffers massaal. Dus romantische oplichters die de voorkeur geven aan een gericht schema, creëren slechts een of twee authentiek ogende profielen. Ze zullen AI gebruiken om overtuigend over te komen. Generatieve AI-tools kunnen authentiek ogende beschrijvingen samenstellen die natuurlijk en echt klinken; slechte grammatica zal niet langer een probleem zijn.

Hier is ChatGPT die enkele hobby's voorstelt om op een datingprofiel te vermelden.

En hier is ChatGPT die een hele biografie schrijft voor je datingprofiel.

Aangezien dit proces zoveel tijd kost, vereist het ook een grotere uitbetaling. Oplichters hebben dus de neiging om meer te vragen. Zodra ze uw vertrouwen hebben gewonnen, zullen ze om hulp vragen bij verschillende 'problemen', zoals ziekenhuisrekeningen, afbetalingen van leningen of collegegeld. Sommigen zullen zelfs beweren dat ze je bezoeken als je hun kaartje draagt.

Deze cybercriminelen zijn bedreven in het manipuleren van slachtoffers. De beste tactiek is om vanaf het begin geen contact met ze te hebben. Laat ze niets zeggen. Anders zou je geleidelijk kunnen vallen voor hun bedrog en gaslichtmethoden.

5. Exploitatie van deepfake-technologie voor seksuele afpersing

AI geavanceerde deepfake-tools in een alarmerend hoog tempo. Nieuwe technologieën verminderen kleine onvolkomenheden in deepfake video's, zoals onnatuurlijk knipperen, ongelijkmatige huidtinten, vervormde audio en inconsistente elementen.

Helaas dienen deze fouten ook als rode vlaggen. Door gebruikers in staat te stellen ze te verwijderen, wordt het moeilijker om onderscheid te maken tussen legitieme en deepfake video's.

Bloomberg laat zien hoe iedereen met technische basiskennis zijn stem en beeld kan manipuleren om anderen te repliceren.

Naast het maken van realistische datingprofielen, maken oplichters gebruik van deepfake tools voor seksuele afpersing. Ze combineren openbare foto's en video's met pornografie. Nadat ze illegale inhoud hebben gemanipuleerd, chanteren ze de slachtoffers en eisen ze geld, persoonlijke gegevens of seksuele gunsten.

Geef niet toe als je het doelwit wordt. Bel 1-800-CALL-FBI, stuur een FBI-tip of bezoek uw plaatselijke FBI-veldkantoor als u zich in deze situatie bevindt.

6. Integratie van AI-modellen met brute-force hackingsystemen

Hoewel open-source taalmodellen sommige AI-ontwikkelingen ondersteunen, zijn ze ook vatbaar voor uitbuiting. Criminelen maken overal misbruik van. Je kunt niet verwachten dat ze het algoritme achter zeer geavanceerde taalmodellen negeren Lama En Assistent openen.

Bij romantiekzwendel integreren hackers vaak taalmodellen met het kraken van wachtwoorden. Dankzij de NLP- en machine learning-mogelijkheden van AI kunnen hacksystemen met brute kracht snel en efficiënt wachtwoordcombinaties maken. Ze zouden zelfs weloverwogen voorspellingen kunnen doen als ze voldoende context kregen.

Je hebt geen controle over wat oplichters doen. Om uw accounts te beschermen, moet u ervoor zorgen dat u creëer een echt veilig wachtwoord bestaande uit speciale tekens, alfanumerieke combinaties en 14+ tekens.

7. Echte mensen imiteren met stemklonen

AI-spraakgeneratoren zijn begonnen als cool speelgoed. Gebruikers zouden voorbeeldtracks van hun favoriete artiesten omzetten in covers of zelfs nieuwe nummers. Neem Hart op Mijn Mouw als voorbeeld. TikTok-gebruiker Ghostwriter977 maakte een superrealistisch nummer dat Drake en The Weeknd imiteerde, hoewel geen van beide artiesten het zong.

Ondanks de grappen en memes eromheen, spraaksynthese is erg gevaarlijk. Het stelt criminelen in staat geavanceerde aanvallen uit te voeren. Romantiekoplichters maken bijvoorbeeld gebruik van tools voor het klonen van stemmen om doelen te bellen en misleidende opnames achter te laten. Slachtoffers die niet bekend zijn met spraaksynthese zullen niets ongewoons opmerken.

Bescherm uzelf tegen oplichting door AI-stemklonen door te bestuderen hoe gesynthetiseerde uitvoer klinkt. Ontdek deze generatoren. Ze maken alleen bijna identieke klonen - je zult nog steeds enkele onvolkomenheden en inconsistenties ontdekken.

Bescherm uzelf tegen AI-datingoplichters

Naarmate generatieve AI-tools vorderen, zullen romantische oplichters nieuwe manieren ontwikkelen om ze te exploiteren. Ontwikkelaars kunnen deze criminelen niet stoppen. Neem een ​​proactieve rol in de strijd tegen cybercriminaliteit in plaats van erop te vertrouwen dat beveiligingsbeperkingen werken. Je kunt nog steeds dating-apps gebruiken. Maar zorg ervoor dat u de persoon aan de andere kant van het scherm kent voordat u met hem in gesprek gaat.

En kijk uit voor andere AI-ondersteunde schema's. Naast romantiekzwendel gebruiken criminelen AI voor identiteitsdiefstal, cyberafpersing, chantage, ransomware-aanvallen en hacken met brute kracht. Leer ook deze bedreigingen te bestrijden.