FraudGPT is een taalmodel dat is afgestemd om criminelen te helpen bij frauduleuze activiteiten. Leer wat het is om jezelf te beschermen tegen mogelijke bedreigingen.
De opkomst van kunstmatige intelligentie (AI) is een tweesnijdend zwaard. Zoals elke transformatieve technologie biedt AI een enorm potentieel, maar ook enorme risico's. Ondanks de nadrukkelijke drang om AI te reguleren, lijken bedreigingsactoren de concurrentie voor te zijn.
Een nieuwe tool in de stijl van ChatGPT, FraudGPT, wint aan populariteit onder cybercriminelen, waardoor ze een groot deel van hun fraudeoperaties kunnen automatiseren en beter kunnen uitvoeren. Iedereen kan slachtoffer worden, dus het is belangrijk om op de hoogte te blijven. Hier is alles wat we tot nu toe weten over FraudGPT.
Wat is FraudeGPT?
FraudGPT is een AI-tool die wordt aangedreven door een groot taalmodel dat speciaal is afgestemd om cybercriminelen te helpen bij het plegen van cybercriminaliteit. Met de op abonnementen gebaseerde AI-tool kunnen bedreigingsactoren hun criminele activiteiten, zoals kaartverkoop, phishing en het maken van malware, vergemakkelijken.
Hoewel details over de tool zeer beperkt blijven, hebben onderzoekers van Netenrich, een beveiligingsonderzoeksbureau, verschillende advertenties ontdekt op het dark web die reclame maken voor de tool. Volgens de onderzoeksrapport van Netenrich, de abonnementskosten variëren van $ 200 per maand tot $ 1.700 per jaar.
Om de tool beter in beeld te brengen, kunt u FraudGPT beschouwen als ChatGPT, maar dan voor fraude. Maar hoe werkt FraudGPT precies en hoe gebruiken cybercriminelen het?
Hoe werkt FraudGPT?
In de kern verschilt FraudGPT niet significant van welke tool dan ook die wordt aangedreven door een groot taalmodel. Met andere woorden, de tool zelf is een interactieve interface voor criminelen om toegang te krijgen tot een speciaal soort taalmodel dat is afgestemd op het plegen van cybercriminaliteit.
Snap je het nog steeds niet? Hier is een globaal idee van waar we het over hebben. In de begindagen van de lancering van ChatGPT kon de AI-chatbot voor vrijwel alles worden gebruikt, inclusief het helpen van cybercriminelen bij het maken van malware. Dit was mogelijk omdat het onderliggende taalmodel van ChatGPT was getraind op een dataset die waarschijnlijk voorbeelden bevatte van een breed scala aan gegevens, waaronder gegevens die een criminele onderneming zouden kunnen helpen.
Grote taalmodellen krijgen meestal alles van de goede dingen, zoals wetenschappelijke theorieën, gezondheidsinformatie en politiek, tot de minder goede, zoals voorbeelden van malwarecode, berichten van kaart- en phishingcampagnes en andere criminele materialen. Bij het omgaan met het soort datasets dat nodig is om taalmodellen te trainen, zoals het soort dat ChatGPT aanstuurt, is het bijna onvermijdelijk dat het model voorbeelden van ongewenste materialen bevat.
Ondanks typisch nauwgezette inspanningen om de ongewenste materialen in de dataset te verwijderen, glippen sommige er doorheen, en ze zijn meestal nog steeds voldoende om het model de mogelijkheid te geven materialen te genereren om te vergemakkelijken cybercriminaliteit. Daarom met rechts snelle techniek, kun je tools zoals ChatGPT, Google Bard en Bing AI krijgen om je te helpen bij het schrijven van scam-e-mails of computermalware.
Als tools zoals ChatGPT cybercriminelen kunnen helpen bij het plegen van misdaden ondanks alle inspanningen om deze AI-chatbots veilig te maken, denk dan eens aan de kracht die een tool als FraudGPT zou kunnen bieden, aangezien het specifiek was afgestemd op kwaadaardig materiaal om het geschikt te maken voor cybercriminaliteit. Het is alsof de boze tweelingbroer van ChatGPT steroïden gebruikt.
Dus om de tool te gebruiken, kunnen criminelen de chatbot gewoon vragen zoals ze zouden doen met ChatGPT. Ze kunnen het bijvoorbeeld vragen om een phishing-e-mail te schrijven voor Jane Doe, die bij bedrijf ABC werkt, of misschien om malware te schrijven met C++ om alle pdf-bestanden van een Windows 10-computer te stelen. Criminelen zouden in feite gewoon kwaadaardige mechanisatie bedenken en de chatbot het zware werk laten doen.
Hoe kunt u uzelf beschermen tegen fraudeGPT?
Ondanks dat het een nieuw soort tool is, is de dreiging van FraudGPT niet fundamenteel anders. Je zou kunnen zeggen dat het meer automatisering en efficiëntie introduceert in reeds gevestigde methoden voor het uitvoeren van cybercriminaliteit.
Criminelen die de tool gebruiken, zouden, althans in theorie, overtuigendere phishing-e-mails kunnen schrijven, beter plannen oplichting en effectievere malware creëren, maar ze vertrouwen meestal nog steeds op de gevestigde manieren om hun snode uit te voeren plannen. Als gevolg hiervan zijn de gevestigde manieren om uzelf te beschermen nog steeds van toepassing:
- Wees op uw hoede voor ongevraagde berichten waarin om informatie wordt gevraagd of waarin u wordt gevraagd op links te klikken. Verstrek geen informatie en klik niet op links in deze berichten, tenzij u de bron verifieert.
- Neem rechtstreeks contact op met bedrijven via een onafhankelijk, geverifieerd nummer om de legitimiteit te controleren. Gebruik geen contactgegevens in verdachte berichten.
- Gebruik sterke, unieke wachtwoorden die moeilijk te kraken zijn en omarm tweefactorauthenticatie indien beschikbaar voor alle accounts. Deel nooit wachtwoorden of codes die naar u zijn verzonden.
- Controleer regelmatig rekeningafschriften op verdachte activiteiten.
- Houd de software up-to-date en gebruik antivirus- of antimalwaretools.
- Versnipper documenten die persoonlijk identificeerbare of financiële informatie bevatten wanneer ze niet langer nodig zijn.
Lees onze gids op voor meer informatie over hoe u uzelf kunt beschermen hoe je jezelf kunt beschermen in het tijdperk van AI.
Blijf op de hoogte om uzelf te beschermen
De opkomst van tools zoals FraudGPT herinnert ons eraan dat ondanks al het goede dat AI voor ons kan doen, het nog steeds een zeer krachtig hulpmiddel is in de handen van bedreigingsactoren.
Terwijl regeringen en grote AI-bedrijven een hectische race voeren om betere manieren vast te stellen om AI te reguleren, is dat zo belangrijk om bewust te zijn van de dreiging die AI momenteel vormt en de nodige voorzorgsmaatregelen te nemen om deze te beschermen jezelf.