Uw favoriete generatieve AI-chatbot lijkt goedaardig, maar met de juiste expertise kan deze worden gemaakt om gevoelige informatie over u te onthullen.
Belangrijkste leerpunten
- Aanvallen op het gebied van inversie van neurale netwerkmodellen maken gebruik van AI-chatbots om persoonlijke informatie uit digitale voetafdrukken te achterhalen en te reconstrueren.
- Hackers creëren inversiemodellen die de invoer voorspellen op basis van de uitvoer van een neuraal netwerk, waardoor gevoelige gegevens worden onthuld.
- Technieken als differentiële privacy, berekeningen met meerdere partijen en federatief leren kunnen helpen beschermen tegen inversieaanvallen, maar het is een voortdurende strijd. Gebruikers moeten selectieve delers zijn, de software up-to-date houden en voorzichtig zijn met het verstrekken van persoonlijke informatie.
Stel je voor dat je in een restaurant bent en net de lekkerste taart hebt geproefd die je ooit hebt gegeten. Thuis ben je vastbesloten dit culinaire meesterwerk opnieuw te creëren. In plaats van om het recept te vragen, vertrouw je op je smaakpapillen en kennis om het dessert te deconstrueren en je eigen dessert te bereiden.
Wat als iemand dat met uw persoonlijke gegevens zou kunnen doen? Iemand proeft de digitale voetafdruk die u achterlaat en reconstrueert uw privégegevens.
Dat is de essentie van een inversieaanval op een neuraal netwerkmodel, een techniek die een AI-chatbot in een cyberspeurhulpmiddel zou kunnen veranderen.
Inversieaanvallen van neurale netwerkmodellen begrijpen
A neuraal netwerk is het ‘brein’ achter de moderne kunstmatige intelligentie (AI). Ze zijn verantwoordelijk voor de indrukwekkende functionaliteit achter stemherkenning, gehumaniseerde chatbots en generatieve AI.
Neurale netwerken zijn in wezen een reeks algoritmen die zijn ontworpen om patronen te herkennen, te denken en zelfs te leren als een menselijk brein. Ze doen dit op een schaal en snelheid die onze organische mogelijkheden ver te boven gaan.
AI's Boek der Geheimen
Net als ons menselijk brein kunnen neurale netwerken geheimen verbergen. Deze geheimen zijn de gegevens die de gebruikers ervan hebben ingevoerd. Bij een model-inversieaanval gebruikt een hacker de output van een neuraal netwerk (zoals de reacties van een chatbot) om reverse-engineeren de invoer (de informatie die u heeft verstrekt).
Om de aanval uit te voeren, gebruiken hackers hun eigen machine learning-model, een 'inversiemodel'. Dit model is ontworpen als een soort spiegelbeeld, niet getraind op de originele gegevens, maar op de output gegenereerd door de doel.
Het doel van dit inversiemodel is om de input te voorspellen: de originele, vaak gevoelige gegevens die je in de chatbot hebt ingevoerd.
Het inversiemodel creëren
Het creëren van de inversie kan worden gezien als het reconstrueren van een versnipperd document. Maar in plaats van stroken papier aan elkaar te plakken, voegt het het verhaal samen dat wordt verteld aan de antwoorden van het doelmodel.
Het inversiemodel leert de taal van de outputs van het neurale netwerk. Er wordt gezocht naar veelbetekenende signalen die na verloop van tijd de aard van de input onthullen. Met elk nieuw stukje gegevens en elke reactie die het analyseert, voorspelt het beter de informatie die u verstrekt.
Dit proces is een constante cyclus van hypothesen en testen. Met voldoende output kan het inversiemodel nauwkeurig een gedetailleerd profiel van u afleiden, zelfs uit de meest onschuldig ogende gegevens.
Het proces van het inversiemodel is een spel van het verbinden van de punten. Met elk stukje data dat tijdens de interactie wordt gelekt, kan het model een profiel vormen, en met voldoende tijd wordt het profiel dat het vormt onverwacht gedetailleerd.
Uiteindelijk worden inzichten in de activiteiten, voorkeuren en identiteit van de gebruiker onthuld. Inzichten die niet bedoeld waren om openbaar te worden gemaakt of openbaar te worden gemaakt.
Wat maakt het mogelijk?
Binnen neurale netwerken is elke vraag en elk antwoord een datapunt. Bekwame aanvallers gebruiken geavanceerde statistische methoden om deze datapunten te analyseren en correlaties en patronen te zoeken die voor het menselijk begrip niet waarneembaar zijn.
Technieken zoals regressieanalyse (het onderzoeken van de relatie tussen twee variabelen) om de waarden van de input te voorspellen op basis van de output die u ontvangt.
Hackers gebruiken machine learning-algoritmen in hun eigen inversiemodellen om hun voorspellingen te verfijnen. Ze nemen de output van de chatbot en voeren deze in hun algoritmen om ze te trainen in het benaderen van de inverse functie van het beoogde neurale netwerk.
In vereenvoudigde bewoordingen verwijst "inverse functie" naar hoe de hackers de gegevensstroom van uitvoer naar invoer omkeren. Het doel van de aanvaller is om zijn inversiemodellen te trainen om de tegenovergestelde taak van het oorspronkelijke neurale netwerk uit te voeren.
In wezen creëren ze zo een model dat, gegeven de output alleen al, probeert te berekenen wat de input moet zijn geweest.
Hoe inversieaanvallen tegen u kunnen worden gebruikt
Stel je voor dat je een populaire online tool voor gezondheidsbeoordeling gebruikt. U typt uw symptomen, eerdere aandoeningen, voedingsgewoonten en zelfs drugsgebruik in om enig inzicht te krijgen in uw welzijn.
Dat is gevoelige en persoonlijke informatie.
Met een inversieaanval gericht op het AI-systeem dat u gebruikt, kan een hacker mogelijk het algemene advies van de chatbot overnemen en dit gebruiken om uw persoonlijke medische geschiedenis af te leiden. Een reactie van de chatbot kan er bijvoorbeeld ongeveer zo uitzien:
Antinucleaire antilichamen (ANA) kunnen worden gebruikt om de aanwezigheid van auto-immuunziekten zoals Lupus aan te geven.
Het inversiemodel kan voorspellen dat de doelgebruiker vragen stelde die verband hielden met een auto-immuunziekte. Met meer informatie en meer reacties kunnen de hackers concluderen dat het doelwit een ernstige gezondheidstoestand heeft. Plotseling wordt de behulpzame online tool een digitaal kijkgaatje in uw persoonlijke gezondheid.
Wat kan er gedaan worden aan inversieaanvallen?
Kunnen we een fort bouwen rond onze persoonlijke gegevens? Nou, het is ingewikkeld. Ontwikkelaars van neurale netwerken kunnen het moeilijker maken om inversiemodelaanvallen uit te voeren door beveiligingslagen toe te voegen en de werking ervan te verdoezelen. Hier volgen enkele voorbeelden van technieken die worden gebruikt om gebruikers te beschermen:
- Differentiële privacy: Dit zorgt ervoor dat AI-uitvoer voldoende "ruis" heeft om individuele datapunten te maskeren. Het lijkt een beetje op fluisteren in een menigte: je woorden gaan verloren in het collectieve gebabbel van de mensen om je heen.
- Berekening met meerdere partijen: Deze techniek is vergelijkbaar met een team dat aan een vertrouwelijk project werkt door alleen de resultaten van hun individuele taken te delen, en niet de gevoelige details. Het stelt meerdere systemen in staat om gegevens samen te verwerken zonder individuele gebruikersgegevens bloot te stellen aan het netwerk (of aan elkaar).
- Federaal leren: Het omvat het trainen van een AI op meerdere apparaten, terwijl de gegevens van individuele gebruikers lokaal blijven. Het lijkt een beetje op een koor dat samen zingt; je kunt elke stem horen, maar geen enkele stem kan geïsoleerd of geïdentificeerd worden.
Hoewel deze oplossingen grotendeels effectief zijn, is bescherming tegen inversieaanvallen een kat-en-muisspel. Naarmate de verdediging verbetert, verbeteren ook de technieken om deze te omzeilen. De verantwoordelijkheid ligt dus bij de bedrijven en ontwikkelaars die onze gegevens verzamelen en opslaan, maar er zijn manieren waarop u uzelf kunt beschermen.
Hoe u uzelf kunt beschermen tegen inversieaanvallen
Relatief gezien staan neurale netwerken en AI-technologieën nog in de kinderschoenen. Totdat de systemen waterdicht zijn, is het de verantwoordelijkheid van de gebruiker om de eerste verdedigingslinie te vormen het beschermen van uw gegevens.
Hier volgen enkele tips om het risico te verkleinen dat u slachtoffer wordt van een inversieaanval:
- Wees een selectieve deler: Behandel uw persoonlijke gegevens als een geheim familierecept. Wees selectief met wie u uw gegevens deelt, vooral wanneer u online formulieren invult en met chatbots communiceert. Stel de noodzaak in vraag van elk stukje gegevens dat van u wordt gevraagd. Als u de informatie niet met een vreemde wilt delen, deel deze dan ook niet met een chatbot.
- Houd software bijgewerkt: Updates voor front-endsoftware, browsers en zelfs uw besturingssysteem zijn dat wel ontworpen om u veilig te houden. Terwijl ontwikkelaars druk bezig zijn met het beschermen van de neurale netwerken, kunt u ook het risico op gegevensonderschepping verkleinen door regelmatig patches en updates toe te passen.
- Houd persoonlijke informatie persoonlijk: Wanneer een applicatie of chatbot om persoonlijke gegevens vraagt, pauzeer dan en overweeg de intentie. Als de gevraagde informatie irrelevant lijkt voor de geleverde dienst, is dat waarschijnlijk het geval.
Je zou geen gevoelige informatie zoals gezondheid, financiën of identiteit aan een nieuwe kennis verstrekken, alleen maar omdat hij zei dat hij die nodig had. Bepaal op dezelfde manier welke informatie echt nodig is om een applicatie te laten functioneren en meld u af voor het delen van meer informatie.
Bescherming van onze persoonlijke gegevens in het tijdperk van AI
Onze persoonlijke informatie is ons meest waardevolle bezit. Het bewaken ervan vereist waakzaamheid, zowel bij de manier waarop we informatie delen als bij het ontwikkelen van beveiligingsmaatregelen voor de diensten die we gebruiken.
Bewustwording van deze bedreigingen en het nemen van stappen zoals beschreven in dit artikel dragen bij aan een sterkere verdediging tegen deze schijnbaar onzichtbare aanvalsvectoren.
Laten we ons inzetten voor een toekomst waarin onze privé-informatie precies dat blijft: privé.