AI-chatbots kunnen hallucineren en vol vertrouwen onjuiste antwoorden geven, waar hackers misbruik van kunnen maken. Hier is hoe hackers hallucinaties bewapenen.
AI's met grote taalmodellen zijn onvolmaakt en genereren soms onjuiste informatie. Deze gevallen, hallucinaties genaamd, kunnen een cyberdreiging vormen voor bedrijven en individuele AI-enthousiastelingen.
Gelukkig kun je de verdediging tegen AI-hallucinaties vergroten met een verhoogd bewustzijn en gezond tweede gissen.
Waarom hallucineert AI?
Er is geen consensus over waarom AI-modellen hallucineren, hoewel er een paar waarschijnlijke gissingen zijn.
AI wordt getraind op basis van enorme datasets, die vaak gebreken bevatten zoals hiaten in het denken, verschillen in opvallendheid van de inhoud of schadelijke vooroordelen. Elke training van deze onvolledige of ontoereikende datasets kan de oorzaak zijn van hallucinaties, zelfs als latere iteraties van de dataset door datawetenschappers worden samengesteld.
Na verloop van tijd kunnen datawetenschappers informatie nauwkeuriger maken en aanvullende kennis invoeren om vacatures in te vullen en het hallucinatiepotentieel te minimaliseren. Overseers kunnen gegevens verkeerd labelen. De programmeercode kan fouten bevatten. Het oplossen van deze items is essentieel omdat AI-modellen vooruitgaan op basis van machine learning-algoritmen.
Deze algoritmen gebruiken gegevens om beslissingen te nemen. Een uitbreiding hiervan is het neurale netwerk van de AI, dat nieuwe beslissingen creëert van machine learning-ervaring tot lijken op de originaliteit van de menselijke geest nauwkeuriger. Deze netwerken bevatten transformatoren, die de relaties tussen verre datapunten ontleden. Wanneer transformatoren misgaan, kunnen hallucinaties optreden.
Hoe AI-hallucinaties kansen bieden voor hackers
Helaas is het niet algemeen bekend dat AI hallucineert, en AI klinkt zelfverzekerd, zelfs als het helemaal verkeerd is. Dit draagt er allemaal toe bij dat gebruikers zelfgenoegzamer worden en meer vertrouwen krijgen in AI, en bedreigingsactoren vertrouwen op dit gebruikersgedrag om hen ertoe te brengen te downloaden of hun aanvallen uit te voeren.
Een AI-model kan bijvoorbeeld een nepcodebibliotheek hallucineren en gebruikers aanbevelen die bibliotheek te downloaden. Het is waarschijnlijk dat het model dezelfde hallucinerende bibliotheek zal blijven aanbevelen aan veel gebruikers die een soortgelijke vraag stellen. Als hackers deze hallucinatie ontdekken, kunnen ze een echte versie van de ingebeelde bibliotheek maken, maar dan gevuld met gevaarlijke code en malware. Nu, wanneer AI de codebibliotheek blijft aanbevelen, zullen onwetende gebruikers de code van de hackers downloaden.
Het transporteren van schadelijke code en programma's door gebruik te maken van AI-hallucinaties is een niet verrassende volgende stap voor bedreigingsactoren. Hackers creëren niet noodzakelijkerwijs talloze nieuwe cyberdreigingen - ze zoeken alleen naar nieuwe manieren om ze zonder achterdocht te leveren. AI-hallucinaties jagen op dezelfde menselijke naïviteit waar het klikken op e-maillinks van afhangt (daarom zou je dat moeten doen). gebruik tools voor het controleren van links om URL's te verifiëren).
Hackers kunnen het ook naar een hoger niveau tillen. Als u op zoek bent naar hulp bij het coderen en de valse, kwaadaardige code downloadt, kan de dreigingsactor de code ook daadwerkelijk functioneel maken, terwijl er een schadelijk programma op de achtergrond wordt uitgevoerd. Alleen omdat het werkt zoals je verwacht, wil nog niet zeggen dat het niet gevaarlijk is.
Een gebrek aan opleiding kan u ertoe aanzetten om door AI gegenereerde aanbevelingen te downloaden vanwege het gedrag van de online automatische piloot. Elke sector staat onder culturele druk om AI toe te passen in zijn zakelijke praktijken. Talloze organisaties en industrieën die ver van technologie verwijderd zijn, spelen met AI-tools met weinig ervaring en nog minder cyberbeveiliging, gewoon om concurrerend te blijven.
Hoe u zich kunt beschermen tegen bewapende AI-hallucinaties
Vooruitgang is aan de horizon. Het maken van malware met generatieve AI was eenvoudig voordat bedrijven datasets en algemene voorwaarden aanpasten om onethische generaties te voorkomen. Wat zijn enkele manieren om veilig te blijven, wetende welke maatschappelijke, technische en persoonlijke zwakheden u kunt hebben tegen gevaarlijke AI-hallucinaties?
Iedereen in de branche kan werken aan het verfijnen van neurale netwerktechnologie en bibliotheekverificatie. Er moeten checks and balances zijn voordat de reacties de eindgebruikers raken. Ondanks dat dit een noodzakelijke vooruitgang in de branche is, heb je ook een rol te spelen bij het beschermen van jezelf en anderen tegen generatieve AI-bedreigingen.
Gemiddelde gebruikers kan oefenen met het spotten van AI-hallucinaties met deze strategieën:
- Spelling- en grammaticafouten opsporen.
- Zien wanneer de context van de vraag niet overeenkomt met de context van het antwoord.
- Erkennen wanneer op computerbeelden gebaseerde beelden niet overeenkomen met hoe menselijke ogen het concept zouden zien.
Wees altijd voorzichtig bij het downloaden van inhoud van internet, zelfs als dit wordt aanbevolen door AI. Als AI aanbeveelt om code te downloaden, doe dat dan niet blindelings; controleer eventuele beoordelingen om er zeker van te zijn dat de code legitiem is en kijk of u informatie over de maker kunt vinden.
De beste weerstand tegen op AI-hallucinaties gebaseerde aanvallen is onderwijs. Spreken over uw ervaringen en lezen hoe anderen kwaadaardige hallucinaties veroorzaakten, per ongeluk of opzettelijk testen, is van onschatbare waarde bij het navigeren door AI in de toekomst.
Verbetering van de AI-cyberbeveiliging
Je moet voorzichtig zijn met wat je vraagt als je met een AI praat. Beperk de kans op gevaarlijke uitkomsten door zo specifiek mogelijk te zijn en vraagtekens te zetten bij alles wat op het scherm verschijnt. Test code in veilige omgevingen en controleer andere ogenschijnlijk betrouwbare informatie op feiten. Daarnaast samenwerken met anderen, ervaringen bespreken en jargon over AI vereenvoudigen hallucinaties en cyberbeveiligingsbedreigingen kunnen de massa helpen waakzamer en veerkrachtiger te zijn hackers.