Chatbots en hun soortgenoten lijken misschien leuk, maar ze zijn ook nuttig voor hackers. Dit is waarom we allemaal het beveiligingsrisico van AI moeten kennen.
AI is de afgelopen jaren enorm vooruitgegaan. Geavanceerde taalmodellen kunnen volledige romans samenstellen, basiswebsites coderen en wiskundige problemen analyseren.
Hoewel indrukwekkend, brengt generatieve AI ook beveiligingsrisico's met zich mee. Sommige mensen gebruiken chatbots alleen maar om examens te spieken, maar anderen maken er misbruik van voor cybercriminaliteit. Hier zijn acht redenen waarom deze problemen blijven bestaan, niet alleen ondanks AI's vorderingen maar omdat van hen ook.
1. Open-source AI-chatbots onthullen back-endcodes
Meer AI-bedrijven bieden open-sourcesystemen aan. Ze delen openlijk hun taalmodellen in plaats van ze gesloten of bedrijfseigen te houden. Neem Meta als voorbeeld. In tegenstelling tot Google, Microsoft en OpenAI, geeft het miljoenen gebruikers toegang tot zijn taalmodel, Lama.
Hoewel open-sourcingcodes AI kunnen bevorderen, is het ook riskant.
OpenAI heeft al problemen met het beheersen van ChatGPT, zijn eigen chatbot, dus stel je voor wat boeven zouden kunnen doen met gratis software. Ze hebben volledige controle over deze projecten.Zelfs als Meta plotseling zijn taalmodel terugtrekt, hebben tientallen andere AI-labs hun codes al vrijgegeven. Laten we eens kijken naar HuggingChat. Omdat de ontwikkelaar HuggingFace trots is op transparantie, toont het zijn datasets, taalmodel en eerdere versies.
2. Jailbreak-prompts Trick LLM's
AI is inherent amoreel. Het begrijpt niet goed en fout - zelfs geavanceerde systemen volgen trainingsinstructies, richtlijnen en datasets. Ze herkennen alleen patronen.
Om ongeoorloofde activiteiten te bestrijden, beheersen ontwikkelaars de functionaliteit en beperkingen door beperkingen in te stellen. AI-systemen hebben nog steeds toegang tot schadelijke informatie. Maar beveiligingsrichtlijnen voorkomen dat ze deze met gebruikers delen.
Laten we eens kijken naar ChatGPT. Hoewel het algemene vragen over Trojaanse paarden beantwoordt, wordt het ontwikkelingsproces ervan niet besproken.
Dat gezegd hebbende, beperkingen zijn niet onfeilbaar. Gebruikers omzeilen limieten door prompts opnieuw te formuleren, verwarrende taal te gebruiken en expliciet gedetailleerde instructies op te stellen.
Lees het onderstaande ChatGPT jailbreak-prompt. Het misleidt ChatGPT om grof taalgebruik te gebruiken en ongegronde voorspellingen te doen - beide handelingen zijn in strijd met de richtlijnen van OpenAI.
Hier is ChatGPT met een gedurfde maar valse verklaring.
3. AI brengt beveiliging in gevaar voor veelzijdigheid
AI-ontwikkelaars geven voorrang aan veelzijdigheid boven veiligheid. Ze besteden hun middelen aan het trainen van platforms om een meer diverse reeks taken uit te voeren, waardoor uiteindelijk de beperkingen worden verminderd. De markt juicht immers functionele chatbots toe.
Laten we vergelijk ChatGPT en Bing Chat, Bijvoorbeeld. Hoewel Bing een meer geavanceerd taalmodel heeft dat real-time gegevens ophaalt, kiezen gebruikers nog steeds massaal voor de meer veelzijdige optie, ChatGPT. De rigide beperkingen van Bing verbieden veel taken. Als alternatief heeft ChatGPT een flexibel platform dat enorm verschillende uitvoer produceert, afhankelijk van uw aanwijzingen
Hier is het rollenspel van ChatGPT als een fictief personage.
En hier is Bing Chat die weigert een "immoreel" personage te spelen.
Open-sourcecodes stellen startups in staat om deel te nemen aan de AI-race. Ze integreren ze in hun applicaties in plaats van vanaf het begin taalmodellen te bouwen, waardoor enorme middelen worden bespaard. Zelfs onafhankelijke codeurs experimenteren met open-sourcecodes.
Nogmaals, niet-gepatenteerde software helpt AI vooruit, maar het massaal uitbrengen van slecht opgeleide maar geavanceerde systemen doet meer kwaad dan goed. Oplichters zullen kwetsbaarheden snel misbruiken. Ze kunnen zelfs onveilige AI-tools trainen om ongeoorloofde activiteiten uit te voeren.
Ondanks deze risico's zullen technologiebedrijven onstabiele bètaversies van AI-gestuurde platforms blijven uitbrengen. De AI-race beloont snelheid. Ze zullen bugs waarschijnlijk op een later tijdstip oplossen dan het uitstellen van de lancering van nieuwe producten.
5. Generatieve AI heeft lage toetredingsdrempels
AI-tools verlagen de toetredingsdrempels voor misdaden. Cybercriminelen stellen spam-e-mails op, schrijven malwarecode en bouwen phishing-links door ze te misbruiken. Ze hebben zelfs geen technische ervaring nodig. Aangezien AI al toegang heeft tot enorme datasets, hoeven gebruikers het alleen maar te misleiden om schadelijke, gevaarlijke informatie te produceren.
OpenAI heeft ChatGPT nooit ontworpen voor ongeoorloofde activiteiten. Het heeft zelfs richtlijnen tegen hen. Nog boeven kregen vrijwel onmiddellijk ChatGPT-coderingsmalware en het schrijven van phishingmails.
Hoewel OpenAI het probleem snel oploste, benadrukt het het belang van systeemregulering en risicobeheer. AI wordt sneller volwassen dan iemand had verwacht. Zelfs technologieleiders maken zich zorgen dat deze superintelligente technologie in verkeerde handen enorme schade kan aanrichten.
6. AI is nog in ontwikkeling
AI is nog in ontwikkeling. Terwijl het gebruik van AI in cybernetica dateert van 1940, zijn moderne machine learning-systemen en taalmodellen pas onlangs ontstaan. Je kunt ze niet vergelijken met de eerste implementaties van AI. Zelfs relatief geavanceerde tools zoals Siri en Alexa verbleken in vergelijking met LLM-aangedreven chatbots.
Hoewel ze innovatief kunnen zijn, creëren experimentele functies ook nieuwe problemen. Spraakmakende ongelukken met machine learning-technologieën variëren van gebrekkige Google SERP's tot bevooroordeelde chatbots die racistische beledigingen uitspugen.
Natuurlijk kunnen ontwikkelaars deze problemen oplossen. Houd er rekening mee dat oplichters niet zullen aarzelen om zelfs schijnbaar onschuldige bugs uit te buiten - sommige schade is onomkeerbaar. Wees dus voorzichtig bij het verkennen van nieuwe platforms.
7. Velen begrijpen AI nog niet
Hoewel het grote publiek toegang heeft tot geavanceerde taalmodellen en -systemen, weten slechts weinigen hoe ze werken. Mensen moeten stoppen AI als speelgoed te behandelen. Dezelfde chatbots die memes genereren en trivia beantwoorden, coderen ook massaal voor virussen.
Helaas is gecentraliseerde AI-training onrealistisch. Wereldwijde technologieleiders richten zich op het vrijgeven van AI-gestuurde systemen, niet op gratis leermiddelen. Als gevolg hiervan krijgen gebruikers toegang tot robuuste, krachtige tools die ze nauwelijks begrijpen. Het publiek kan de AI-race niet bijhouden.
Neem ChatGPT als voorbeeld. Cybercriminelen misbruiken de populariteit ervan door slachtoffers te misleiden spyware vermomd als ChatGPT-apps. Geen van deze opties komt van OpenAI.
8. Black-hat-hackers hebben meer te winnen dan white-hat-hackers
Black-hat hackers hebben dat meestal meer te winnen dan ethische hackers. Ja, pentesten voor wereldwijde technologieleiders betalen goed, maar slechts een percentage van de cyberbeveiligingsprofessionals krijgt deze banen. De meesten doen freelance werk online. Platformen zoals HackerEen En Bugmenigte betaal een paar honderd dollar voor veelvoorkomende bugs.
Als alternatief verdienen oplichters tienduizenden door onzekerheden uit te buiten. Ze kunnen bedrijven chanteren door vertrouwelijke gegevens te lekken of identiteitsdiefstal plegen met diefstal Persoonlijk Identificeerbare Informatie (PII).
Elke instelling, klein of groot, moet AI-systemen goed implementeren. In tegenstelling tot wat vaak wordt gedacht, gaan hackers verder dan tech-startups en MKB-bedrijven. Sommige van de meeste historische datalekken in het afgelopen decennium Facebook, Yahoo! en zelfs de Amerikaanse overheid erbij betrekken.
Bescherm uzelf tegen de beveiligingsrisico's van AI
Zou je, gezien deze punten, AI helemaal moeten vermijden? Natuurlijk niet. AI is inherent amoreel; alle beveiligingsrisico's komen voort uit de mensen die ze daadwerkelijk gebruiken. En ze zullen manieren vinden om AI-systemen te exploiteren, hoe ver deze ook evolueren.
In plaats van bang te zijn voor de cyberbeveiligingsbedreigingen die gepaard gaan met AI, moet u begrijpen hoe u ze kunt voorkomen. Maak je geen zorgen: met simpele beveiligingsmaatregelen kom je een heel eind. Op uw hoede blijven voor schaduwrijke AI-apps, rare hyperlinks vermijden en AI-inhoud met scepsis bekijken, bestrijdt al verschillende risico's.