Of u nu ChatGPT of een andere chatbot gebruikt, u moet zich bewust zijn van de potentiële bedreigingen die uw gegevensprivacy in twijfel trekken.
Chatbots bestaan al jaren, maar de opkomst van grote taalmodellen, zoals ChatGPT en Google Bard, heeft de chatbotindustrie nieuw leven ingeblazen.
Miljoenen mensen maken nu wereldwijd gebruik van AI-chatbots, maar er zijn enkele belangrijke privacyrisico’s en zorgen waarmee u rekening moet houden als u een van deze tools wilt uitproberen.
1. Gegevensverzameling
De meeste mensen gebruiken chatbots niet alleen om hallo te zeggen. Moderne chatbots zijn ontworpen om complexe vragen en verzoeken te verwerken en erop te reageren, waarbij gebruikers vaak veel informatie in hun prompts opnemen. Zelfs als je alleen maar een simpele vraag stelt, wil je niet echt dat deze verder gaat dan je gesprek.
Volgens OpenAI's ondersteuningssectie, kunt u ChatGPT-chatlogboeken verwijderen wanneer u maar wilt, en deze logbestanden worden na 30 dagen definitief verwijderd uit de systemen van OpenAI. Het bedrijf zal echter bepaalde chatlogboeken bewaren en beoordelen als deze zijn gemarkeerd vanwege schadelijke of ongepaste inhoud.
Een andere populaire AI-chatbot, Claude, houdt ook je eerdere gesprekken bij. Het ondersteuningscentrum van Anthropic stelt dat Claude "uw aanwijzingen en uitvoer in het product bijhoudt om u in de loop van de tijd een consistente productervaring te bieden in overeenstemming met uw controles." Jij kan uw gesprekken met Claude verwijderen, zodat het vergeet waar u het over hebt gehad, maar dit betekent niet dat Anthropic uw logs onmiddellijk uit zijn logboek zal verwijderen systemen.
Dit roept uiteraard de vraag op: worden mijn gegevens bewaard of niet? Gebruiken ChatGPT of andere chatbots mijn gegevens?
Maar de zorgen houden hier niet op.
Hoe leert ChatGPT?
Om informatie te verschaffen worden grote taalmodellen getraind met enorme hoeveelheden data. Volgens WetenschapsfocusAlleen al ChatGPT-4 kreeg tijdens zijn trainingsperiode 300 miljard woorden aan informatie te verwerken. Dit is niet rechtstreeks uit een paar encyclopedieën overgenomen. In plaats daarvan gebruiken chatbot-ontwikkelaars massa's informatie van internet om hun modellen te trainen. Dit kunnen gegevens uit boeken, films, artikelen, Wikipedia-artikelen, blogposts, commentaren en zelfs recensiesites zijn.
Houd er rekening mee dat, afhankelijk van het privacybeleid van een chatbotontwikkelaar, sommige van de bovengenoemde bronnen mogelijk niet worden gebruikt in trainingen.
Velen hebben ChatGPT bekritiseerd en beweren dat het een soort nachtmerrie is op het gebied van privacy ChatGPT is niet te vertrouwen. Waarom is dit het geval?
Dit is waar de dingen een beetje wazig worden. Als u ChatGPT-3.5 rechtstreeks vraagt of het toegang heeft tot productrecensies of artikelcommentaren, krijgt u een duidelijk negatief antwoord. Zoals je in de onderstaande schermafbeelding kunt zien, stelt GPT-3.5 dat het tijdens zijn training geen toegang heeft gekregen tot opmerkingen over gebruikersartikelen of productrecensies.
In plaats daarvan werd getraind met behulp van "een breed scala aan tekst van internet, waaronder websites, boeken, artikelen en ander openbaar beschikbaar geschreven materiaal tot september 2021."
Maar is dit hetzelfde voor GPT-4?
Toen we GPT-4 vroegen, kregen we te horen dat "OpenAI geen specifieke gebruikersrecensies, persoonlijke gegevens of artikelcommentaren gebruikte" tijdens de trainingsperiode van de chatbot. Bovendien vertelde GPT-4 ons dat de antwoorden worden gegenereerd op basis van "patronen in de gegevens waarop [het] is getraind, die voornamelijk bestaan uit boeken, artikelen en andere tekst van internet."
Toen we verder onderzochten, beweerde GPT-4 dat bepaalde sociale media-inhoud inderdaad in de trainingsgegevens kan worden opgenomen, maar dat de makers altijd anoniem zullen blijven. GPT-4 verklaarde specifiek: "Zelfs als de inhoud van platforms als Reddit deel uitmaakte van de trainingsgegevens, [het heeft geen] toegang tot specifieke opmerkingen, berichten of gegevens die aan een individu kunnen worden gekoppeld gebruiker."
Een ander opmerkelijk onderdeel van het antwoord van GPT-4 luidt als volgt: "OpenAI heeft niet expliciet elke gebruikte gegevensbron vermeld." Van Natuurlijk zou het moeilijk zijn voor OpenAI om 300 miljard woorden aan bronnen op te sommen, maar dit laat wel ruimte voor speculatie.
In een Ars Technica-artikel, werd gesteld dat ChatGPT "persoonlijke informatie verzamelt die zonder toestemming is verkregen". In hetzelfde artikel wordt Er werd contextuele integriteit genoemd, een concept dat verwijst naar het alleen gebruiken van iemands informatie in de context waarin deze was aanvankelijk gebruikt. Als ChatGPT deze contextuele integriteit schendt, kunnen de gegevens van mensen in gevaar komen.
Een ander punt van zorg hier is de naleving van OpenAI met de Algemene Verordening Gegevensbescherming (AVG). Dit is een verordening die door de Europese Unie wordt opgelegd om de gegevens van burgers te beschermen. Verschillende Europese landen, waaronder Italië en Polen, zijn onderzoeken gestart naar ChatGPT vanwege zorgen over de naleving van de AVG. Korte tijd werd ChatGPT zelfs verboden in Italië vanwege zorgen over de privacy.
OpenAI heeft in het verleden gedreigd zich terug te trekken uit de EU vanwege geplande AI-regelgeving, maar dit is sindsdien ingetrokken.
ChatGPT is misschien wel de grootste AI-chatbot van dit moment, maar privacyproblemen met chatbots beginnen en eindigen niet bij deze provider. Als u een schimmige chatbot met een flauw privacybeleid gebruikt, kunnen uw gesprekken worden misbruikt of kan er zeer gevoelige informatie worden gebruikt in de trainingsgegevens.
2. Data diefstal
Zoals elk online hulpmiddel of platform zijn chatbots kwetsbaar voor cybercriminaliteit. Zelfs als een chatbot er alles aan zou doen om gebruikers en hun gegevens te beschermen, bestaat er altijd een kans dat een slimme hacker erin slaagt zijn interne systemen te infiltreren.
Als een bepaalde chatbotservice uw gevoelige informatie opslaat, zoals betalingsgegevens voor uw premie abonnement, contactgegevens of iets dergelijks, deze kunnen worden gestolen en misbruikt als er een cyberaanval plaatsvindt voorkomen.
Dit geldt vooral als je een minder veilige chatbot gebruikt waarvan de ontwikkelaars niet hebben geïnvesteerd in adequate beveiliging. Niet alleen kunnen de interne systemen van het bedrijf worden gehackt, maar uw eigen account loopt ook het risico te worden gecompromitteerd als deze geen inlogwaarschuwingen of een authenticatielaag heeft.
Nu AI-chatbots zo populair zijn, zijn cybercriminelen er uiteraard massaal toe overgegaan om deze industrie te gebruiken voor hun oplichting. Valse ChatGPT-websites en plug-ins zijn een groot probleem sinds de chatbot van OpenAI mainstream werd eind 2022, waarin mensen trappen in oplichting en persoonlijke informatie weggeven onder het mom van legitimiteit en vertrouwen.
In maart 2023 rapporteerde MUO over een valse ChatGPT Chrome-extensie die Facebook-logins steelt. De plug-in zou een achterdeur van Facebook kunnen misbruiken om spraakmakende accounts te hacken en gebruikerscookies te stelen. Dit is slechts één voorbeeld van talloze nep-ChatGPT-services die zijn ontworpen om onwetende slachtoffers op te lichten.
3. Malware-infectie
Als u een duistere chatbot gebruikt zonder dat u het beseft, kan het zijn dat de chatbot u links naar kwaadaardige websites aanbiedt. Misschien heeft de chatbot je op de hoogte gebracht van een verleidelijke weggeefactie, of heeft hij een bron gegeven voor een van zijn uitspraken. Als de exploitanten van de dienst illegale bedoelingen hebben, kan het hele doel van het platform zijn om malware en oplichting via kwaadaardige links te verspreiden.
Als alternatief kunnen hackers een legitieme chatbotservice compromitteren en deze gebruiken om malware te verspreiden. Als deze chatbot uit heel veel mensen bestaat, zullen duizenden of zelfs miljoenen gebruikers aan deze malware worden blootgesteld. Fake ChatGPT-apps hebben zelfs in de Apple App Store gestaan, dus het is het beste om voorzichtig te zijn.
Over het algemeen mag u nooit op links klikken die een chatbot eerder heeft aangeboden door het via een website voor het controleren van links te laten lopen. Dit lijkt misschien irritant, maar het is altijd het beste om er zeker van te zijn dat de site waarnaar u wordt geleid, geen kwaadaardig ontwerp heeft.
Bovendien mag u nooit chatbot-plug-ins en extensies installeren zonder eerst hun legitimiteit te verifiëren. Doe een beetje onderzoek rond de app om te zien of deze goed is beoordeeld, en voer ook een zoekopdracht uit bij de ontwikkelaar van de app om te zien of je iets duisters vindt.
Chatbots zijn niet ongevoelig voor privacyproblemen
Zoals de meeste online tools tegenwoordig, zijn chatbots herhaaldelijk bekritiseerd vanwege hun mogelijke valkuilen op het gebied van beveiliging en privacy. Of het nu gaat om een chatbotprovider die bezuinigingen doet als het om gebruikersveiligheid gaat, of om de aanhoudende risico's van cyberaanvallen en oplichting, het is van cruciaal belang dat u weet wat uw chatbotservice over u verzamelt en of er voldoende beveiliging is toegepast maatregelen.