Samsung-medewerkers hebben per ongeluk bedrijfsgegevens gelekt via ChatGPT - een voorbeeld van waarom AI zo'n grote bedreiging vormt voor uw privacy en veiligheid.
ChatGPT is een groot beveiligings- en privacyprobleem geworden omdat te veel van ons er achteloos onze privé-informatie op delen. ChatGPT registreert elk gesprek dat u ermee voert, inclusief alle persoonlijke gegevens die u deelt. Toch zou je dit niet weten tenzij je het privacybeleid, de servicevoorwaarden en de pagina met veelgestelde vragen van OpenAI hebt doorzocht om het samen te voegen.
Het is al gevaarlijk genoeg om je eigen informatie te lekken, maar gezien het feit dat grote bedrijven ChatGPT elke dag gebruiken om informatie te verwerken, kan dit het begin zijn van een datalekramp.
Samsung heeft vertrouwelijke informatie gelekt via ChatGPT
Volgens Gizmodo, hebben de medewerkers van Samsung in een tijdsbestek van 20 dagen bij drie verschillende gelegenheden per abuis vertrouwelijke informatie gelekt via ChatGPT. Dit is slechts één voorbeeld van hoe gemakkelijk het voor bedrijven is om privé-informatie in gevaar te brengen.
ChatGPT ligt publiekelijk onder vuur vanwege zijn privacykwesties, dus het is een aanzienlijke vergissing dat Samsung dit heeft laten gebeuren. Sommige landen hebben ChatGPT zelfs verboden om hun burgers te beschermen totdat het de privacy verbetert, dus je zou denken dat bedrijven voorzichtiger zouden zijn met hoe hun personeel het gebruikt.
Gelukkig lijkt het erop dat de klanten van Samsung veilig zijn, althans voorlopig. De gelekte gegevens hebben alleen betrekking op interne bedrijfspraktijken, een eigen code die ze aan het oplossen waren en de notulen van een teamvergadering, allemaal ingediend door werknemers. Het personeel had echter net zo gemakkelijk persoonlijke informatie van consumenten kunnen lekken, en het is slechts een kwestie van tijd voordat we een ander bedrijf precies dat zien doen. Als dit gebeurt, kunnen we verwachten te zien een enorme toename van phishing-zwendel en identiteitsdiefstal.
Er is hier nog een risicolaag. Als werknemers ChatGPT gebruiken om naar bugs te zoeken, zoals ze deden met het Samsung-lek, wordt de code die ze in de chatbox typen ook opgeslagen op de servers van OpenAI. Dit kan leiden tot inbreuken die een enorme impact hebben op bedrijven die problemen oplossen met niet-uitgebrachte producten en programma's. Het kan zelfs gebeuren dat informatie zoals niet-vrijgegeven bedrijfsplannen, toekomstige releases en prototypen worden gelekt, wat resulteert in enorme inkomstenverliezen.
Hoe ontstaan ChatGPT-gegevenslekken?
Privacybeleid van ChatGPT maakt duidelijk dat het uw gesprekken opneemt en de logs deelt met andere bedrijven en haar AI-trainers. Wanneer iemand (bijvoorbeeld een Samsung-medewerker) vertrouwelijke informatie in het dialoogvenster typt, wordt deze opgenomen en opgeslagen op de servers van ChatGPT.
Het is hoogst onwaarschijnlijk dat de werknemers dit met opzet hebben gedaan, maar dat is het enge. De meeste datalekken worden veroorzaakt door menselijke fouten. Vaak komt dit doordat het bedrijf zijn personeel niet heeft voorgelicht over de privacyrisico's van het gebruik van tools zoals AI.
Als ze bijvoorbeeld een grote lijst met contactpersonen in de chat plakken en de AI vragen om de telefoonnummers van klanten uit de gegevens te isoleren, heeft ChatGPT die namen en telefoonnummers in zijn administratie. Uw privégegevens zijn overgeleverd aan bedrijven met wie u ze niet hebt gedeeld, die ze misschien niet goed genoeg beschermen om u veilig te houden. Er zijn een paar dingen waar je aan kunt doen bescherm uzelf na een datalek, maar bedrijven moeten verantwoordelijk zijn voor het voorkomen van lekken.
Moraal van het verhaal: vertel ChatGPT niet je geheimen
U kunt ChatGPT veilig gebruiken voor honderden verschillende taken, maar het organiseren van vertrouwelijke informatie hoort daar niet bij. U moet voorzichtig zijn om te voorkomen dat u iets persoonlijks in de chatbox typt, inclusief uw naam, adres, e-mailadres en telefoonnummer. Het is gemakkelijk om deze fout te maken, dus je moet voorzichtig zijn om je prompts te controleren om er zeker van te zijn dat er niets per ongeluk is binnengekomen.
Het Samsung-lek laat ons zien hoe reëel het risico van een ChatGPT-gerelateerd datalek is. Helaas zullen we meer van dit soort fouten zien, misschien met veel grotere gevolgen, aangezien AI een kernonderdeel wordt van de meeste bedrijfsprocessen.