Steeds meer bedrijven verbieden ChatGPT op de werkvloer, maar wat zit er achter de verboden?

Ondanks zijn indrukwekkende capaciteiten, hebben verschillende grote bedrijven hun werknemers verbannen van het gebruik van ChatGPT.

In mei 2023 verbood Samsung het gebruik van ChatGPT en andere generatieve AI-tools. Toen, in juni 2023, volgde de Commonwealth Bank of Australia, samen met bedrijven als Amazon, Apple en JPMorgan Chase & Co. Sommige ziekenhuizen, advocatenkantoren en overheidsinstanties hebben het gebruik door werknemers ook verboden ChatGPT.

Waarom verbieden steeds meer bedrijven ChatGPT? Hier zijn vijf belangrijke redenen.

1. Datalekken

ChatGPT heeft een grote hoeveelheid gegevens nodig om effectief te trainen en te werken. De chatbot is getraind met behulp van enorme hoeveelheden gegevens afkomstig van internet en wordt nog steeds getraind.

Volgens OpenAI's Help-pagina, elk stukje data, inclusief vertrouwelijke klantgegevens, handelsgeheimen en gevoelige zaken informatie die u de chatbot geeft, kan worden beoordeeld door zijn trainers, die uw gegevens kunnen gebruiken om te verbeteren hun systemen.

instagram viewer

Veel bedrijven zijn onderworpen aan strenge regels voor gegevensbescherming. Daardoor zijn ze terughoudend met het delen van persoonsgegevens met externe partijen, omdat dit de risico's op datalekken vergroot.

Bovendien biedt OpenAI geen onfeilbare gegevensbescherming en vertrouwelijkheidsgarantie. In maart 2023, OpenAI bevestigd een bug waardoor sommige gebruikers de chattitels in de geschiedenis van andere actieve gebruikers kunnen bekijken. Hoewel deze bug is opgelost en OpenAI heeft een bug bounty-programma gelanceerd, garandeert het bedrijf de veiligheid en privacy van gebruikersgegevens niet.

Veel organisaties kiezen ervoor om het gebruik van ChatGPT door werknemers te beperken om datalekken te voorkomen, die hun reputatie kunnen schaden, tot financiële verliezen kunnen leiden en hun klanten en werknemers kunnen afschrikken risico.

2. Cyberbeveiligingsrisico's

Terwijl het is onduidelijk of ChatGPT echt vatbaar is voor cyberbeveiligingsrisico's, bestaat de kans dat de implementatie ervan binnen een organisatie potentiële kwetsbaarheden met zich meebrengt die cyberaanvallers kunnen misbruiken.

Als een bedrijf ChatGPT integreert en er zijn zwakke punten in het beveiligingssysteem van de chatbot, kunnen aanvallers de kwetsbaarheden misbruiken en malwarecodes injecteren. Ook is het vermogen van ChatGPT om mensachtige reacties te genereren een gouden ei voor phishing-aanvallers die tegen via een account of zich voordoen als legitieme entiteiten om werknemers van het bedrijf te misleiden om gevoelige gegevens te delen informatie.

3. Creatie van gepersonaliseerde chatbots

Ondanks zijn innovatieve functies kan ChatGPT onjuiste en misleidende informatie produceren. Als gevolg hiervan hebben veel bedrijven AI-chatbots gemaakt voor werkdoeleinden. De Commonwealth Bank of Australia vroeg haar werknemers bijvoorbeeld om Gen.ai te gebruiken, een chatbot met kunstmatige intelligentie (AI) die de informatie van CommBank gebruikt om antwoorden te geven.

Bedrijven als Samsung en Amazon hebben geavanceerde natuurlijke taalmodellen ontwikkeld, zodat bedrijven eenvoudig gepersonaliseerde chatbots kunnen maken en inzetten op basis van bestaande transcripties. Met deze in-house chatbots voorkomt u de juridische en reputatieschade die gepaard gaat met verkeerd omgaan met gegevens.

4. Gebrek aan regelgeving

In sectoren waar bedrijven onderworpen zijn aan regelgevende protocollen en sancties, is het gebrek aan regelgevende richtlijnen van ChatGPT een rode vlag. Zonder precieze wettelijke voorwaarden voor het gebruik van ChatGPT kunnen bedrijven ernstige juridische gevolgen ondervinden bij het gebruik van de AI-chatbot voor hun activiteiten.

Bovendien kan het gebrek aan regelgeving de verantwoordelijkheid en transparantie van een bedrijf verminderen. De meeste bedrijven kunnen verward zijn over het uitleggen van de Besluitvormingsprocessen en beveiligingsmaatregelen van het AI-taalmodel aan hun klanten.

Bedrijven beperken ChatGPT, uit angst voor mogelijke schendingen van privacywetten en branchespecifieke regelgeving.

5. Onverantwoord gebruik door werknemers

In veel bedrijven vertrouwen sommige werknemers uitsluitend op ChatGPT-antwoorden om inhoud te genereren en hun taken uit te voeren. Dit leidt tot luiheid in de werkomgeving en stimuleert creativiteit en innovatie.

Afhankelijk zijn van AI kan uw vermogen om kritisch te denken belemmeren. Het kan ook de geloofwaardigheid van een bedrijf schaden, aangezien ChatGPT vaak onnauwkeurige en onbetrouwbare gegevens verstrekt.

Hoewel ChatGPT een krachtige tool is, kan het gebruik ervan om complexe vragen aan te pakken waarvoor domeinspecifieke expertise vereist is, de werking en efficiëntie van een bedrijf schaden. Sommige werknemers herinneren er zich misschien niet aan om de antwoorden van de AI-chatbot op feiten te controleren en te verifiëren, waarbij ze de antwoorden behandelen als een one-size-fits-all-oplossing.

Om dit soort problemen te verminderen, verbieden bedrijven de chatbot zodat werknemers zich kunnen concentreren op hun taken en foutloze oplossingen kunnen bieden aan gebruikers.

ChatGPT-verboden: beter veilig dan sorry

Bedrijven die ChatGPT verbieden, wijzen op cyberbeveiligingsrisico's, ethische normen voor werknemers en uitdagingen op het gebied van naleving van regelgeving. Het onvermogen van ChatGPT om deze uitdagingen aan te pakken en tegelijkertijd brancheoplossingen te bieden, getuigt van zijn beperkingen en moet verder evolueren.

In de tussentijd schakelen bedrijven over op alternatieve chatbots of beperken werknemers simpelweg het gebruik ervan ChatGPT om de mogelijke datalekken en onbetrouwbare beveiligings- en regelgevende protocollen in verband met de chatbot.