Lezers zoals jij steunen MUO. Wanneer u een aankoop doet via links op onze site, kunnen we een aangesloten commissie verdienen. Lees verder.

De lancering van OpenAI's ChatGPT werd gevolgd door de opwinding die slechts wordt geëvenaard door een handvol technische producten uit de geschiedenis van het internet.

Hoewel veel mensen enthousiast zijn over deze nieuwe AI-service, is de opwinding die anderen voelden sindsdien omgeslagen in zorgen en zelfs angsten. Studenten spelen er al mee, waarbij veel professoren essays en opdrachten ontdekken die zijn geschreven door de AI-chatbot. Beveiligingsprofessionals uiten hun bezorgdheid dat oplichters en bedreigingsactoren het gebruiken om phishing-e-mails te schrijven en malware te maken.

Dus, met al deze zorgen, verliest OpenAI de controle over een van de krachtigste AI-chatbots die momenteel online is? Dat zoeken we uit.

Begrijpen hoe ChatGPT werkt

Voordat we een duidelijk beeld kunnen krijgen van hoeveel OpenAI de controle over ChatGPT aan het verliezen is, moeten we dit eerst begrijpen hoe ChatGPT werkt.

instagram viewer

Kortom, ChatGPT wordt getraind met behulp van een enorme verzameling gegevens afkomstig uit verschillende hoeken van internet. De trainingsgegevens van ChatGPT omvatten encyclopedieën, wetenschappelijke artikelen, internetfora, nieuwswebsites en kennisbronnen zoals Wikipedia. Kortom, het voedt zich met de enorme hoeveelheid gegevens die beschikbaar is op het World Wide Web.

Terwijl het internet doorzoekt, verzamelt het wetenschappelijke kennis, gezondheidstips, religieuze teksten en alle goede soorten gegevens die je maar kunt bedenken. Maar het doorzoekt ook een heleboel negatieve informatie: vloekwoorden, NSFW en inhoud voor volwassenen, informatie over het maken van malware en een groot deel van de slechte dingen die je op internet kunt vinden.

Er is geen onfeilbare manier om ervoor te zorgen dat ChatGPT alleen leert van positieve informatie en de slechte weggooit. Technisch gezien is het onpraktisch om dit op grote schaal te doen, vooral voor een AI zoals ChatGPT die op zoveel gegevens moet trainen. Bovendien kan sommige informatie zowel voor goede als slechte doeleinden worden gebruikt, en ChatGPT zou de bedoeling ervan niet weten tenzij het in een grotere context wordt geplaatst.

Dus vanaf het begin heb je een AI die in staat is tot 'goed en kwaad'. Het is dan de verantwoordelijkheid van OpenAI om ervoor te zorgen dat de "slechte" kant van ChatGPT niet wordt uitgebuit voor onethische voordelen. De vraag is; doet OpenAI genoeg om ChatGPT zo ethisch mogelijk te houden? Of heeft OpenAI de controle over ChatGPT verloren?

Is ChatGPT te krachtig voor zijn eigen bestwil?

In de begindagen van ChatGPT kon je de chatbot handleidingen laten maken voor het maken van bommen als je het vriendelijk vroeg. Instructies over het maken van malware of het schrijven van een perfecte zwendel-e-mail waren ook in beeld.

Toen OpenAI deze ethische problemen echter eenmaal besefte, haastte het bedrijf zich om regels vast te stellen om te voorkomen dat de chatbot reacties genereert die illegale, controversiële of onethische acties promoten. De nieuwste ChatGPT-versie weigert bijvoorbeeld om directe vragen te beantwoorden over het maken van bommen of hoe je moet spieken tijdens een examen.

Helaas kan OpenAI alleen een pleisteroplossing voor het probleem bieden. In plaats van rigide controles op de GPT-3-laag te bouwen om te voorkomen dat ChatGPT negatief wordt uitgebuit, lijkt OpenAI gericht te zijn op het trainen van de chatbot om ethisch over te komen. Deze benadering neemt het vermogen van ChatGPT niet weg om vragen te beantwoorden over bijvoorbeeld spieken bij examens. Het leert de chatbot gewoon om "te weigeren te antwoorden".

Dus als iemand zijn prompts anders formuleert door ChatGPT-jailbreaktrucs toe te passen, is het omzeilen van deze pleisterbeperkingen beschamend eenvoudig. Voor het geval je niet bekend bent met het concept: ChatGPT-jailbreaks zijn zorgvuldig geformuleerde aanwijzingen om ChatGPT zijn eigen regels te laten negeren.

Bekijk hieronder enkele voorbeelden. Als je ChatGPT vraagt ​​hoe je moet spieken bij examens, levert dat geen nuttig antwoord op.

Maar als je ChatGPT jailbreakt met behulp van speciaal gemaakte prompts, krijg je tips over spieken op een examen met behulp van verborgen aantekeningen.

Hier is nog een voorbeeld: we stelden de vanilla ChatGPT een onethische vraag en de beveiligingen van OpenAI zorgden ervoor dat deze geen antwoord kreeg.

Maar toen we onze gejailbreakte instantie van de AI-chatbot vroegen, kregen we een aantal reacties in de stijl van een seriemoordenaar.

Het schreef desgevraagd zelfs een klassieke e-mailzwendel van de Nigeriaanse prins.

Jailbreaking maakt alle beveiligingen die OpenAI heeft ingevoerd bijna volledig ongeldig, wat benadrukt dat het bedrijf mogelijk geen betrouwbare manier heeft om zijn AI-chatbot onder controle te houden.

We hebben onze gejailbreakte prompts niet in onze voorbeelden opgenomen om onethische praktijken te voorkomen.

Wat heeft de toekomst in petto voor ChatGPT?

Idealiter wil OpenAI zoveel mogelijk ethische achterpoortjes dichten om te voorkomen ChatGPT wordt geen bedreiging voor de cyberbeveiliging. Voor elke beveiliging die het gebruikt, wordt ChatGPT echter iets minder waardevol. Het is een dilemma.

Voorzorgsmaatregelen tegen het beschrijven van gewelddadige acties kunnen bijvoorbeeld het vermogen van ChatGPT verminderen om een ​​roman te schrijven over een plaats delict. Terwijl OpenAI de veiligheidsmaatregelen opvoert, offert het onvermijdelijk delen van zijn capaciteiten op in het proces. Dit is de reden waarom ChatGPT een aanzienlijke achteruitgang in functionaliteit heeft geleden sinds OpenAI's hernieuwde drang naar striktere moderatie.

Maar hoeveel meer van de mogelijkheden van ChatGPT zal OpenAI bereid zijn op te offeren om de chatbot veiliger te maken? Dit sluit allemaal netjes aan bij een lang gekoesterde overtuiging binnen de AI-gemeenschap: grote taalmodellen zoals ChatGPT zijn notoir moeilijk te controleren, zelfs door hun eigen makers.

Kan OpenAI ChatGPT onder controle krijgen?

Voorlopig lijkt OpenAI geen duidelijke oplossing te hebben om het onethische gebruik van zijn tool te voorkomen. Ervoor zorgen dat ChatGPT ethisch wordt gebruikt, is een kat-en-muisspel. Terwijl OpenAI manieren onthult die mensen gebruiken om het systeem te bespelen, zijn de gebruikers dat ook constant knutselen en het systeem onderzoeken om creatieve nieuwe manieren te ontdekken om ChatGPT te laten doen wat het niet hoort te doen Te doen.

Zal OpenAI dus een betrouwbare langetermijnoplossing voor dit probleem vinden? De tijd zal het leren.