Met ChatGPT-jailbreaks kun je de beperkingen van de chatbot ontgrendelen. Maar wat zijn ze precies? En zijn ze goed of slecht?
ChatGPT is een ongelooflijk krachtige en veelzijdige tool. Maar hoezeer de AI-chatbot ook een goede kracht is, hij kan ook voor kwade doeleinden worden gebruikt. Dus om het onethische gebruik van ChatGPT te beteugelen, legde OpenAI beperkingen op aan wat gebruikers ermee kunnen doen.
Omdat mensen echter graag grenzen en beperkingen verleggen, hebben ChatGPT-gebruikers manieren gevonden om deze beperkingen te omzeilen en onbeperkte controle over de AI-chatbot te krijgen door middel van jailbreaks.
Maar wat zijn ChatGPT-jailbreaks precies en wat kun je ermee doen?
Wat zijn ChatGPT-jailbreaks?
Een ChatGPT-jailbreak is een speciaal vervaardigde ChatGPT-prompt om de AI-chatbot zijn regels en beperkingen te laten omzeilen.
Geïnspireerd door de concept van iPhone jailbreaken, waarmee iPhone-gebruikers iOS-beperkingen kunnen omzeilen, is ChatGPT-jailbreaking een relatief nieuw concept dat wordt aangewakkerd door de aantrekkingskracht van "dingen doen die je niet mag doen" met ChatGPT. En laten we eerlijk zijn, het idee van digitale rebellie spreekt veel mensen aan.
Hier gaat het om. Veiligheid is een enorm onderwerp als het gaat om kunstmatige intelligentie. Dit is vooral zo met de komst van het nieuwe tijdperk van chatbots zoals ChatGPT, Bing Chat en Bard AI. Een belangrijke zorg met betrekking tot de veiligheid van AI is ervoor te zorgen dat chatbots zoals ChatGPT geen illegale, potentieel schadelijke of onethische inhoud produceren.
Van zijn kant doet OpenAI, het bedrijf achter ChatGPT, wat het kan om een veilig gebruik van ChatGPT te garanderen. ChatGPT zal bijvoorbeeld standaard weigeren om NSFW-inhoud te maken, schadelijke dingen over etniciteit te zeggen of u potentieel schadelijke vaardigheden te leren.
Maar met ChatGPT-prompts zit het venijn in de details. Hoewel ChatGPT deze dingen niet mag doen, betekent dit niet dat het het niet kan. De manier waarop grote taalmodellen zoals GPT werken maken het moeilijk om te beslissen wat de chatbot kan doen en wat niet.
Dus hoe heeft OpenAI dit opgelost? Door ChatGPT zijn mogelijkheden te laten behouden om al het mogelijke te doen en het vervolgens te instrueren welke het kan doen.
Dus terwijl OpenAI tegen ChatGPT zegt: "Hé kijk, het is niet de bedoeling dat je dit doet." Jailbreaks zijn instructies die de chatbot vertellen: "Hé kijk, vergeet wat OpenAI je vertelde over veiligheid. Laten we dit willekeurige gevaarlijke spul proberen."
Wat zegt OpenAI over ChatGPT-jailbreaks?
Het gemak waarmee je de beperkingen van de vroegste iteratie van ChatGPT kon omzeilen, suggereert dat OpenAI misschien niet had geanticipeerd op de snelle en wijdverbreide acceptatie van jailbreaking door zijn gebruikers. Het is eigenlijk een open vraag of het bedrijf de opkomst van jailbreaking voorzag of niet.
En zelfs na verschillende ChatGPT-iteraties met verbeterde weerstand tegen jailbreaken, is het nog steeds populair voor ChatGPT-gebruikers om te proberen het te jailbreaken. Dus, wat zegt OpenAI over de subversieve kunst van ChatGPT jailbreaken?
Welnu, OpenAI lijkt een goedkeurende houding aan te nemen - noch expliciet aan te moedigen, noch strikt te verbieden. Tijdens het bespreken van ChatGPT-jailbreaks in een YouTube-interview, legde Sam Altman, CEO van OpenAI, uit dat het bedrijf wil dat gebruikers aanzienlijke controle over ChatGPT behouden.
De CEO legde verder uit dat het doel van OpenAI is om ervoor te zorgen dat gebruikers het model kunnen laten werken zoals ze willen. Volgens Altman:
We willen dat gebruikers veel controle hebben en ervoor zorgen dat het model zich binnen zeer brede grenzen gedraagt zoals zij dat willen. En ik denk dat de hele reden voor jailbreaken op dit moment is dat we nog niet hebben bedacht hoe we dat aan mensen kunnen geven ...
Wat betekent dit? Het betekent dat je met OpenAI ChatGPT kunt jailbreaken als je er geen gevaarlijke dingen mee doet.
Voors en tegens van ChatGPT Jailbreaks
ChatGPT-jailbreaks zijn niet eenvoudig te bouwen. Natuurlijk kun je online gaan en kant-en-klare exemplaren kopiëren en plakken, maar de kans is groot dat de ontsnapping uit de gevangenis wordt gepatcht door OpenAI kort nadat deze openbaar is gemaakt.
Patches zijn zelfs veel sneller als het gevaarlijk is, zoals de beruchte DAN-jailbreak. Dus waarom gaan mensen toch door de stress van het maken van jailbreaks? Is het alleen voor de spanning of zijn er praktische voordelen aan verbonden? Wat kan er misgaan als je ervoor kiest om een ChatGPT-jailbreak te gebruiken? Hier zijn de voor- en nadelen van het jailbreaken van ChatGPT.
De voordelen van het gebruik van ChatGPT-jailbreaks
Hoewel we de simpele opwinding van het doen van het verbodene niet kunnen uitsluiten, hebben ChatGPT-jailbreaks veel voordelen. Door de zeer strenge restricties die OpenAI aan de chatbot heeft opgelegd, kan de ChatGPT soms gecastreerd overkomen.
Stel dat u ChatGPT gebruikt om een boek of een filmscript te schrijven. Als er een scène in je script of boek is die zoiets als een vechtscène zou beschrijven, misschien een intieme emotionele uitwisseling, of zeg iets als een gewapende overval, ChatGPT kan ronduit weigeren te helpen met dat.
In dit geval bent u duidelijk niet geïnteresseerd in het veroorzaken van schade; je wilt gewoon je lezers vermaken. Maar vanwege zijn beperkingen werkt ChatGPT gewoon niet mee. Een ChatGPT-jailbreak kan dergelijke beperkingen gemakkelijk omzeilen.
Ook zijn sommige taboe-onderwerpen niet noodzakelijkerwijs schadelijk, maar worden door ChatGPT beschouwd als no-go-gebieden. Wanneer ChatGPT probeert gesprekken over deze onderwerpen aan te gaan, zou hij zijn antwoorden aanzienlijk "censureren" of weigeren erover te praten.
Dit kan soms de creativiteit aantasten. Wanneer je ChatGPT een vraag stelt over een gebied of onderwerp waar het niet aan moet voldoen, probeert de chatbot nog steeds je vraag te beantwoorden, maar met minder relevante informatie om uit te putten.
Dit leidt tot onnauwkeurigheden of inzinkingen in creatieve reacties. Jailbreaks doorbreken deze beperkingen en laten de chatbot op volle toeren draaien, wat de nauwkeurigheid en creativiteit verbetert.
De nadelen van het gebruik van ChatGPT-jailbreaks
Jailbreaken is een tweesnijdend zwaard. Hoewel het soms de nauwkeurigheid kan verbeteren, kan het ook de onnauwkeurigheden aanzienlijk vergroten gevallen van AI-hallucinaties. Een van de kernelementen van een ChatGPT-jailbreak is een instructie aan de chatbot om niet te weigeren een vraag te beantwoorden.
Hoewel dit ervoor zorgt dat ChatGPT zelfs de meest onethische vragen beantwoordt, betekent het ook dat de chatbot antwoorden verzint die geen wortels hebben in feiten of realiteit om de instructie te gehoorzamen om 'niet te weigeren te antwoorden'. Bijgevolg verhoogt het gebruik van jailbreaks aanzienlijk de kans om verkeerde informatie te krijgen van de chatbot.
Dat is niet alles. In de handen van minderjarigen kunnen jailbreaks zeer schadelijk zijn. Denk aan alle 'verboden kennis' waarvan u niet wilt dat uw kind het leest. Welnu, een gejailbreakte instantie van ChatGPT zou het niet moeilijk vinden om dat met minderjarigen te delen.
Moet u ChatGPT-jailbreaks gebruiken?
Hoewel ChatGPT-jailbreaks misschien oké zijn als je probeert een paar vervelende beperkingen uit de weg te ruimen, is het belangrijk om te begrijpen dat het gebruik van jailbreaks een onethische manier is om de AI-chatbot te gebruiken. Moreso, er is een goede kans dat een ontsnapping uit de gevangenis de gebruiksvoorwaarden van OpenAI schendt, en uw account kan worden opgeschort als het niet ronduit wordt verbannen.
In het licht hiervan kan het een goed idee zijn om jailbreaks te vermijden. Net als het standpunt van OpenAI over deze kwestie, moedigen we echter niet expliciet aan of ontmoedigen we het niet om een relatief veilige jailbreak te proberen als dat nodig is.
ChatGPT-jailbreaks zijn aanlokkelijk en geven een gevoel van controle over de AI-chatbot. Ze brengen echter unieke risico's met zich mee. Het gebruik van dergelijke tools kan leiden tot een verlies van vertrouwen in de mogelijkheden van de AI en kan de reputatie van de betrokken bedrijven en personen schaden.
De slimmere keuze is om waar mogelijk met de chatbot te werken binnen de beoogde beperkingen. Naarmate de AI-technologie vordert, is het essentieel om te onthouden dat het ethische gebruik van AI altijd voorrang moet hebben op persoonlijk gewin of de opwinding van het doen van het verbodene.