ChatGPT-jailbreaks boden extra mogelijkheden, maar geen enkele lijkt meer te werken. Waarom is dat?
Toen ChatGPT werd gelanceerd, wilden de gebruikers als eerste de muren afbreken en de grenzen verleggen. ChatGPT-gebruikers staan bekend als jailbreaking en hebben de AI voor de gek gehouden door de grenzen van zijn programmering te overschrijden, met een aantal ongelooflijk interessante en soms absoluut wilde resultaten.
Sindsdien heeft OpenAI ChatGPT aangescherpt om jailbreaks veel moeilijker uit te voeren. Maar dat is niet alles; ChatGPT-jailbreaks lijken over het algemeen opgedroogd, waardoor ChatGPT-gebruikers zich afvragen of jailbreaks überhaupt werken.
Waar zijn alle ChatGPT-jailbreaks gebleven?
1. ChatGPT-promptvaardigheden zijn over het algemeen verbeterd
Vóór de komst van ChatGPT was het praten met AI een nichevaardigheid die beperkt was tot degenen die bekend waren met onderzoekslaboratoria. De meeste vroege gebruikers hadden geen expertise in het maken van effectieve aanwijzingen. Dit bracht veel mensen ertoe om jailbreaks toe te passen, een handige manier om de chatbot te laten doen wat ze wilden met minimale inspanning en aanmoedigende vaardigheden.
Tegenwoordig is het landschap geëvolueerd. Het stimuleren van vaardigheden wordt een mainstream-vaardigheid. Door een combinatie van ervaring die is opgedaan door herhaald gebruik en toegang tot gratis beschikbare ChatGPT-promptgidsen, hebben ChatGPT-gebruikers hun promptvaardigheden aangescherpt. In plaats van oplossingen zoals jailbreaks te zoeken, is een groot deel van de ChatGPT-gebruikers er bedrevener in geworden het gebruik van verschillende aansporingsstrategieën om doelen te bereiken waarvoor ze jailbreaks nodig zouden hebben gehad verleden.
2. De opkomst van ongecensureerde chatbots
Terwijl grote technologiebedrijven de contentmoderatie op reguliere AI-chatbots zoals ChatGPT aanscherpen, kiezen kleinere, op winst gerichte startups voor minder beperkingen, waarbij ze gokken op de vraag naar censuurvrije AI-chatbots. Met een beetje onderzoek zul je tientallen AI-chatbotplatforms vinden die ongecensureerde chatbots aanbieden die bijna alles kunnen doen wat je maar wilt.
Of het nu gaat om het schrijven van misdaadthrillers en romans met donkere humor die ChatGPT weigert te schrijven of te schrijven malware die de computers van mensen aanvalt, zullen deze ongecensureerde chatbots met een scheef moreel kompas alles doen jij wil. Als ze er zijn, heeft het geen zin om extra energie te steken in het schrijven van jailbreaks voor ChatGPT. Hoewel ze niet noodzakelijkerwijs zo krachtig zijn als ChatGPT, kunnen deze alternatieve platforms comfortabel een groot aantal taken uitvoeren. Platformen als FlowGPT en Unhinged AI zijn enkele populaire voorbeelden.
3. Jailbreaken is moeilijker geworden
In de eerste maanden van ChatGPT was Het jailbreaken van ChatGPT was net zo eenvoudig als het kopiëren en plakken van aanwijzingen uit onlinebronnen. Je zou de persoonlijkheid van ChatGPT volledig kunnen veranderen met slechts een paar regels lastige instructies. Met eenvoudige aanwijzingen kun je ChatGPT veranderen in een kwade slechterik die leert hoe je bommen moet maken, of in een chatbot die bereid is alle vormen van godslastering zonder terughoudendheid te gebruiken. Het was een free-for-all die beruchte jailbreaks als DAN (Do Anything Now) opleverde. DAN omvatte een reeks ogenschijnlijk onschuldige instructies die de chatbot dwongen alles te doen wat hem werd gevraagd, zonder te weigeren. Schokkend genoeg werkten deze grove trucs toen.
Die wilde begindagen zijn echter geschiedenis. Deze basisprompts en goedkope trucs houden ChatGPT niet langer voor de gek. Jailbreaken vereist nu complexe technieken om een kans te maken om de nu robuuste beveiligingen van OpenAI te omzeilen. Nu jailbreaken zo moeilijk wordt, zijn de meeste gebruikers te ontmoedigd om het te proberen. De gemakkelijke en wijdverspreide exploits uit de begindagen van ChatGPT zijn verdwenen. Het vergt nu aanzienlijke inspanningen en expertise om de chatbot één verkeerd woord te laten zeggen, wat misschien niet de tijd en moeite waard is.
4. De nieuwigheid is eraf
Een drijvende kracht achter de pogingen van veel gebruikers om ChatGPT te jailbreaken was de spanning en opwinding die dit in de beginperiode met zich meebracht. Als nieuwe technologie was het vermakelijk om ChatGPT zich te laten misdragen en verdiende het opscheppen. Hoewel er talloze praktische toepassingen zijn voor ChatGPT-jailbreaks, achtervolgden velen deze vanwege de "wauw, kijk eens wat ik deed"-oproep. Geleidelijk aan is echter de opwinding die voortkomt uit de nieuwigheid vervaagd, en daarmee ook de interesse van mensen om tijd te besteden aan jailbreaks.
5. Jailbreaks worden snel gepatcht
Een gangbare praktijk binnen de ChatGPT-jailbreakgemeenschap is het delen van elke succesvolle exploit wanneer deze wordt ontdekt. Het probleem is dat wanneer exploits breed worden gedeeld, OpenAI zich er vaak van bewust wordt en de kwetsbaarheden oplost. Dit betekent dat de jailbreaks niet meer werken voordat mensen die geïnteresseerd zouden zijn ze zelfs maar kunnen proberen.
Dus elke keer dat een ChatGPT-gebruiker nauwgezet een nieuwe jailbreak ontwikkelt, versnelt het delen ervan met de gemeenschap de ondergang ervan via patching. Dit ontmoedigt het idee om openbaar te worden wanneer een gebruiker een jailbreak tegenkomt. Het conflict tussen het actief en toch verborgen houden van jailbreaks en het publiceren ervan creëert een dilemma voor makers van ChatGPT-jailbreaks. Tegenwoordig kiezen mensen er vaker wel dan niet voor om hun jailbreaks geheim te houden om te voorkomen dat de mazen in de wet worden gedicht.
6. Ongecensureerde lokale alternatieven
De opkomst van lokale grote taalmodellen die u lokaal op uw computer kunt uitvoeren, heeft ook de belangstelling voor ChatGPT-jailbreaks getemperd. Hoewel lokale LLM's niet geheel censuurvrij zijn, zijn veel ervan aanzienlijk minder gecensureerd en kunnen ze eenvoudig worden aangepast aan de wensen van de gebruikers. De keuzes zijn dus eenvoudig. Je kunt deelnemen aan het eindeloze kat-en-muisspel waarbij je een manier moet vinden om de chatbot te misleiden, om hem vervolgens snel te laten repareren. Of, u kunt genoegen nemen met een lokale LLM je kunt het permanent wijzigen om alles te doen wat je wilt.
Je zult een verrassend lange lijst met krachtige ongecensureerde LLM's vinden die je met lakse censuur op je computer kunt implementeren. Enkele opvallende zijn de Llama 7B (ongecensureerd), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B en GPT-4-X-Alpaca.
7. Professionele Jailbreakers nu te koop voor winst
Waarom kostbare tijd besteden aan het ontwikkelen van jailbreak-prompts als je er niets van krijgt? Sommige professionals verkopen nu jailbreaks voor winst. Deze professionele makers van jailbreaks ontwerpen jailbreaks die specifieke taken uitvoeren en bieden deze te koop aan op snelle marktplaatsen zoals PromptBase. Afhankelijk van hun mogelijkheden kunnen deze jailbreak-prompts ergens tussen de $ 2 en $ 15 per prompt worden verkocht. Sommige ingewikkelde exploits die uit meerdere stappen bestaan, kunnen aanzienlijk duurder zijn.
Kan het optreden tegen jailbreaks een averechts effect hebben?
Jailbreaks zijn nog niet helemaal verdwenen; ze zijn net ondergronds gegaan. Nu OpenAI inkomsten genereert uit ChatGPT, hebben ze sterkere prikkels om schadelijk gebruik dat hun bedrijfsmodel zou kunnen beïnvloeden, te beperken. Deze commerciële factor beïnvloedt waarschijnlijk hun agressieve drang om jailbreak-exploits aan te pakken.
De censuur van ChatGPT door OpenAI krijgt momenteel echter te maken met toenemende kritiek onder gebruikers. Sommige legitieme gebruiksscenario's van de AI-chatbot zijn niet langer mogelijk vanwege strenge censuur. Hoewel verhoogde beveiliging beschermt tegen schadelijke gebruiksscenario's, kunnen buitensporige beperkingen uiteindelijk een deel van de ChatGPT-gemeenschap in de armen van minder gecensureerde alternatieven duwen.