Met miljoenen ChatGPT-gebruikers vraag je je misschien af ​​wat OpenAI doet met al zijn gesprekken. Analyseert het constant de dingen waarover u praat met ChatGPT?

Het antwoord daarop is: ja, ChatGPT leert van gebruikersinvoer, maar niet op de manier waarop de meeste mensen denken. Hier is een uitgebreide gids waarin wordt uitgelegd waarom ChatGPT gesprekken bijhoudt, hoe het deze gebruikt en of uw beveiliging in gevaar is.

Onthoudt ChatGPT gesprekken?

ChatGPT accepteert geen prompts op het eerste gezicht. Het gebruikt contextueel geheugen om eerdere invoer te onthouden en ernaar te verwijzen, waardoor relevante, consistente antwoorden worden gegarandeerd.

Neem onderstaand gesprek als voorbeeld. Toen we ChatGPT om receptideeën vroegen, werd ons eerdere bericht over pinda-allergieën overwogen.

Hier is het veilige recept van ChatGPT.

Met contextueel geheugen kan AI ook meerstapstaken uitvoeren. De onderstaande afbeelding laat zien dat ChatGPT zijn karakter behoudt, zelfs nadat het een nieuwe prompt heeft ingevoerd.

instagram viewer

ChatGPT kan tientallen instructies binnen gesprekken onthouden. De uitvoer verbetert zelfs in nauwkeurigheid en precisie naarmate u meer context biedt. Zorg ervoor dat u uw instructies expliciet uitlegt.

Beheer ook uw verwachtingen, want het contextuele geheugen van ChatGPT heeft nog steeds beperkingen.

ChatGPT-gesprekken hebben een beperkte geheugencapaciteit

Contextueel geheugen is eindig. ChatGPT heeft beperkte hardwarebronnen, dus het onthoudt slechts tot specifieke punten van huidige gesprekken. Het platform vergeet eerdere prompts zodra u de geheugencapaciteit bereikt.

In dit gesprek hebben we ChatGPT geïnstrueerd om een ​​rollenspel te spelen met een fictief personage genaamd Tomie.

Het begon prompts te beantwoorden als Tomie, niet als ChatGPT.

Hoewel ons verzoek werkte, brak ChatGPT het karakter na ontvangst van een prompt van 1000 woorden.

OpenAI heeft de exacte limieten van ChatGPT nooit bekendgemaakt, maar volgens geruchten kan het slechts 3.000 woorden tegelijk verwerken. In ons experiment werkte ChatGPT al na slechts 2.800+ woorden niet meer.

U kunt uw prompts opsplitsen in twee sets van 1500 woorden, maar ChatGPT onthoudt waarschijnlijk niet al uw instructies. Begin gewoon een nieuwe chat. Anders moet u tijdens uw gesprek specifieke details meerdere keren herhalen.

ChatGPT onthoudt alleen onderwerp-relevante invoer

ChatGPT gebruikt contextueel geheugen om de uitvoernauwkeurigheid te verbeteren. Het bewaart niet alleen informatie om het te verzamelen. Het platform vergeet bijna automatisch irrelevante details, zelfs als je de tokenlimiet nog lang niet hebt bereikt.

In de onderstaande afbeelding proberen we AI te verwarren met verschillende onsamenhangende, irrelevante instructies.

We hielden onze gecombineerde invoer onder de 100 woorden, maar ChatGPT vergat nog steeds onze eerste instructie. Het brak snel het karakter.

Ondertussen bleef ChatGPT tijdens dit gesprek een rollenspel spelen omdat we alleen onderwerprelevante vragen stelden.

In het ideale geval moet elke dialoog een enkelvoudig thema volgen om nauwkeurige, relevante output te behouden. U kunt nog steeds meerdere instructies tegelijk invoeren. Zorg ervoor dat ze overeenkomen met het algemene onderwerp, anders laat ChatGPT mogelijk instructies achter die het niet relevant acht.

Trainingsinstructies overheersen de input van de gebruiker

ChatGPT geeft altijd voorrang aan vooraf bepaalde instructies boven door gebruikers gegenereerde invoer. Het stopt illegale activiteiten door middel van beperkingen. Het platform weigert elke melding die het gevaarlijk of schadelijk acht voor anderen.

Neem rollenspelverzoeken als voorbeeld. Hoewel ze bepaalde beperkingen op het gebied van taal en formulering overschrijven, mag je ze niet gebruiken om ongeoorloofde activiteiten te plegen.

Natuurlijk zijn niet alle beperkingen redelijk. Als rigide richtlijnen het een uitdaging maken om specifieke taken uit te voeren, blijf dan je aanwijzingen herschrijven. Woordkeuze en toon hebben een grote invloed op de output. Je kunt er het meeste inspiratie uit halen effectieve, gedetailleerde aanwijzingen op GitHub.

Hoe bestudeert OpenAI gebruikersgesprekken?

Contextueel geheugen is alleen van toepassing op uw huidige gesprek. De staatloze architectuur van ChatGPT behandelt gesprekken als onafhankelijke instanties; het kan niet verwijzen naar informatie van eerdere. Het starten van nieuwe chats reset altijd de status van het model.

Dit wil niet zeggen dat ChatGPT gebruikersgesprekken onmiddellijk dumpt. Gebruiksvoorwaarden van OpenAI stellen dat het bedrijf input verzamelt van niet-API-consumentendiensten zoals ChatGPT en Dall-E. U kunt zelfs om kopieën van uw chatgeschiedenis vragen.

Terwijl ChatGPT vrij toegang heeft tot gesprekken, Het privacybeleid van OpenAI verbiedt activiteiten die gebruikers in gevaar kunnen brengen. Trainers kunnen uw gegevens alleen gebruiken voor productonderzoek en -ontwikkeling.

Ontwikkelaars zoeken naar achterpoortjes

OpenAI doorzoekt gesprekken op mazen in de wet. Het analyseert gevallen waarin ChatGPT gegevensbias vertoont, schadelijke informatie produceert of helpt bij het plegen van ongeoorloofde activiteiten. De ethische richtlijnen van het platform worden voortdurend herzien.

Bijvoorbeeld de eerste versies van ChatGPT beantwoordde openlijk vragen over het coderen van malware of het maken van explosieven. Deze incidenten gaven gebruikers het gevoel OpenAI heeft geen controle over ChatGPT. Om het vertrouwen van het publiek te herwinnen, trainde het de chatbot om elke vraag te weigeren die in strijd zou kunnen zijn met zijn richtlijnen.

Trainers verzamelen en analyseren gegevens

ChatGPT maakt gebruik van begeleide leertechnieken. Hoewel het platform alle invoer onthoudt, leert het er niet in realtime van. OpenAI-trainers verzamelen en analyseren ze eerst. Dit zorgt ervoor dat ChatGPT nooit de schadelijke, schadelijke informatie die het ontvangt, absorbeert.

Gesuperviseerd leren kost meer tijd en energie dan niet-gesuperviseerde technieken. Het is echter al schadelijk gebleken om AI alleen input te laten analyseren.

Neem Microsoft Tay als voorbeeld, een van de keer dat machine learning fout ging. Omdat het constant tweets analyseerde zonder begeleiding van de ontwikkelaar, hebben kwaadwillende gebruikers het uiteindelijk getraind om racistische, stereotiepe meningen te uiten.

Ontwikkelaars letten voortdurend op vooroordelen

Meerdere externe factoren veroorzaken vooroordelen in AI. Onbewuste vooroordelen kunnen voortkomen uit verschillen in trainingsmodellen, datasetfouten en slecht geconstrueerde restricties. Je ziet ze terug in verschillende AI-toepassingen.

Gelukkig heeft ChatGPT nooit discriminerende of raciale vooroordelen aangetoond. Misschien wel de ergste vooringenomenheid die gebruikers hebben opgemerkt, is de neiging van ChatGPT tot linkse ideologieën, volgens een New York Post rapport. Het platform schrijft meer openlijk over liberale dan over conservatieve onderwerpen.

Om deze vooroordelen op te lossen, verbood OpenAI ChatGPT om politieke inzichten te verstrekken. Het kan alleen algemene feiten beantwoorden.

Moderators beoordelen de prestaties van ChatGPT

Gebruikers kunnen feedback geven over de uitvoer van ChatGPT. U vindt de duim-omhoog- en duim-omlaag-knoppen aan de rechterkant van elke reactie. De eerste duidt op een positieve reactie. Nadat je op de knop 'Vind ik leuk' of 'niet leuk' hebt gedrukt, verschijnt er een venster waarin je feedback in je eigen woorden kunt sturen.

Het feedbacksysteem is nuttig. Geef OpenAI gewoon wat tijd om de opmerkingen te doorzoeken. Miljoenen gebruikers reageren regelmatig op ChatGPT - de ontwikkelaars geven waarschijnlijk prioriteit aan ernstige gevallen van vooroordelen en het genereren van schadelijke output.

Zijn uw ChatGPT-gesprekken veilig?

Gezien het privacybeleid van OpenAI kunt u er zeker van zijn dat uw gegevens veilig blijven. ChatGPT gebruikt alleen conversaties voor datatraining. De ontwikkelaars bestuderen de verzamelde inzichten om de uitvoernauwkeurigheid en betrouwbaarheid te verbeteren, niet om persoonlijke gegevens te stelen.

Dat gezegd hebbende, geen enkel AI-systeem is perfect. ChatGPT is niet inherent bevooroordeeld, maar kwaadwillende personen kunnen nog steeds misbruik maken van de kwetsbaarheden, bijvoorbeeld datasetfouten, onzorgvuldige training en beveiligingslekken. Leer voor uw bescherming deze risico's te bestrijden.