Het is nieuwer maar langzamer. Wat geeft?

Met de nieuwste versie van ChatGPT, GPT-4, uitgebracht in maart 2023, vragen velen zich nu af waarom het zo traag is in vergelijking met zijn voorganger, GPT-3.5. Dus, wat is hier de belangrijkste reden?

Waarom is ChatGPT-4 zo traag en moet je je in plaats daarvan aan GPT-3.5 houden?

Wat is ChatGPT-4?

ChatGPT-4 is het nieuwste model van De chatbot van OpenAI, algemeen bekend als ChatGPT. ChatGPT wordt aangedreven door kunstmatige intelligentie, waardoor het uw vragen en prompts veel beter kan beantwoorden dan eerdere chatbots. ChatGPT gebruikt een groot taalmodel dat wordt aangedreven door een GPT (Generative Pre-trained Transformer) om gebruikers informatie en inhoud te bieden en tegelijkertijd te kunnen converseren.

ChatGPT heeft een breed scala aan mogelijkheden, waardoor het nuttig is voor miljoenen. ChatGPT kan bijvoorbeeld verhalen schrijven, grappen formuleren, tekst vertalen, gebruikers opleiden en meer. Hoewel ChatGPT ook kan worden gebruikt voor meer ongeoorloofde handelingen, zoals

instagram viewer
creatie van malware, zijn veelzijdigheid is enigszins revolutionair.

Het GPT-4-model van ChatGPT werd uitgebracht op 14 maart 2023. Deze versie van ChatGPT is ontworpen om emotionele taal via tekst beter te begrijpen en tegelijkertijd verschillende taaldialecten en beeldverwerking beter te begrijpen. GPT-4 kan ook langere gesprekken voeren en effectief reageren op langere gebruikersprompts.

Bovendien overtreffen de parameters van GPT-4 die van GPT-3.5 in grote mate. De parameters van ChatGPT bepalen hoe de AI informatie verwerkt en erop reageert. Kortom, parameters bepalen de vaardigheid die de chatbot heeft om met gebruikers te communiceren. Terwijl GPT-3.5 175 miljard parameters heeft, heeft GPT-4 een ongelooflijke 100 biljoen tot 170 biljoen (geruchten - OpenAI heeft dit cijfer niet bevestigd).

Het was OpenAI's GPT-3.5 die werd gebruikt om ChatGPT aan te drijven, wat nu de populairste AI-chatbot ter wereld is. GPT-3.5 heeft dus een onmiskenbaar stempel gedrukt op het AI-rijk. Maar dingen gaan altijd vooruit in de technische industrie, dus het is geen verrassing dat GPT-3.5 nu een opvolger heeft in GPT-4.

GPT-4 is echter zeker niet perfect. De lange reactietijden van GPT-4 zorgen zelfs voor veel opschudding. Laten we dus eens kijken naar dit probleem en waarom het kan gebeuren.

ChatGPT-4 is traag

Velen merkten bij de release van GPT-4 dat de nieuwe chatbot van OpenAI ongelooflijk traag was. Hierdoor raakten tientallen gebruikers gefrustreerd, aangezien GPT-4 bedoeld was als een stap hoger dan GPT-3.5, niet achteruit. Als gevolg hiervan zijn GPT-4-gebruikers naar online platforms gegaan, zoals Reddit en het communityboard van OpenAI, om het probleem te bespreken.

Op OpenAI's communityforum, hebben een aantal gebruikers hun frustraties over GPT-4-vertragingen naar voren gebracht. Eén gebruiker verklaarde dat GPT-4 aan hun kant "extreem traag" was en dat zelfs kleine verzoeken aan de chatbot resulteerden in ongewoon lange vertragingen van meer dan 30 seconden.

Andere gebruikers deelden snel hun ervaringen met GPT-4, met een opmerking onder het bericht dat "hetzelfde gesprek met dezelfde gegevens tot 4 keer langzamer kan duren dan 3,5 turbo."

In een andere OpenAI Community Forum-post, merkte een gebruiker op dat hun prompts soms worden beantwoord met een "fout in bodystream" bericht, resulterend in geen reactie. In dezelfde thread verklaarde een andere persoon dat ze GPT-4 niet zover konden krijgen om "met succes te reageren met een complete script." Een andere gebruiker merkte op dat ze steeds tegen netwerkfouten aanliepen terwijl ze probeerden te gebruiken GPT-4.

Met vertragingen en mislukte of halfbakken reacties lijkt het erop dat GPT-4 bezaaid is met problemen die gebruikers snel afschrikken.

Dus waarom gebeurt dit precies? Is er iets mis met GPT-4?

Waarom is GPT-4 traag in vergelijking met GPT-3.5?

In het OpenAI Community Forum-bericht waarnaar hierboven wordt verwezen, antwoordde een gebruiker dat de vertraging te wijten was aan een "huidig ​​​​probleem met de hele infrastructuur overload", eraan toevoegend dat het een uitdaging is om "schaalbaarheid in zo'n kort tijdsbestek aan te pakken met deze populariteit en dit aantal gebruikers van zowel chat als Api."

In een Reddit-bericht geüpload in de subreddit r/singularity, legde een gebruiker enkele mogelijke redenen voor de traagheid van GPT-4 uit, te beginnen met een grotere contextomvang. Binnen het GPT-ecosysteem verwijst contextgrootte naar hoeveel informatie een bepaalde chatbotversie kan verwerken en vervolgens informatie kan produceren. Terwijl de contextgrootte van GPT-3.5 4K was, is die van GPT-4 het dubbele. Het hebben van een contextgrootte van 8K kan dus van invloed zijn op de algehele snelheden van GPT-4.

De Reddit-auteur suggereerde ook dat de verbeterde bestuurbaarheid en controle van GPT-4 een rol zou kunnen spelen in de verwerkingstijden van de chatbot. Hier verklaarde de auteur dat GPT-4's grotere bestuurbaarheid en beheersing van hallucinaties en ongepast is taal kan de boosdoener zijn, omdat deze functies extra stappen toevoegen aan de verwerkingsmethode van GPT-4 informatie.

Bovendien werd voorgesteld dat het vermogen van GPT-4 om afbeeldingen te verwerken de zaken zou kunnen vertragen. Deze handige functie is bij velen geliefd, maar er kan een addertje onder het gras zitten. Aangezien het gerucht gaat dat GPT-4 10-20 seconden nodig heeft om een ​​verstrekte afbeelding te verwerken, bestaat de kans dat dit onderdeel verlengt de responstijden (hoewel dit niet de vertragingen verklaart die gebruikers ervaren door alleen tekstprompts te geven).

Andere gebruikers hebben gesuggereerd dat de nieuwheid van ChatGPT-4 een grote rol speelt bij deze vertragingen. Met andere woorden, sommigen denken dat de nieuwste chatbot van OpenAI wat groeipijnen moet doormaken voordat alle gebreken kunnen worden verholpen.

Maar de grootste reden waarom GPT-4 traag is, is het aantal parameters waarop GPT-4 een beroep kan doen in vergelijking met GPT-3.5. De fenomenale toename van parameters betekent simpelweg dat het nieuwere GPT-model meer tijd nodig heeft om informatie te verwerken en te reageren nauwkeurig. U krijgt betere antwoorden met een grotere complexiteit, maar het duurt iets langer om daar te komen.

Moet u GPT-3.5 verkiezen boven GPT-4?

Dus, met deze problemen in gedachten, zou u moeten gebruiken GPT-3.5 of GPT-4?

Op het moment van schrijven lijkt het erop dat GPT-3.5 de snellere optie is dan GPT-4. Zoveel gebruikers hebben vertragingen ondervonden dat het tijdsprobleem waarschijnlijk over de hele linie aanwezig is, niet alleen bij een paar individuen. Dus als ChatGPT-3.5 op dit moment aan al je verwachtingen voldoet en je niet wilt wachten op een reactie in ruil voor extra functies, is het misschien verstandig om voorlopig bij deze versie te blijven.

Houd er echter rekening mee dat GPT-4 niet alleen GPT-3.5 is, maar ook langzamer. Deze versie van de chatbot van OpenAI heeft tal van voordelen ten opzichte van zijn voorganger. Als je op zoek bent naar een meer geavanceerde AI-chatbot en het niet erg vindt om langer op reacties te wachten, kan het de moeite waard zijn om over te stappen van GPT-3.5 naar GPT-4.

Na verloop van tijd kunnen de vertragingen van GPT-4 worden verminderd of volledig worden opgelost, dus geduld kan hier een schone zaak zijn. Of je nu probeert over te stappen naar GPT-4 of nog wat langer wacht om te zien hoe het afloopt met deze versie, je kunt nog steeds veel halen uit de handige kleine chatbot van OpenAI.

GPT-4 is geavanceerder maar heeft een vertraging

Hoewel GPT-4 tal van geavanceerde mogelijkheden heeft ten opzichte van GPT-3.5, hebben de aanzienlijke vertragingen en responsfouten het voor sommigen onbruikbaar gemaakt. Deze problemen kunnen in de nabije toekomst worden opgelost, maar voorlopig moet GPT-4 zeker enkele obstakels overwinnen voordat het op grotere schaal wordt geaccepteerd.