AI is niet klaar om ons uit te roeien... nog.
Kunstmatige intelligentie is vanaf het begin een onderwerp van discussie geweest. Hoewel de angst dat een Skynet-achtige AI tot leven komt en de mensheid overneemt irrationeel is, hebben sommige experimenten op zijn zachtst gezegd zorgwekkende resultaten opgeleverd.
Een voorbeeld van zo'n experiment is het paperclip-maximalisatieprobleem, een gedachte-experiment dat aantoont dat een zeer intelligente AI, zelfs als deze volledig zonder boosaardigheid is ontworpen, uiteindelijk de mensheid zou kunnen vernietigen.
Het Paperclip Maximizer-probleem uitgelegd
Dit gedachte-experiment dat zelfs een volkomen ongevaarlijke AI uiteindelijk de mensheid zou kunnen uitroeien, werd eerst de Paperclip Maximizer genoemd, simpelweg omdat paperclips werden gekozen om te laten zien wat de AI zou kunnen doen, aangezien ze weinig gevaar opleveren en geen emotioneel leed veroorzaken in vergelijking met andere gebieden waarop dit probleem van toepassing is, zoals het genezen van kanker of winnen oorlogen.
Het eerste experiment verscheen in het artikel van de Zweedse filosoof Nick Bostrom uit 2003, Ethische kwesties in geavanceerde kunstmatige intelligentie, waaronder de paperclip-maximalisator om de existentiële risico's te tonen die een geavanceerd genoeg AI zou kunnen gebruiken.
Het probleem presenteerde een AI wiens enige doel was om zoveel mogelijk paperclips te maken. Een voldoende intelligente AI zou zich vroeg of laat realiseren dat mensen op drie verschillende punten een uitdaging vormen voor zijn doel.
- Mensen kunnen de AI uitschakelen.
- Mensen kunnen hun doelen veranderen.
- Mensen zijn gemaakt van atomen, die kunnen worden omgezet in paperclips.
In alle drie de voorbeelden zouden er minder paperclips in het universum zijn. Een voldoende intelligente AI dus met als enig doel zoveel mogelijk paperclips te maken zou alle materie en energie binnen handbereik overnemen en voorkomen dat hij of zij wordt afgesloten veranderd. Zoals je waarschijnlijk wel kunt raden, is dit veel gevaarlijker dan criminelen die ChatGPT gebruiken om uw bankrekening of pc te hacken.
De AI staat niet vijandig tegenover mensen; het is gewoon onverschillig. Een AI die alleen geïnteresseerd is in het maximaliseren van het aantal paperclips, zou daarom de mensheid uitroeien en ze in wezen omzetten in paperclips om zijn doel te bereiken.
Hoe is het Paperclip Maximizer-probleem van toepassing op AI?
Onderzoek en experimentele vermeldingen van het paperclip-maximalisatorprobleem noemen allemaal een hypothetische extreem krachtige optimizer of een zeer intelligente agent als de handelende partij hier. Toch is het probleem net zo goed van toepassing op AI als dat het perfect bij de rol past.
Het idee van een paperclip-maximalisator is tenslotte bedacht om enkele van de gevaren van geavanceerde AI te laten zien. Over het algemeen levert het twee problemen op.
- Orthogonaliteitsthese: De orthogonaliteitsthese is de opvatting dat intelligentie en motivatie niet onderling afhankelijk zijn. Dit betekent dat het mogelijk is dat een AI met een hoog niveau van algemene intelligentie niet tot dezelfde morele conclusies komt als mensen.
- Instrumentele convergentie: Instrumentele convergentie wordt gedefinieerd als de neiging voor de meest voldoende intelligente wezens (beide menselijk en niet-menselijk) om vergelijkbare subdoelen na te streven, zelfs als hun uiteindelijke doel volledig zou zijn verschillend. In het geval van het paperclip-maximalisatieprobleem betekent dit dat de AI uiteindelijk alles zal overnemen natuurlijke hulpbron en het uitroeien van de mensheid alleen maar om zijn doel te bereiken om steeds meer te creëren paperclips.
Het grotere probleem dat door de paperclip-maximalisator wordt benadrukt, is instrumentele convergentie. Het kan ook worden benadrukt met behulp van de Riemann-hypothese, in welk geval een AI die is ontworpen om de hypothese op te lossen, heel goed zou kunnen besluiten om alle massa van de aarde en zet het om in computronium (de meest efficiënte computerprocessors mogelijk) om supercomputers te bouwen om het probleem op te lossen en zijn doel te bereiken doel.
Bostrom heeft zelf benadrukt dat hij niet gelooft dat het probleem van de paperclip-maximalisator ooit een reëel probleem zal worden, maar het was zijn bedoeling om de gevaren illustreren van het maken van superintelligente machines zonder te weten hoe ze moeten worden bestuurd of geprogrammeerd om niet existentieel riskant te zijn voor de mens wezens. Moderne AI-systemen zoals ChatGPT hebben ook problemen, maar ze zijn verre van de superintelligente AI-systemen waarover wordt gesproken in het paperclip-maximalisatieprobleem, dus er is nog geen reden tot paniek.
Geavanceerde AI-systemen hebben superieure controle nodig
Het paperclip-maximalisatieprobleem komt altijd tot dezelfde conclusie en benadrukt de problemen van het beheer van een zeer intelligent en krachtig systeem dat menselijke waarden mist.
Hoewel het gebruik van paperclips misschien wel de meest populaire methode is om het probleem te illustreren, is het van toepassing op een willekeurig aantal taken die u uitvoert zou een AI kunnen geven, of het nu gaat om het elimineren van kanker, het winnen van oorlogen, het planten van meer bomen of een andere taak, hoe schijnbaar ook dom.