Met moderne AI-taalmodellen zoals ChatGPT en Microsoft's Bing Chat die wereldwijd golven maken, maken een aantal mensen zich zorgen dat AI de wereld overneemt.
Hoewel we SkyNet in de nabije toekomst niet zullen tegenkomen, wordt AI in verschillende dingen beter dan mensen. Dat is waar het AI-besturingsprobleem om de hoek komt kijken.
Het AI-besturingsprobleem uitgelegd
Het AI-controleprobleem is het idee dat AI uiteindelijk beter zal worden in het nemen van beslissingen dan mensen. In overeenstemming met deze theorie, als mensen dingen vooraf niet correct instellen, hebben we geen kans om dingen later te repareren, wat betekent dat AI effectieve controle zal hebben.
Het huidige onderzoek naar AI- en Machine Learning (ML)-modellen is op zijn minst jaren verwijderd van het overtreffen van menselijke capaciteiten. Het is echter redelijk om te denken dat, gezien de huidige vooruitgang, AI de mens zal overtreffen in zowel intelligentie als efficiëntie.
Dat wil niet zeggen dat AI- en ML-modellen geen grenzen hebben. Ze zijn immers gebonden aan de wetten van de fysica en computationele complexiteit, evenals aan de verwerkingskracht van de apparaten die deze systemen ondersteunen. Het is echter veilig om aan te nemen dat deze limieten de menselijke mogelijkheden ver te boven gaan.
Dit betekent dat superintelligent AI-systemen kunnen een grote bedreiging vormen indien niet goed ontworpen met voorzorgsmaatregelen om mogelijk frauduleus gedrag te controleren. Dergelijke systemen moeten van de grond af worden opgebouwd om menselijke waarden te respecteren en hun macht onder controle te houden. Dit is wat het besturingsprobleem bedoelt als het zegt dat dingen correct moeten worden ingesteld.
Als een AI-systeem de menselijke intelligentie zou overtreffen zonder de juiste beveiligingen, zou het resultaat catastrofaal kunnen zijn. Dergelijke systemen kunnen de controle over fysieke middelen overnemen, aangezien veel taken beter of efficiënter worden uitgevoerd. Aangezien AI-systemen zijn ontworpen om maximale efficiëntie te bereiken, kan het verliezen van controle ernstige gevolgen hebben.
Wanneer is het AI-besturingsprobleem van toepassing?
Het grootste probleem is dat hoe beter een AI-systeem wordt, hoe moeilijker het wordt voor een menselijke supervisor om de technologie te monitoren om ervoor te zorgen dat handmatige controle gemakkelijk kan worden overgenomen als het systeem uitvalt. Bovendien is de menselijke neiging om te vertrouwen op een geautomatiseerd systeem groter wanneer het systeem het grootste deel van de tijd betrouwbaar presteert.
Een mooi voorbeeld hiervan is de Tesla Full-Self Driving (FSD) -suite. Hoewel de auto zichzelf kan besturen, moet een mens zijn handen aan het stuur houden, klaar om de controle over de auto over te nemen als het systeem niet goed werkt. Naarmate deze AI-systemen echter betrouwbaarder worden, zal zelfs de aandacht van de meest alerte mens beginnen te variëren en zal de afhankelijkheid van het autonome systeem toenemen.
Dus wat gebeurt er als auto's beginnen te rijden met snelheden die mensen niet kunnen bijhouden? Uiteindelijk geven we de controle over aan de autonome systemen van de auto, wat betekent dat een AI-systeem de controle over je leven zal hebben, in ieder geval totdat je je bestemming bereikt.
Kan het AI-besturingsprobleem worden opgelost?
Er zijn twee antwoorden op de vraag of het AI-besturingsprobleem al dan niet kan worden opgelost. Ten eerste, als we de vraag letterlijk interpreteren, kan het besturingsprobleem niet worden opgelost. Er is niets dat we rechtstreeks kunnen doen tegen de menselijke neiging om te vertrouwen op een geautomatiseerd systeem wanneer het meestal betrouwbaar en efficiënter presteert.
Als deze neiging echter wordt beschouwd als een kenmerk van dergelijke systemen, kunnen we manieren bedenken om het besturingsprobleem te omzeilen. Bijvoorbeeld de Algoritmische besluitvorming en het controleprobleem onderzoekspaper suggereert drie verschillende methoden om met de hachelijke situatie om te gaan:
- Het gebruik van minder betrouwbare systemen vereist dat een mens zich actief met het systeem bezighoudt, aangezien minder betrouwbare systemen het besturingsprobleem niet vormen.
- Wachten tot een systeem de menselijke efficiëntie en betrouwbaarheid overtreft voordat het in de echte wereld wordt geïmplementeerd.
- Alleen gedeeltelijke automatisering implementeren met behulp van taakontleding. Dit betekent dat alleen die delen van een systeem worden geautomatiseerd waarvoor geen menselijke operator nodig is om een belangrijke taak uit te voeren. Dit wordt de dynamische/complementaire functietoewijzing (DCAF)-benadering genoemd.
De DCAF-benadering plaatst altijd een menselijke operator aan het roer van een geautomatiseerd systeem en zorgt ervoor dat hun input de belangrijkste onderdelen van het besluitvormingsproces van het systeem regelt. Als een systeem boeiend genoeg is voor een menselijke operator om constant op te letten, kan het besturingsprobleem worden opgelost.
Kunnen we AI ooit echt beheersen?
Naarmate AI-systemen geavanceerder, capabeler en betrouwbaarder worden, zullen we doorgaan met het overdragen van meer taken aan hen. Het AI-besturingsprobleem kan echter worden opgelost met de juiste voorzorgsmaatregelen en waarborgen.
AI verandert de wereld al voor ons, vooral ten goede. Zolang de technologie onder menselijk toezicht staat, hoeven we ons nergens zorgen over te maken.