Experts denken dat AI een einde zal maken aan de mensheid zoals wij die kennen, dus wat wordt er gedaan om te voorkomen dat dit gebeurt?
Opnieuw heeft een groep vooraanstaande AI-onderzoekers en technologiebedrijven gewaarschuwd dat de huidige snelle ontwikkeling van kunstmatige intelligentie rampzalig kan zijn voor de mensheid.
De risico's omvatten nucleaire conflicten, ziekte, verkeerde informatie en op hol geslagen AI zonder toezicht, die allemaal een onmiddellijke bedreiging vormen voor het voortbestaan van de mens.
Maar het zal niet verloren gaan dat veel van die waarschuwingen afkomstig zijn van dezelfde mensen die AI-ontwikkeling leiden en kunstmatige-intelligentietools en -programma's pushen bij hun respectieve bedrijven.
Waarom waarschuwen technologiebedrijven en AI-wetenschappers voor AI-risico's?
Op 30 mei 2023 brachten meer dan 350 AI-onderzoekers, -ontwikkelaars en -technici een medeondertekende verklaring uit waarin ze waarschuwden voor de bedreiging van AI voor de mensheid.
Het verkleinen van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog.
Ondertekenaars van de Safe.ai-verklaring inclusief Sam Altman van OpenAI, Demis Hassabis van Google DeepMind en Dario Amodei van Anthropic, samen met Turing Prijswinnaars Geoffrey Hinton en Yoshua Bengio (hoewel Yann LeCun, die ook dezelfde prijs won, verzuimde te tekenen). De lijst is bijna een who's who van de AI-ontwikkelingswereld - de mensen die voorop lopen met AI - maar hier zijn ze allemaal, waarschuwend dat AI een ramp voor de mensheid kan betekenen.
Het is een korte verklaring die de dreigingen duidelijk maakt, waarbij specifiek twee belangrijke gebieden worden genoemd die de wereld zoals wij die kennen in gevaar kunnen brengen: nucleaire oorlogsvoering en wereldwijde gezondheidsproblemen. Hoewel de dreiging van een nucleair conflict een punt van zorg is, is het risico van een pandemie voor de meesten een tastbaarder bedreiging.
Het is echter niet alleen een wereldwijde pandemie die AI-gerelateerde gezondheidsproblemen kan veroorzaken. De beschermer rapporteert verschillende andere AI-gezondheidsproblemen die van invloed kunnen zijn op mensen als ze niet worden gecontroleerd voordat ze op grote schaal worden gebruikt. Een voorbeeld had betrekking op het gebruik van door AI aangedreven oximeters die "het zuurstofgehalte in het bloed overschatten bij patiënten met een donkere huid, wat resulteerde in onderbehandeling van hun hypoxie".
Bovendien is het niet de eerste keer dat een groep technische leiders oproept tot een pauze of een serieuze herbeoordeling van de ontwikkeling van AI. In maart 2023, Elon Musk en andere AI-onderzoekers ondertekenden een soortgelijke call-to-action een moratorium op de ontwikkeling van AI aanvragen totdat er meer regelgeving kan worden geïmplementeerd om het proces te begeleiden.
Wat is het risico van AI?
De meeste risico's die aan AI zijn verbonden, hebben, althans in deze context, betrekking op de ontwikkeling van op hol geslagen AI-technologie dat de capaciteiten van de mens te boven gaat, waarin het zich uiteindelijk tegen zijn schepper keert en het leven uitroeit zoals we dat kennen Het. Het is een verhaal dat ontelbare keren is behandeld in sciencefictionschrijven, maar de realiteit is nu dichterbij dan we misschien denken.
Grote taalmodellen (die ten grondslag liggen aan tools zoals ChatGPT) nemen drastisch toe in mogelijkheden. Echter, tools zoals ChatGPT hebben veel problemen, zoals inherente vooringenomenheid, zorgen over privacy en AI-hallucinatie, laat staan het vermogen om gejailbreakt te worden om buiten de grenzen van de geprogrammeerde voorwaarden te handelen.
Naarmate grote taalmodellen toenemen en meer datapunten hebben om een beroep op te doen, samen met internettoegang en meer begrip van de huidige gebeurtenissen, vrezen de AI-onderzoekers dat het op een dag, in de woorden van OpenAI-CEO Sam Altman, fout."
Hoe reguleren regeringen de ontwikkeling van AI om risico's te stoppen?
AI-regulering is de sleutel tot het voorkomen van risico's. Begin mei 2023, Sam Altman riep op tot meer AI-regulering, waarin staat dat "regelgevende interventie door regeringen van cruciaal belang zal zijn om de risico's van steeds krachtigere modellen te beperken."
Dan de De Europese Unie heeft de AI-wet aangekondigd, een verordening die is ontworpen om een veel sterker kader te bieden voor de ontwikkeling van AI in de hele EU (waarbij veel regelgeving overloopt naar andere rechtsgebieden). Altman dreigde aanvankelijk om OpenAI uit de EU te halen, maar liep toen zijn dreigement terug en stemde ermee in dat het bedrijf zou voldoen aan de AI-regelgeving waar hij eerder om had gevraagd.
Hoe dan ook, het is duidelijk dat regulering van de ontwikkeling en het gebruik van AI belangrijk is.
Zal AI de mensheid beëindigen?
Aangezien een groot deel van het debat over dit onderwerp is gebaseerd op hypothesen over de kracht van toekomstige versies van AI, zijn er problemen met betrekking tot de levensduur en kracht die elke AI-regelgeving kan hebben. Hoe kunnen we het beste een industrie reguleren die al met snelheden van duizend mijl per minuut beweegt en er dagelijks doorbraken in ontwikkeling plaatsvinden?
Verder bestaat er nog enige twijfel over de mogelijkheden van AI in het algemeen en waar het terecht zal komen. Terwijl degenen die het ergste vrezen erop wijzen dat kunstmatige algemene intelligentie een menselijke opperheer wordt, wijzen anderen op de feit dat de huidige versies van AI niet eens elementaire wiskundige vragen kunnen beantwoorden en dat volledig zelfrijdende auto's nog steeds een manier zijn uit.
Het is moeilijk om het niet eens te zijn met degenen die naar de toekomst kijken. Veel van de mensen die het hardst schreeuwen over de problemen die AI kan opleveren, zitten achter het stuur en kijken waar we naartoe kunnen gaan. Als zij degenen zijn die AI-regulering eisen om ons te beschermen tegen een mogelijk verschrikkelijke toekomst, is het misschien tijd om te luisteren.