De nieuwste innovaties rond op AI gebaseerde technologie verleggen de grenzen van wat we ooit dachten dat mogelijk was met AI. Echter, met chatbots zoals ChatGPT en Bing Chat die bijna net zo goed worden als mensen in verschillende dingen, is het tijd om even op de rem te trappen?
Elon Musk en verschillende AI-onderzoekers behoren tot de 1.188 mensen (op het moment van schrijven) die er zo over denken. Een brief gepubliceerd door het non-profit Future of Life-instituut roept op tot een pauze van zes maanden om AI-technologieën beter te trainen dan GPT 4, maar is een pauze echt nodig?
Waar gaat de open brief over de toekomst van het leven over?
De brief gepubliceerd door het Future of Life instituut wijst erop dat AI-labs "vastzitten in een uit de hand gelopen race" om meer en meer te ontwikkelen en in te zetten krachtigere AI-modellen die niemand, inclusief hun makers, "kan begrijpen, voorspellen of betrouwbaar is controle".
Het wijst er ook op dat hedendaagse AI-systemen nu mens-competitief worden bij algemene taken en vragen of we "niet-menselijke geesten moeten ontwikkelen die uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald en vervangen kunnen worden ons".
De brief roept uiteindelijk alle AI-labs op om de training van AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor minimaal zes maanden te onderbreken. De pauze moet ook openbaar en verifieerbaar zijn voor alle belangrijke actoren. Het stelt ook dat als een dergelijke pauze niet snel kan worden afgedwongen, overheden moeten ingrijpen om AI-modeltraining tijdelijk te verbieden.
Zodra de pauze actief is, wordt AI-labs en onafhankelijke experts gevraagd om deze te gebruiken om samen een "gedeelde set beveiligingsprotocollen" om ervoor te zorgen dat systemen die zich aan deze regels houden "veiliger zijn dan redelijk twijfel".
Deze brief is ondertekend door een flink aantal bekende persoonlijkheden, waaronder Elon Musk, Steve Wozniak en AI-onderzoekers en -auteurs. In feite is de lijst met ondertekenaars momenteel onderbroken vanwege de grote vraag.
Wat zijn de zorgen van Musk over geavanceerde AI-technologie en OpenAI?
Hoewel het ondertekenen van de brief van Future of Life erop kan wijzen dat Musk zich zorgen maakt over de veiligheidsrisico's die dergelijke geavanceerde AI-systemen met zich meebrengen, kan de echte reden iets anders zijn.
Musk was mede-oprichter van OpenAI met de huidige CEO Sam Altman in 2015 als een non-profitorganisatie. Hij botste echter later in 2018 met Altman nadat hij zich realiseerde dat hij niet blij was met de voortgang van het bedrijf. Musk wilde naar verluidt het roer overnemen om de ontwikkeling te versnellen, maar Altman en het OpenAI-bestuur schoten het idee af.
Musk liep kort daarna weg bij OpenAI en nam zijn geld mee, waarbij hij zijn belofte brak om 1 miljard aan financiering bij te dragen en slechts 100 miljoen te geven voordat hij vertrok. Dit dwong OpenAI om kort daarna in maart 2019 een particulier bedrijf te worden om geld in te zamelen om zijn onderzoek voort te zetten.
Een andere reden waarom Musk vertrok, was dat de AI-ontwikkeling bij Tesla in de toekomst voor belangenverstrengeling zou zorgen. Het is voor de hand liggend dat Tesla geavanceerde AI-systemen nodig heeft om het aan te drijven Volledige zelfrijdende functies. Sinds Musk OpenAI verliet, is het bedrijf er vandoor gegaan met de lancering van zijn AI-modellen GPT3.5-aangedreven ChatGPT in 2022 en later gevolgd door GPT-4 in maart 2023.
Het feit dat het AI-team van Musk bij lange na niet in de buurt komt van OpenAI, moet worden verantwoord telkens wanneer hij zegt dat moderne AI-modellen risico's kunnen opleveren. Hij had ook geen problemen de uitrol van de Tesla Full Self-Driving-bèta op de openbare weg, waardoor gewone Tesla-stuurprogramma's in wezen bètatesters worden.
Ook hier houdt het niet op. Musk is ook nogal kritisch geweest over OpenAI op Twitter, waarbij Altman zelfs zo ver ging om te zeggen dat hij ze aanvalt terwijl hij onlangs op de podcast "On with Kara Swisher" verscheen.
Op dit moment lijkt het erop dat Musk de Future of Life-brief alleen maar gebruikt om de ontwikkeling bij OpenAI en elk ander bedrijf dat zijn achterstand inhaalt, te stoppen naar GPT-4 om zijn bedrijven een kans te geven om bij te praten in plaats van zich echt zorgen te maken over de potentiële gevaren van deze AI-modellen houding. Merk op dat in de brief ook wordt gevraagd om het "trainen" van AI-systemen zes maanden te pauzeren, wat relatief eenvoudig kan worden omzeild om ze in de tussentijd verder te ontwikkelen.
Is een pauze echt nodig?
De noodzaak van een pauze hangt af van de toekomstige status van AI-modellen. De brief is zeker een beetje dramatisch van toon, en we lopen niet het risico de controle over onze beschaving te verliezen aan AI, zoals zo openlijk wordt beweerd. Dat gezegd hebbende, AI-technologieën vormen een aantal bedreigingen.
Aangezien OpenAI en andere AI-labs met betere veiligheidscontroles kunnen komen, zou een pauze meer kwaad dan goed doen. De suggestie in de brief van een reeks gedeelde veiligheidsprotocollen die "rigoureus worden gecontroleerd en gecontroleerd door onafhankelijke externe experts" klinkt echter als een goed idee.
Met technische reuzen als Google en Microsoft die miljarden steken in AI-ontwikkeling en integratie in hun producten, is het onwaarschijnlijk dat de brief het huidige tempo van AI-ontwikkeling zal beïnvloeden.
AI is er om te blijven
Met techreuzen die de integratie van AI in hun producten verder pushen en miljarden dollars steken in onderzoek en ontwikkeling, is AI er om te blijven, ongeacht wat de oppositie zegt.
Maar het is geen slecht idee om veiligheidsmaatregelen te nemen om te voorkomen dat deze technologieën ontsporen en mogelijk in instrumenten voor schade veranderen.