De ontwikkeling van AI gaat snel vooruit, maar wie moet AI en de impact ervan op de wereld begeleiden?

Belangrijkste leerpunten

  • AI heeft strengere monitoring nodig, omdat kwetsbaarheden op het gebied van cyberveiligheid en privacyproblemen zich blijven voordoen.
  • De overheid, technologiebedrijven en eindgebruikers hebben allemaal een rol te spelen bij het reguleren van AI, maar elke aanpak heeft zijn beperkingen.
  • Mediakanalen, non-profitorganisaties, verenigingen uit de technische industrie, academische instellingen en wetshandhavingsinstanties dragen ook bij aan de regulering van AI.

Het grote publiek heeft verschillende opvattingen over AI: sommigen geloven dat machines menselijke werknemers volledig zullen vervangen, terwijl anderen beweren dat AI een rage is. Over één ding is iedereen het echter eens: AI heeft strengere monitoring nodig.

Ondanks het belang van AI-regulering is training op de achtergrond komen te staan. Ontwikkelaars zijn zo geobsedeerd door het bouwen van het volgende grootste AI-model dat ze cyberbeveiliging inruilen voor snelle vooruitgang. De vraag is niet of AI regulering nodig heeft; het is welk bestuursorgaan met voldoende financiering, personeel en technologische capaciteit het initiatief zal nemen.

instagram viewer

Dus wie moet AI reguleren?

Overheidsinstanties

Verschillende mensen, van consumenten tot technologieleiders hopen dat de regering AI zal reguleren. Publiek gefinancierde instellingen beschikken over de middelen om dit te doen. Zelfs Elon Musk en Sam Altman, twee hoofdcoureurs van de AI-race, geloven dat sommigen privacyproblemen rond AI zijn te gevaarlijk voor bestuursorganen om over het hoofd te zien.

De overheid moet zich concentreren op het beschermen van de privacy en de burgerlijke vrijheden van haar kiezers als zij de AI-regelgeving overneemt. Cybercriminelen blijven manieren vinden om AI-systemen in hun plannen te misbruiken. Individuen die niet goed thuis zijn in AI kunnen gemakkelijk voor de gek gehouden worden door gesynthetiseerde stemmen, deepfake-video’s en door bots bediende online profielen.

Een groot probleem bij het reguleren van AI door de overheid is echter dat dit onbedoeld innovatie kan belemmeren. AI is een complexe, evoluerende technologie. Tenzij de functionarissen die toezicht houden op de implementatie-, ontwikkelings- en trainingsrichtlijnen begrijpen hoe AI werkt, kunnen ze voorbarige, inefficiënte oordelen vellen.

AI-ontwikkelaars, technologiebedrijven en laboratoria

Gezien de potentiële wegversperringen die zouden kunnen voortvloeien uit het toezicht van de overheid op AI, zouden velen liever hebben dat technologiebedrijven het voortouw nemen in de regelgeving. Ze zijn van mening dat ontwikkelaars verantwoordelijk moeten zijn voor de technologie die ze vrijgeven. Zelfregulering stelt hen in staat innovatie te stimuleren en zich te concentreren op het efficiënt bevorderen van deze systemen.

Bovendien zal hun diepgaande kennis van AI hen helpen eerlijke, geïnformeerde richtlijnen te maken waarin prioriteit wordt gegeven aan de gebruikersveiligheid zonder de functionaliteit in gevaar te brengen. Zoals bij elke technologie stroomlijnt de expertise van de sector de monitoring. Het aanwijzen van ongetrainde functionarissen om technologieën te reguleren die ze nauwelijks begrijpen, zou meer problemen dan voordelen kunnen opleveren.

Neem als voorbeeld de hoorzitting in de Amerikaanse Senaat van 2018 over de gegevensprivacywetten van Facebook. In dit rapport van De WashingtonpostJe zult zien dat veel wetgevers verward raken met de basisfuncties van Facebook. Dus tenzij de Amerikaanse Senaat een enkele afdeling van technologiespecialisten in het leven roept, zijn ze waarschijnlijk niet gekwalificeerd om zo’n geavanceerd, steeds veranderend systeem als AI te reguleren.

Het belangrijkste probleem met technologiebedrijven die zichzelf reguleren, is echter dat duistere bedrijven hun macht zouden kunnen misbruiken. Omdat er geen tussenkomende derde partij is, zijn ze in principe vrij om te doen wat ze willen.

Eindgebruikers

Sommigen vrezen dat de overheid en particuliere entiteiten AI-systemen zullen misbruiken. Ze zijn er niet zeker van of ze een handvol bestuursorganen de volledige controle over zulke krachtige technologieën kunnen geven, vooral omdat AI nog steeds in ontwikkeling is. Ze zouden uiteindelijk kunnen vechten om autoriteit in plaats van te werken aan efficiënte regelgeving.

Om deze risico’s te beperken zijn sceptici van mening dat eindgebruikers de vrije hand verdienen om AI-modellen te gebruiken zoals zij dat willen. Ze zeggen dat overheidsinstanties alleen moeten ingrijpen als AI-gebruikers de wet overtreden. Het is een ambitieus doel, maar het zou technisch gezien kunnen worden bereikt als open-source AI-ontwikkelaars de marktaandelen zouden domineren.

Dat gezegd hebbende, plaatst deze opzet niet-technisch onderlegde individuen in het nadeel. Gebruikers zijn verantwoordelijk voor het instellen van de beperkingen binnen hun systemen. Helaas beschikt niet iedereen over de middelen om dit te doen.

Het is ook kortzichtig om eigen modellen van de markt te halen. De proliferatie van open-source AI-modellen hebben verschillende positieve en negatieve gevolgen; voor sommigen wegen de nadelen zwaarder dan de voordelen.

Andere entiteiten die een rol spelen in de regulering van AI

Hoewel grote entiteiten het voortouw zullen nemen bij de regulering van AI, zijn er instanties die een belangrijke rol spelen:

Mediakanalen spelen een cruciale rol bij het vormgeven van de perceptie van het publiek over AI. Ze rapporteren ontwikkelingen in de sector, delen nieuwe tools, brengen bewustzijn over de schadelijke toepassingen van AI en interviewen experts over relevante zorgen.

De meeste feiten die eindgebruikers over AI weten, komen voornamelijk van de media. Het publiceren van valse gegevens, al dan niet met opzet, zal onomkeerbare schade veroorzaken. Je kunt niet onderschatten hoe snel desinformatie zich verspreidt.

2. Particuliere organisaties

Verschillende non-profitorganisaties houden zich bezig met het beschermen van de privacy en burgerlijke vrijheden van AI-gebruikers. Ze onderwijzen het publiek met gratis middelen, pleiten voor nieuw beleid, werken samen met overheidsfunctionarissen en uiten over het hoofd geziene zorgen.

Het enige probleem met NPO’s is dat ze meestal een tekort aan middelen hebben. Omdat ze geen banden hebben met de overheid, zijn ze voor hun dagelijkse werkzaamheden afhankelijk van particuliere verzoeken en donaties. Helaas krijgen slechts enkele organisaties voldoende financiering.

3. Verenigingen van technische industrieën

Op AI gerichte verenigingen uit de technologiesector kunnen de rechten en belangen van het publiek vertegenwoordigen. Net als NPO's werken ze samen met wetgevers, vertegenwoordigen ze betrokken individuen, pleiten ze voor eerlijk beleid en brengen ze bewustzijn over specifieke kwesties.

Het verschil is echter dat ze vaak banden hebben met particuliere bedrijven. Hun leden doen nog steeds verzoeken, maar krijgen doorgaans voldoende financiering van hun moederorganisaties, zolang ze maar resultaten opleveren.

4. Academische instituties

Hoewel AI verschillende risico’s met zich meebrengt, is het inherent neutraal. Alle vooroordelen, privacykwesties, beveiligingsfouten en potentiële cybercriminaliteit zijn afkomstig van mensen, dus AI op zichzelf is niet iets om bang voor te zijn.

Maar heel weinig mensen begrijpen al hoe moderne AI-modellen werken. Misvattingen vertekenen de perceptie van mensen over AI, waardoor ongegronde angsten in stand worden gehouden, zoals AI die de mensheid overneemt of banen steelt.

Academische instellingen zouden deze leemten in het onderwijs kunnen opvullen met toegankelijke hulpmiddelen. Er zijn nog niet zoveel wetenschappelijke werken over moderne LLM's en NLP-systemen. Het publiek kan AI op een verantwoordere manier gebruiken en cybercriminaliteit bestrijden als het volledig begrijpt hoe het werkt.

5. Wetshandhavingsinstanties

Wetshandhavingsinstanties mogen verwachten dat ze met meer te maken zullen krijgen Cyberaanvallen op basis van AI. Met de proliferatie van generatieve modellen kunnen boeven snel stemmen synthetiseren, deepfake-beelden genereren, persoonlijk identificeerbare informatie (PII), en creëer zelfs geheel nieuwe persona's.

De meeste instanties zijn niet uitgerust om deze misdaden aan te pakken. Ze moeten investeren in nieuwe systemen en hun functionarissen opleiden in moderne cybercriminaliteit; anders zullen ze moeite hebben deze boeven te vangen.

De toekomst van AI-regulering

Gezien het snelle karakter van AI is het onwaarschijnlijk dat één bestuursorgaan er controle over heeft. Ja, technologieleiders zullen meer macht hebben dan consumenten, maar verschillende entiteiten moeten samenwerken om AI-risico’s te beheersen zonder de vooruitgang te belemmeren. Het is het beste om nu controlemaatregelen te nemen nu kunstmatige algemene intelligentie (AGI) nog een ver verwijderd doel is.

Dat gezegd hebbende, is AI-regulering net zo ver weg als AGI. In de tussentijd moeten gebruikers veiligheidspraktijken in acht nemen om AI-gestuurde bedreigingen te bestrijden. Met goede gewoonten, zoals het beperken van het aantal mensen waarmee u online verbinding maakt en het beveiligen van uw digitale PII, komt u al een heel eind.