Het idee dat AI-technologieën gereguleerd moeten worden, is een algemeen gevoel. Daar zijn de meeste overheden, AI-productontwikkelaars en zelfs gewone gebruikers van AI-producten het over eens. Helaas is de beste manier om dit snelgroeiende veld te reguleren een onopgeloste puzzel.

Als er niets aan wordt gedaan, kunnen AI-technologieën onze manier van leven negatief verstoren en ons bestaan ​​bedreigen. Maar hoe kunnen regeringen navigeren door het labyrint van uitdagingen dat gepaard gaat met dit snel evoluerende veld?

1. Regelgeving voor gegevensprivacy en -bescherming

Een van de belangrijkste zorgen met AI-technologieën is de privacy en beveiliging van gegevens. Kunstmatige intelligentiesystemen zijn data-hongerige machines. Ze hebben gegevens nodig om te werken, meer gegevens om efficiënt te zijn en nog meer gegevens om te verbeteren. Hoewel dit geen probleem is, is de manier waarop deze gegevens worden verkregen, de aard ervan en hoe ze worden verwerkt en opgeslagen, een van de grootste discussiepunten rond AI-regelgeving.

instagram viewer

Dit in overweging nemend, is het logische pad dat moet worden gevolgd om strikte regels voor gegevensprivacy in te voeren die van toepassing zijn op gegevens verzameling, opslag en verwerking, evenals de rechten van individuen - wiens gegevens worden gebruikt - op toegang en controle hun gegevens. Vragen die deze regelgeving waarschijnlijk zal behandelen, zijn:

  • Wat voor soort gegevens kunnen worden verzameld?
  • Moeten sommige privégegevens als taboe worden beschouwd in AI?
  • Hoe moeten AI-bedrijven omgaan met gevoelige persoonsgegevens, zoals medische dossiers of biometrische informatie?
  • Moeten AI-bedrijven worden verplicht om mechanismen te implementeren waarmee individuen gemakkelijk kunnen verzoeken om verwijdering of correctie van hun persoonlijke gegevens?
  • Wat zijn de gevolgen voor AI-bedrijven die zich niet houden aan de regelgeving inzake gegevensprivacy? Hoe moet de naleving worden gecontroleerd en hoe moet de handhaving worden gewaarborgd?
  • Misschien wel het allerbelangrijkste: welke standaard moeten AI-bedrijven implementeren om de veiligheid van de gevoelige aard van de informatie die ze bezitten te waarborgen?

Deze vragen en nog enkele andere vormden de kern van waarom ChatGPT tijdelijk werd verboden in Italië. Als deze zorgen niet worden weggenomen, zou de ruimte voor kunstmatige intelligentie een wild west kunnen zijn voor gegevensprivacy, en het verbod van Italië zou een sjabloon kunnen blijken te zijn voor verboden door andere landen over de hele wereld.

2. Ontwikkeling van een ethisch AI-raamwerk

AI-bedrijven scheppen vaak op over hun toewijding aan ethische richtlijnen bij het ontwikkelen van AI-systemen. Althans op papier zijn ze allemaal voorstanders van verantwoorde AI-ontwikkeling. In de media hebben leidinggevenden van Google benadrukt dat het bedrijf de veiligheid en ethiek van AI serieus neemt. Evenzo is "Veilige en ethische AI" een mantra voor de CEO van OpenAI, Sam Altman. Deze zijn zeer toe te juichen.

Maar wie maakt de regels? Wie bepaalt welke AI-ethische richtlijnen goed genoeg zijn? Wie bepaalt hoe veilige AI-ontwikkeling eruitziet? Op dit moment lijkt elk AI-bedrijf zijn eigen draai te geven aan verantwoorde en ethische AI-ontwikkeling. OpenAI, Anthropic, Google, Meta, Microsoft, iedereen. Gewoon vertrouwen op AI-bedrijven om het juiste te doen, is gevaarlijk.

De gevolgen van een ongecontroleerde AI-ruimte kunnen catastrofaal zijn. Individuele bedrijven laten beslissen welke ethische richtlijnen ze moeten aannemen en welke ze moeten negeren, lijkt op slaapwandelen op weg naar een AI-apocalyps. De oplossing? Een duidelijk ethisch AI-kader dat zorgt voor:

  • AI-systemen benadelen of discrimineren individuen of bepaalde groepen niet op oneerlijke wijze op basis van ras, geslacht of sociaaleconomische status.
  • AI-systemen zijn veilig, beveiligd en betrouwbaar en minimaliseren het risico op onbedoelde gevolgen of schadelijk gedrag.
  • AI-systemen worden gebouwd met de bredere maatschappelijke impact van AI-technologieën in het achterhoofd.
  • Dat mensen de uiteindelijke controle over AI-systemen en hun besluitvorming transparant behouden.
  • AI-systemen zijn opzettelijk beperkt op manieren die gunstig zijn voor de mens.

3. Toegewijd regelgevend agentschap

Vanwege de potentiële impact op de menselijke beschaving loopt de discussie over de veiligheid van AI doorgaans parallel met het risico van een gezondheidscrisis of een nucleaire ramp. Om mogelijke nucleaire incidenten te voorkomen, is een speciale instantie nodig, zoals de Amerikaanse NRC (Nuclear Regulatory Commission). Om het risico van gevaarlijke gezondheidscrises te vermijden, is de oprichting van de FDA (Food and Drug Administration) noodzakelijk.

Evenzo, om ervoor te zorgen dat er geen dingen fout gaan in de AI-ruimte, is een toegewijd bureau vergelijkbaar met de FDA en de NRC nodig, aangezien AI agressief doordringt in alle gebieden van ons leven. Helaas is de kwestie van AI-regulering in het land een lastige. Het werk van een specifiek regelgevend agentschap zal waarschijnlijk tergend zwaar zijn zonder grensoverschrijdende samenwerking. Net zoals de NRC (Nuclear Regulatory Commission) van de VS hand in hand moet werken met de International Atomic Energy Agency (IAEA) om op zijn best te zijn, zou elke speciale regelgevende instantie voor AI in een land ook een internationale analoog nodig hebben.

Zo'n bureau zou verantwoordelijk zijn voor het volgende:

  • Ontwikkeling van AI-regelgeving
  • Zorgen voor naleving en handhaving
  • Toezicht houden op het ethische beoordelingsproces van AI-projecten
  • Samenwerking en internationale samenwerking op het gebied van AI-veiligheid en -ethiek

4. Problemen met auteursrecht en intellectueel eigendom aanpakken

Bestaande auteursrechtwetten en juridische kaders brokkelen af ​​in het licht van kunstmatige intelligentie. Door de manier waarop AI-tools, met name generatieve AI-tools, zijn ontworpen, lijken ze op een publiekelijk goedgekeurde machine voor inbreuk op auteursrechten waar je niets aan kunt doen.

Hoe? Welnu, veel van de huidige AI-systemen zijn getraind met behulp van auteursrechtelijk beschermd materiaal. Je weet wel, auteursrechtelijk beschermde artikelen, auteursrechtelijk beschermde liedjes, auteursrechtelijk beschermde afbeeldingen, enz. Dat is hoe tools leuk vinden ChatGPT, Bing AI en Google Bard kunnen de geweldige dingen doen die ze doen.

Hoewel deze systemen duidelijk profiteren van het intellectuele eigendom van mensen, is de manier waarop deze AI-systemen dat doen is niet anders dan een mens die een auteursrechtelijk beschermd boek leest, luistert naar auteursrechtelijk beschermde liedjes of kijkt naar auteursrechtelijk beschermde boeken afbeeldingen.

U kunt een auteursrechtelijk beschermd boek lezen, er nieuwe feiten uit leren en die feiten gebruiken als basis voor uw eigen boek. Je kunt ook naar een auteursrechtelijk beschermd nummer luisteren om inspiratie op te doen om je eigen muziek te maken. In beide gevallen hebt u auteursrechtelijk beschermd materiaal gebruikt, maar dit betekent niet noodzakelijkerwijs dat het afgeleide product inbreuk maakt op het auteursrecht van het origineel.

Hoewel dit een logische verklaring is om de rotzooi die AI van auteursrechtwetten maakt weg te redeneren, schaadt het nog steeds de eigenaren van auteursrechten en intellectueel eigendom. Daarom zijn er voorschriften nodig om:

  • Definieer duidelijk de aansprakelijkheid en verantwoordelijkheden van alle partijen die betrokken zijn bij de levenscyclus van een AI-systeem. Dit omvat het verduidelijken van de rollen van elke partij, van AI-ontwikkelaars tot eindgebruikers, om ervoor te zorgen dat ze verantwoordelijk zijn partijen worden verantwoordelijk gehouden voor elke inbreuk op het auteursrecht of schending van intellectueel eigendom begaan door AI systemen.
  • Versterk bestaande auteursrechtkaders en voer misschien AI-specifieke auteursrechtwetten in.
  • Om innovatie in de AI-ruimte te waarborgen en tegelijkertijd de rechten van de oorspronkelijke makers te beschermen, heeft AI regelgeving moet de concepten van redelijk gebruik en transformerend werk herdefiniëren in de context van Door AI gegenereerde inhoud. Er zijn duidelijkere definities en richtlijnen nodig om ervoor te zorgen dat de AI-ruimte kan blijven verbeteren met inachtneming van de auteursrechtelijke grenzen. Het is essentieel om een ​​evenwicht te vinden tussen innovatie en het behoud van de rechten van makers van inhoud.
  • Duidelijke wegen voor samenwerking met rechthebbenden. Als AI-systemen toch gebruik gaan maken van het intellectueel eigendom van mensen, moeten er duidelijke wegen of kaders zijn voor AI-ontwikkelaars en rechthebbenden om samen te werken, vooral in termen van financiële vergoedingen, als het afgeleide werk van dergelijke intellectuele eigendommen is gecommercialiseerd.

AI-regulering is een broodnodige oplossing

Hoewel kunstmatige intelligentie naar voren is gekomen als een veelbelovende oplossing voor veel van onze maatschappelijke problemen, wordt AI zelf snel een probleem dat dringend moet worden opgelost. Het is tijd om een ​​stapje terug te doen, na te denken en de nodige oplossingen aan te brengen om de positieve impact van AI op de samenleving te waarborgen. We hebben dringend behoefte aan een dringende herijking van onze benadering van het bouwen en gebruiken van AI-systemen.