Kunstmatige intelligentie (AI) heeft het menselijke niveau nog niet bereikt. Maar met technologie die de kloof elk jaar meer en meer dichtt, zijn er veel ethische problemen ontstaan.

Een belangrijke vraag is: in hoeverre zal kunstmatige intelligentie op mensen lijken? Zullen ze voor zichzelf denken of verlangens en emoties hebben? Moeten ze wettelijke rechten hebben zoals mensen? Moeten ze gedwongen worden om te werken, of moeten ze verantwoordelijk zijn als er iets misgaat?

In dit artikel gaan we dieper in op deze vragen en meer.

AI-ethiek: waarom ze belangrijk zijn om over na te denken

AI en machine-ethiek zijn twee verwante gebieden die steeds meer aan kracht winnen. Ze hebben betrekking op verschillende belangrijke aspecten van technologie, waaronder hoe we machines ontwerpen, gebruiken en behandelen. De meeste van deze kwesties hebben betrekking op veiligheidsproblemen met betrekking tot mensen.

De AI-ethiek begint echter voorbij deze fundamentele problemen te gaan en naar meer controversieel terrein te gaan. Stel je voor dat er in de komende decennia een superintelligente AI wordt ontwikkeld die potentieel bewust is en verlangens, gevoelens uitdrukt of lijden kan ervaren. Omdat we niet eens zeker weten wat het menselijk bewustzijn is of hoe het ontstaat, is het niet zo vergezocht als het oorspronkelijk klinkt.

instagram viewer

Hoe zouden we een dergelijke AI definiëren en behandelen? En wat zijn enkele van de ethische problemen waarmee we momenteel worden geconfronteerd met ons huidige niveau van AI?

Laten we eens kijken naar enkele van de ethische dilemma's waarmee we worden geconfronteerd.

Moet AI het staatsburgerschap krijgen?

In 2017 verleende de Saoedi-Arabische regering het volwaardige burgerschap aan Sophia: een van de meest levensechte AI-gestuurde robots ter wereld. Sophia kan deelnemen aan een gesprek en kan 62 menselijke gezichtsuitdrukkingen nabootsen. Sophia is de eerste niet-mens die een paspoort heeft en de eerste die een creditcard heeft.

De beslissing om Sophia een burger te maken is controversieel. Sommigen beschouwen het als een stap vooruit. Zij vinden het belangrijk dat mensen en toezichthouders meer aandacht gaan besteden aan vraagstukken op dit gebied. Anderen beschouwen het als een aantasting van de menselijke waardigheid en stellen dat de AI nog niet dicht bij mens is - en dat de samenleving als geheel niet klaar is voor robotburgers.

Het debat wordt verhit door de rechten en plichten die burgers worden geboden. Deze omvatten het kunnen stemmen, belasting betalen, trouwen en kinderen krijgen. Als Sophia mag stemmen, wie stemt er dan eigenlijk? Zou het, met de huidige staat van AI, liever haar maker zijn die stemt? Een andere schrijnende kritiek is dat Sophia meer rechten heeft gekregen dan de vrouwen en migrerende werknemers van Saoedi-Arabië.

AI en IP: moeten ze de rechten bezitten op wat ze creëren?

Discussies rond intellectueel eigendom (IP) en privacybezorgdheden hebben een recordhoogte bereikt, en nu is er een andere zorg. AI wordt steeds vaker gebruikt om inhoud te ontwikkelen, ideeën te produceren en andere acties uit te voeren die onderworpen zijn aan IE-wetten. The Washington Post bracht bijvoorbeeld Heliograf uit in 2016; een AI-reporter die in het eerste jaar bijna duizend artikelen ontwikkelde. Verschillende industrieën gebruiken AI ook om enorme hoeveelheden gegevens te doorzoeken en nieuwe producten te ontwikkelen, zoals de farmaceutische industrie.

Momenteel wordt AI beschouwd als een hulpmiddel; alle IP- en wettelijke rechten worden verleend aan de eigenaar. Maar de EU overwoog eerder om een ​​derde entiteit op te richten, een "elektronische persoonlijkheid", die een juridische entiteit zou worden in de ogen van de IE-wetgeving.

Sommigen beweren dat als de eigenaar van de machine geen IP krijgt, er geen prikkel zal zijn om "creatieve" AI te bouwen. Als het IP naar de AI ging, waarom zou iemand ze dan ontwikkelen? En daarom denken ze dat er een gebrek aan innovatie zal zijn.

AI en de toekomst van werk

De rol van AI in het werk is een beetje een raadsel. In de afgelopen jaren hebben we het controversiële gebruik van AI gezien bij het aannemen en ontslaan van algoritmen waar de AI was onbedoeld bevooroordeeld ten opzichte van bepaalde demografische gegevens. AI vervangt ook geleidelijk steeds hogere niveaus van menselijk werk - eerst handenarbeid en nu mentale arbeid van hogere orde.

Wat moet hieraan worden gedaan? En wat gebeurt er als er een vorm van bewuste AI wordt ontwikkeld? Moet het worden gedwongen om te werken? Gecompenseerd voor zijn arbeid? Werkplekrechten toegekend? Enzovoort.

In een aflevering van Black Mirror (een show die berucht is om knoeien met onze hoofden), creëert een meisje genaamd Greta een digitale kloon van haar bewustzijn. De kloon wordt verteld dat het doel is om taken voor Greta's leven uit te voeren. Maar met Greta's bewustzijn beschouwt de kloon zichzelf als Greta. Dus wanneer de kloon weigert een slaaf te zijn, martelen de makers hem tot onderwerping. Ten slotte gaat de kloon voor Greta aan het werk.

Moeten we preventief bepaalde rechten toekennen aan AI in het geval dat ze denken dat ze een mens zijn of lijden?

Laten we, om nog een stap verder te gaan, eens kijken of AI vrijelijk moet worden uitgeschakeld of buiten gebruik moet worden gesteld. Als er momenteel iets misgaat, kunnen we gewoon de stekker eruit trekken en AI uitschakelen. Maar als de AI wettelijke rechten had en dit niet meer mogelijk was, wat zou er dan mogelijk zijn?

Het beroemde voorbeeld van een superintelligente AI die fout is gegaan, is de paperclip-maximalisator. Dit is een AI die is ontworpen om het maximale aantal paperclips mogelijk te maken. Aangezien de AI krachtig genoeg is, is het denkbaar dat hij zou kunnen besluiten om mensen, en dan alles, om te zetten in paperclips.

Moet AI verantwoordelijk worden gehouden?

AI is al verantwoordelijk voor veel beslissingen die mensenlevens beïnvloeden. AI wordt zelfs al gebruikt op veel gebieden die rechtstreeks van invloed zijn op mensenrechten, wat zorgwekkend is gezien de vooringenomenheid van veel AI-algoritmen.

AI wordt bijvoorbeeld door grote bedrijven gebruikt om te beslissen wie er voor een baan moet worden aangenomen. Het wordt in sommige landen ook gebruikt om te bepalen wie uitkering moet krijgen. Verontrustender is dat het door politie- en rechtbanksystemen wordt gebruikt om de veroordeling voor verdachten te bepalen. En dat is niet alles.

Wat gebeurt er als AI fouten maakt? Wie wordt verantwoordelijk gesteld - degenen die het gebruiken? De makers Of moet de AI zelf gestraft worden (en zo ja, hoe zou dat dan werken)?

AI en de mensheid

AI zal nooit menselijk zijn. Maar het kan bewust zijn, lijden voelen, of wensen en verlangens hebben. Als een AI als deze zou worden ontwikkeld, zou het dan onethisch zijn om het te dwingen te werken, het vrijelijk te ontmantelen of dingen aan te doen die het lijden veroorzaken?

Hoewel AI nog in de kinderschoenen staat, wordt het al gebruikt voor dingen die mensenlevens rechtstreeks beïnvloeden, soms drastisch. Er moeten beslissingen worden genomen over hoe de software te reguleren die het beste is voor mensenlevens, en AI-levens mochten dat ooit gebeuren.

DeelTweetenE-mail
5 veelvoorkomende mythes over kunstmatige intelligentie die niet waar zijn

Laten we het record rechtzetten op enkele veelvoorkomende onwaarheden rond AI.

Lees volgende

Gerelateerde onderwerpen
  • Technologie uitgelegd
  • Kunstmatige intelligentie
  • Futurologie
  • Technologie
Over de auteur
Jake Harfield (32 artikelen gepubliceerd)

Jake Harfield is een freelance schrijver gevestigd in Perth, Australië. Als hij niet aan het schrijven is, is hij meestal in de bush om de plaatselijke fauna te fotograferen. Je kunt hem bezoeken op www.jakeharfield.com

Meer van Jake Harfield

Abonneer op onze nieuwsbrief

Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!

Klik hier om je te abonneren