De mogelijkheden van kunstmatige intelligentie nemen exponentieel toe, waarbij AI nu wordt gebruikt in sectoren van reclame tot medisch onderzoek. Het gebruik van AI op gevoeligere gebieden, zoals gezichtsherkenningssoftware, algoritmen voor het aannemen van personeel en zorgverlening, heeft het debat over vooringenomenheid en eerlijkheid versneld.

Bias is een goed onderzocht facet van de menselijke psychologie. Onderzoek legt regelmatig onze onbewuste voorkeuren en vooroordelen bloot, en nu zien we dat AI enkele van deze vooroordelen in hun algoritmen weerspiegelt.

Dus, hoe wordt kunstmatige intelligentie bevooroordeeld? En waarom is dit van belang?

Hoe wordt AI bevooroordeeld?

Voor de eenvoud verwijzen we in dit artikel naar: machine learning en deep learning algoritmen als AI-algoritmen of -systemen.

Onderzoekers en ontwikkelaars kunnen op twee manieren vooringenomenheid in AI-systemen introduceren.

Ten eerste kunnen de cognitieve vooroordelen van onderzoekers per ongeluk worden ingebed in algoritmen voor machine learning. Cognitieve vooroordelen zijn onbewuste menselijke percepties die van invloed kunnen zijn op hoe mensen beslissingen nemen. Dit wordt een belangrijk probleem wanneer de vooroordelen betrekking hebben op mensen of groepen mensen en deze mensen kunnen schaden.

instagram viewer

Deze vooroordelen kunnen direct maar per ongeluk worden geïntroduceerd, of onderzoekers kunnen de AI trainen op datasets die zelf beïnvloed werden door vooringenomenheid. Een AI met gezichtsherkenning zou bijvoorbeeld kunnen worden getraind met behulp van een dataset die alleen gezichten met een lichte huid bevat. In dit geval zal de AI beter presteren bij gezichten met een lichte huid dan donkere. Deze vorm van AI-bias staat bekend als een negatieve erfenis.

Ten tweede kunnen er vooroordelen ontstaan ​​wanneer de AI wordt getraind op onvolledige datasets. Als een AI bijvoorbeeld wordt getraind op een dataset die alleen computerwetenschappers bevat, zal deze niet de hele populatie vertegenwoordigen. Dit leidt tot algoritmen die geen nauwkeurige voorspellingen kunnen geven.

Voorbeelden van echte AI-bias

Er zijn meerdere recente, goed gerapporteerde voorbeelden van AI-bias die: illustreren het gevaar om deze vooroordelen te laten binnensluipen.

Prioritering in de VS in de gezondheidszorg

In 2019 werd een machine learning-algoritme ontworpen om ziekenhuizen en verzekeringsmaatschappijen te helpen bepalen welke patiënten het meeste baat zouden hebben bij bepaalde zorgprogramma's. Gebaseerd op een database van ongeveer 200 miljoen mensen, gaf het algoritme de voorkeur aan blanke patiënten boven zwarte patiënten.

Er werd vastgesteld dat dit het gevolg was van een foutieve aanname in het algoritme met betrekking tot variërende zorgkosten tussen zwarte en blanke mensen, en de vertekening werd uiteindelijk met 80% verminderd.

KOMPAS

De Correctional Offender Management Profiling for Alternative Sanctions, of COMPAS, was een AI-algoritme dat was ontworpen om te voorspellen of bepaalde mensen opnieuw een overtreding zouden begaan. Het algoritme produceerde twee keer zoveel valse positieven voor zwarte delinquenten als voor witte delinquenten. In dit geval waren zowel de dataset als het model gebrekkig, wat een zware bias veroorzaakte.

Amazone

Het wervingsalgoritme dat Amazon gebruikt om de geschiktheid van sollicitanten te bepalen, bleek in 2015 sterk de voorkeur te geven aan mannen boven vrouwen. Dit kwam omdat de dataset bijna uitsluitend mannen en hun cv's bevatte, aangezien de meeste Amazon-medewerkers mannen zijn.

Hoe AI-bias te stoppen

AI zorgt nu al voor een revolutie in de manier waarop we werken elke industrie. Het hebben van vooringenomen systemen die gevoelige besluitvormingsprocessen beheersen, is minder dan wenselijk. In het beste geval vermindert het de kwaliteit van op AI gebaseerd onderzoek. In het slechtste geval beschadigt het actief minderheidsgroepen.

Er zijn voorbeelden van AI-algoritmen die al worden gebruikt om: helpen bij het nemen van menselijke beslissingen door de impact van menselijke cognitieve vooroordelen te verminderen. Door de manier waarop machine learning-algoritmen worden getraind, kunnen ze nauwkeuriger en minder bevooroordeeld zijn dan mensen in dezelfde positie, wat resulteert in eerlijkere besluitvorming.

Maar, zoals we hebben aangetoond, is het tegenovergestelde ook waar. De risico's van het toestaan ​​​​dat menselijke vooroordelen worden ingebakken en versterkt door AI, wegen mogelijk op tegen enkele van de mogelijke voordelen.

Aan het einde van de dag, AI is zo goed als de gegevens waarmee het is getraind. Het ontwikkelen van onbevooroordeelde algoritmen vereist een uitgebreide en grondige pre-analyse van datasets, om ervoor te zorgen dat gegevens vrij zijn van impliciete vooroordelen. Dit is moeilijker dan het klinkt, omdat zoveel van onze vooroordelen onbewust zijn en vaak moeilijk te identificeren.

Uitdagingen bij het voorkomen van AI-bias

Bij het ontwikkelen van AI-systemen moet elke stap worden beoordeeld op zijn potentieel om vooringenomenheid in het algoritme in te bedden. Een van de belangrijkste factoren bij het voorkomen van vooringenomenheid is ervoor te zorgen dat eerlijkheid, in plaats van vooringenomenheid, in het algoritme wordt 'ingebakken'.

Eerlijkheid definiëren

Eerlijkheid is een concept dat relatief moeilijk te definiëren is. In feite is het een debat dat nooit tot een consensus is gekomen. Om het nog moeilijker te maken, moet bij het ontwikkelen van AI-systemen het begrip eerlijkheid wiskundig worden gedefinieerd.

Bijvoorbeeld, in termen van het Amazon-wervingsalgoritme, zou eerlijkheid eruit zien als een perfecte 50/50 verdeling van mannelijke naar vrouwelijke werknemers? Of een ander aandeel?

De functie bepalen

De eerste stap in de ontwikkeling van AI is om precies te bepalen wat het gaat bereiken. Als het COMPAS-voorbeeld zou worden gebruikt, zou het algoritme de kans voorspellen dat criminelen opnieuw een overtreding begaan. Vervolgens moeten duidelijke gegevensinvoer worden bepaald om het algoritme te laten werken. Hiervoor kunnen belangrijke variabelen worden gedefinieerd, zoals het aantal eerdere delicten of het soort delicten dat is gepleegd.

Het correct definiëren van deze variabelen is een moeilijke maar belangrijke stap om de eerlijkheid van het algoritme te waarborgen.

De gegevensset maken

Zoals we hebben besproken, zijn onvolledige, niet-representatieve of vooringenomen gegevens een belangrijke oorzaak van AI-bias. Net als bij gezichtsherkenning AI, moeten de invoergegevens grondig worden gecontroleerd op vooroordelen, geschiktheid en volledigheid voordat het machine-leerproces begint.

Eigenschappen kiezen

In de algoritmen kunnen bepaalde attributen al dan niet worden overwogen. Kenmerken kunnen geslacht, ras of opleiding zijn - eigenlijk alles wat belangrijk kan zijn voor de taak van het algoritme. Afhankelijk van welke attributen worden gekozen, kan de voorspellende nauwkeurigheid en bias van het algoritme ernstig worden beïnvloed. Het probleem is dat het erg moeilijk is om te meten hoe bevooroordeeld een algoritme is.

AI Bias is er niet om te blijven

AI-bias treedt op wanneer algoritmen vooringenomen of onnauwkeurige voorspellingen doen vanwege vooringenomen invoer. Het treedt op wanneer bevooroordeelde of onvolledige gegevens worden weerspiegeld of versterkt tijdens de ontwikkeling en training van het algoritme.

Het goede nieuws is dat als de financiering voor AI-onderzoek zich vermenigvuldigt, we waarschijnlijk nieuwe methoden zullen zien om AI-bias te verminderen en zelfs te elimineren.

E-mail
5 veelvoorkomende mythes over kunstmatige intelligentie die niet waar zijn

Laten we het record rechtzetten op enkele veelvoorkomende onwaarheden rond AI.

Lees volgende

Gerelateerde onderwerpen
  • Technologie uitgelegd
  • Kunstmatige intelligentie
  • Machinaal leren
Over de auteur
Jake Harfield (6 artikelen gepubliceerd)

Jake Harfield is een freelance schrijver gevestigd in Perth, Australië. Als hij niet aan het schrijven is, is hij meestal in de bush om de plaatselijke fauna te fotograferen. Je kunt hem bezoeken op www.jakeharfield.com

Meer van Jake Harfield

Abonneer op onze nieuwsbrief

Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!

Nog een stap…!

Bevestig uw e-mailadres in de e-mail die we u zojuist hebben gestuurd.

.