Of het nu gaat om slechte gegevens of slechte gebruikers, AI die is gemaakt met machine learning kan ernstige fouten maken.

Machine learning is een geweldige manier om kunstmatige intelligentie te creëren die krachtig is en zich aanpast aan de trainingsgegevens. Maar soms kunnen die gegevens problemen veroorzaken. Andere keren is de manier waarop mensen deze AI-tools gebruiken het probleem.

Hier volgt een overzicht van enkele spraakmakende incidenten waarbij machine learning tot problematische resultaten leidde.

1. Fouten met Google Afbeeldingen zoeken

Google Zoeken heeft het navigeren op internet een stuk eenvoudiger gemaakt. Het algoritme van de engine houdt rekening met verschillende zaken bij het genereren van resultaten. Maar het algoritme leert ook van het gebruikersverkeer, wat problemen kan opleveren voor de kwaliteit van de zoekresultaten.

Nergens is dit duidelijker dan in beeldresultaten. Omdat pagina's die veel verkeer ontvangen, meer kans hebben dat hun afbeeldingen worden weergegeven, kunnen verhalen die grote aantallen gebruikers trekken, waaronder clickbait, voorrang krijgen.

instagram viewer

De zoekresultaten voor afbeeldingen voor 'krakerskampen in Zuid-Afrika' veroorzaakten bijvoorbeeld controverse toen werd ontdekt dat er voornamelijk blanke Zuid-Afrikanen op stonden. Dit ondanks statistieken die aantonen dat de overgrote meerderheid van degenen die in informele woningen wonen, zwarte Zuid-Afrikanen zijn.

De factoren die in het algoritme van Google worden gebruikt, zorgen er ook voor dat internetgebruikers resultaten kunnen manipuleren. Een campagne van gebruikers heeft bijvoorbeeld de resultaten van Google Afbeeldingen zoeken in die mate beïnvloed dat zoeken naar de term 'idioot' gedurende een bepaalde periode afbeeldingen van de voormalige Amerikaanse president Donald Trump opleverde.

2. Microsoft Bot Tay veranderde in een nazi

AI-aangedreven chatbots zijn enorm populair, vooral die aangedreven door grote taalmodellen zoals ChatGPT. ChatGPT heeft verschillende problemen, maar de makers hebben ook geleerd van de fouten van andere bedrijven.

Een van de meest spraakmakende incidenten van mislukte chatbots was de poging van Microsoft om zijn chatbot Tay te lanceren.

Tay bootste de taalpatronen van een tienermeisje na en leerde door haar interacties met andere Twitter-gebruikers. Ze werd echter een van de meest beruchte AI-misstappen toen ze nazi-verklaringen en racistische beledigingen begon te delen. Het bleek dat trollen de machine learning van de AI ertegen hadden gebruikt, waardoor het werd overspoeld met interacties vol onverdraagzaamheid.

Niet lang daarna haalde Microsoft Tay voorgoed offline.

3. Problemen met AI-gezichtsherkenning

Gezichtsherkenning AI haalt vaak de krantenkoppen om de verkeerde redenen, zoals verhalen over gezichtsherkenning en privacykwesties. Maar deze AI heeft een problematische geschiedenis bij het herkennen van mensen van kleur.

In 2015 ontdekten gebruikers dat Google Foto's sommige zwarte mensen als gorilla's categoriseerde. In 2018 toonde onderzoek door de ACLU aan dat Amazon's Rekognition-software voor gezichtsidentificatie 28 leden van het Amerikaanse Congres als verdachten van de politie, met valse positieven die onevenredig veel mensen treffen kleur.

Bij een ander incident identificeerde de Face ID-software van Apple twee verschillende Chinese vrouwen ten onrechte als dezelfde persoon. Hierdoor kon de collega van de iPhone X-bezitter de telefoon ontgrendelen.

In een voorbeeld van extreme gevolgen heeft gezichtsherkennings-AI geleid tot de onterechte arrestaties van meerdere mensen. Bedrade rapporteerde over drie van dergelijke gevallen.

Ondertussen herinnerde computerwetenschapper Joy Buolamwini zich dat ze vaak een wit masker moest dragen tijdens het werken aan gezichtsherkenningstechnologie om de software haar te laten herkennen. Om dit soort problemen op te lossen, vestigen Buolamwini en andere IT-professionals de aandacht op het probleem van AI-bias en de behoefte aan meer inclusieve datasets.

4. Deepfakes gebruikt voor hoaxes

Terwijl mensen Photoshop al lang gebruiken om valse afbeeldingen te maken, tilt machine learning dit naar een nieuw niveau. Deepfakes gebruiken deep learning AI om valse afbeeldingen en video's te maken. Met software zoals FaceApp kun je onderwerpen van de ene naar de andere video wisselen.

Maar veel mensen misbruiken de software voor verschillende kwaadaardige doeleinden, waaronder het overlappen van gezichten van beroemdheden in video's voor volwassenen of het genereren van hoax-video's. Ondertussen hebben internetgebruikers geholpen de technologie te verbeteren, waardoor het steeds moeilijker wordt om echte video's van nepvideo's te onderscheiden. Hierdoor is dit type AI zeer krachtig in termen van het verspreiden van nepnieuws en hoaxes.

Om de kracht van de technologie te laten zien, creëerden directeur Jordan Peele en BuzzFeed CEO Jonah Peretti een deepfake-video die laat zien wat de voormalige Amerikaanse president Barack Obama lijkt te zijn die een PSA aflevert over de kracht van deepfakes.

De kracht van nepbeelden is versneld door beeldgeneratoren aangedreven door AI. Virale berichten in 2023 waarin Donald Trump werd gearresteerd en de katholieke paus in een pufferjack, bleken het resultaat te zijn van generatieve AI.

Er zijn tips die u kunt volgen om een ​​door AI gegenereerde afbeelding te herkennen, maar de technologie wordt steeds geavanceerder.

5. Werknemers zeggen dat Amazon AI heeft besloten dat het beter is om mannen in dienst te nemen

In oktober 2018, Reuters meldde dat Amazon een tool voor het werven van banen moest schrappen nadat de AI van de software had besloten dat mannelijke kandidaten de voorkeur hadden.

Medewerkers die anoniem wilden blijven, kwamen naar voren om Reuters te vertellen over hun werk aan het project. Ontwikkelaars wilden dat de AI de beste kandidaten voor een baan identificeerde op basis van hun cv's. Mensen die bij het project betrokken waren, merkten echter al snel dat de AI vrouwelijke kandidaten bestrafte. Ze legden uit dat de AI cv's van het afgelopen decennium gebruikte, waarvan de meeste van mannen waren, als trainingsdataset.

Als gevolg hiervan begon de AI cv's uit te filteren op basis van het trefwoord 'vrouwen'. Het trefwoord kwam in het cv voor onder activiteiten als "kapitein damesschaakclub". Terwijl ontwikkelaars de AI veranderden om deze bestraffing van cv's van vrouwen te voorkomen, schrapte Amazon uiteindelijk het project.

6. Gejailbreakte chatbots

Terwijl nieuwere chatbots beperkingen hebben om te voorkomen dat ze antwoorden geven die in strijd zijn met hun servicevoorwaarden, vinden gebruikers manieren om de tools te jailbreaken om verboden inhoud te bieden.

In 2023 kon een Forcepoint-beveiligingsonderzoeker Aaron Mulgrew zero-day malware maken met behulp van ChatGPT-prompts.

"Door simpelweg ChatGPT-prompts te gebruiken en zonder enige code te schrijven, waren we in staat om binnen een paar uur een zeer geavanceerde aanval uit te voeren", zei Mulgrew in een Forcepoint-post.

Gebruikers hebben naar verluidt ook chatbots kunnen krijgen om hen instructies te geven over het bouwen van bommen of het stelen van auto's.

7. Zelfrijdende auto-ongelukken

Enthousiasme voor autonome voertuigen is vanaf het eerste hype-stadium getemperd door fouten gemaakt door zelfrijdende AI. 2022, De Washington Post meldde dat in ongeveer een jaar tijd 392 ongevallen met geavanceerde rijhulpsystemen werden gemeld aan de Amerikaanse National Highway Traffic Safety Administration.

Bij deze ongevallen waren zwaargewonden en zes doden.

Hoewel dit bedrijven als Tesla er niet van heeft weerhouden volledig autonome voertuigen na te streven, heeft het dat wel gedaan uitte bezorgdheid over een toename van het aantal ongevallen naarmate meer auto's met zelfrijdende software de wegen.

Machine Learning AI is niet waterdicht

Hoewel machine learning krachtige AI-tools kan creëren, zijn ze niet immuun voor slechte gegevens of menselijk geknoei. Of het nu gaat om gebrekkige trainingsgegevens, beperkingen met AI-technologie of gebruik door slechte actoren, dit type AI heeft tot veel negatieve incidenten geleid.