Twitter probeert te achterhalen waarom de functie voor fotovoorbeelden tekenen van raciale vooringenomenheid vertoont. Verschillende gebruikers ontdekten dat zwarte gezichten eerder uit fotovoorbeelden werden bijgesneden in vergelijking met witte gezichten.
Een fout in het algoritme van Twitter
Als je een afbeelding op Twitter ziet, is het slechts een voorbeeld, je moet erop klikken om de hele afbeelding te zien. Twitter gebruikt een algoritme om foto's bij te snijden en dicteert wat u in afbeeldingsvoorbeelden ziet.
In 2018 kondigde Twitter zijn slimme functie voor automatisch bijsnijden aan in een bericht op de Twitter-blog. Deze functie gebruikt "saliency" om de meest prominente delen van foto's aan te scherpen, en het snijdt vervolgens fotovoorbeelden dienovereenkomstig bij.
Twitter-gebruikers ontdekten dat het neurale netwerk van het platform mogelijk een raciale vooroordeel heeft. Een gebruiker plaatste een foto van de Amerikaanse senator Mitch McConnell naast de voormalige president Barack Obama.
Een vreselijk experiment proberen ...
- Tony "Schaf ICE af" Arcieri 🦀 (@bascule) 19 september 2020
Welke kiest het Twitter-algoritme: Mitch McConnell of Barack Obama? pic.twitter.com/bR1GRyCkia
Het voorbeeld van de afbeelding snijdt schaamteloos Obama's gezicht uit, zelfs als zijn gezicht bovenaan de foto staat. Toen dezelfde gebruiker de kleuren van de foto probeerde om te keren, verscheen Obama's gezicht eindelijk in het voorbeeld van de afbeelding.
Andere gebruikers begonnen hun eigen experimenten uit te voeren. Keer op keer ontdekten gebruikers dat het algoritme consequent de voorkeur gaf aan witte gezichten boven zwarte.
Liz Kelley, lid van het Twitter-communicatieteam, stuurde een Tweet als antwoord op de bevindingen van de Twitter-gebruikers. Ze merkte op dat hoewel het Twitter-team het algoritme al op vertekening heeft getest, het verder zou moeten onderzoeken.
bedankt aan iedereen die dit ter sprake heeft gebracht. we hebben getest op vooringenomenheid voordat het model werd verzonden en vonden geen bewijs van raciale of geslachtsvooroordelen in onze tests, maar het is duidelijk dat we nog meer analyses moeten doen. we zullen ons werk open source maken zodat anderen het kunnen beoordelen en repliceren. https://t.co/E6sZV3xboH
- liz kelley (@lizkelley) 20 september 2020
Al deze ontdekkingen kwamen voort uit de Tweet van een gebruiker over een Probleem met zoomoproep. Zoom kon voortdurend het gezicht van zijn zwarte vriend niet detecteren toen hij probeerde een virtuele achtergrond te gebruiken. Toen de gebruiker zich tot Twitter wendde om schermafbeeldingen van het probleem te plaatsen, haalde Twitter zijn zwarte vriend uit het voorbeeld van de afbeelding.
Vooroordelen uit Twitter halen
Hoewel al deze experimenten informeel zijn, lijken ze een echt probleem aan het licht te brengen. Twitter zal zeker de functie voor automatisch bijsnijden van naderbij moeten bekijken en kijken of het een diepgewortelde raciale vooringenomenheid heeft.
Dat gezegd hebbende, is het algoritme voor automatisch bijsnijden van Twitter niet de enige Twitter-functie die bekritiseerd is. Veel gebruikers zijn immers ook geen fan van het algoritme van het platform dat uw feed automatisch regelt.
Algoritmische feeds dienen alleen voor sociale netwerken. Hier leest u hoe u overschakelt naar chronologische feeds op Twitter, Instagram en Facebook.
- Sociale media
- Tech Nieuws
Emma is Senior Writer en Junior Editor voor de internet- en creatieve secties. Ze studeerde af met een bachelordiploma in het Engels en combineert haar liefde voor technologie met schrijven.
Abonneer op onze nieuwsbrief
Word lid van onze nieuwsbrief voor technische tips, recensies, gratis e-boeken en exclusieve deals!
Nog een stap…!
Bevestig uw e-mailadres in de e-mail die we u zojuist hebben gestuurd.