Het voelt alsof we veel te vaak nieuws zien dat er een of andere ernstige overtreding is begaan op de ene of de andere sociale-mediasite, inclusief illegale berichten of het live streamen van gewelddadige inhoud. Je kunt je gemakkelijk afvragen hoe zulke dingen in dit technologisch geavanceerde tijdperk door de kieren kunnen glippen.
Maar feit is dat het vrijwel onmogelijk is om sociale mediasites effectief te modereren. Waarom? Er zijn een paar redenen.
Sommige sociale-mediasites zijn nog in de kinderschoenen of zijn meer niche. Grote sociale-mediasites hebben echter een enorm gebruikersbestand. De grootste sites hebben honderden miljoenen tot miljarden gebruikers. Elk platform dat zo groot is, is natuurlijk moeilijk te monitoren.
De meeste grote sociale netwerken slagen hierin door een combinatie van communityrapportage, algoritmen (onvolmaakt) getraind om schadelijke inhoud op te merken en een paar menselijke moderators. Hoewel een gemeenschapslid of AI mogelijk schadelijke informatie opmerkt en rapporteert, is het een mens (of een groep mensen) die het laatste woord heeft. En veel sites bieden een beroepsprocedure.
Sociale-mediasites zijn niet alleen enorm in termen van hun gebruikersbestand. Verschillende staten en verschillende landen hebben verschillende wetten met betrekking tot wat voor soort inhoud moet worden gerapporteerd en hoe.
Socialemediabedrijven die in verschillende geografische gebieden actief zijn, hebben dus vaak verschillende beleidsregels voor verschillende gebruikers. Dit omvat verschillende beleidsregels voor desinformatie en privacy. In werkelijkheid, Twitter moest akkoord gaan met specifieke voorwaarden om de ban op te heffen in Nigeria.
Sterker nog, sociale media zijn een wereldwijd fenomeen, maar het gebeurt niet altijd in de "wereldwijde" talen. Dit kan ertoe leiden dat sociale-mediabedrijven op zoek gaan naar inhoudsmoderators die regionale talen spreken om wereldwijd diensten aan te bieden zonder dat deze gebruikers kwetsbaar worden voor slechte actoren.
Een mooi voorbeeld is dat van Facebook-eigenaar Meta. Het bedrijf was onlangs aangeklaagd door een voormalige contentmoderator in Nairobi die beweert dat contentmoderators in het gebied zijn misleid om de rol op zich te nemen.
3. Moderators lopen op een slappe koord
De meeste gebruikers van sociale media willen twee dingen: ze willen zich veilig voelen en ze willen zich vrij voelen. Het vinden van een balans tussen deze twee wensen is de lastige taak van de contentmoderator.
Dwaal te ver naar één kant af en gebruikers voelen zich gecontroleerd. Dwaal te ver naar de andere kant af en gebruikers zullen zich in de steek gelaten voelen. Een manier waarop sommige sociale-mediasites dit omzeilen, is via communitymoderators.
Communitymoderators helpen om uit te drukken dat moderatie iets is dat wordt gedaan uit passie voor promotie constructief discours zonder schadelijke inhoud toe te laten in plaats van uit enige wens om te controleren of te onderdrukken gebruikers. Dit model is uitdagend op schaal, hoewel verschillende platforms het op verschillende manieren laten werken.
Parler kwam weer online na het aanpassen van het moderatiebeleid om te voldoen aan het beleid van derden. Ze hebben iets van een gemeenschapsjurysysteem dat min of meer pas in het spel komt nadat er al een potentieel problematische post is gemeld. Het prioriteren van gebruikersrapporten is een andere manier waarop Parler de moderatoren helpt ontlasten.
4. Moderators moeten een dynamische lijn volgen
Contentmoderators opereren ook in wat kan aanvoelen als een moreel grijs gebied. Zelfs platforms met een meer vrije meningsuiting over moderatie hebben regels tegen potentieel schadelijke of gewelddadige inhoud. Sommige berichten zijn duidelijk schadelijk of gewelddadig, terwijl andere voor sommige gebruikers (of moderators) schadelijk of gevaarlijk kunnen lijken, maar voor andere niet.
Veel platforms hebben ook regels tegen andere activiteiten, zoals het verkopen van producten of diensten. Dit kan een nog lastiger gebied zijn om te navigeren, vooral gezien de grootte en reikwijdte van sommige sites.
Overwegen wat moderators van de Reddit-community doen. Telkens wanneer gebruikers lid worden van een nieuwe community, krijgen ze onmiddellijk de regels voor die community toegestuurd. Die regels staan ook aan de zijkant van elke communitypagina. Hierdoor kan elke community een subset van regels hebben die op haar zijn toegesneden in plaats van algemene regels voor de hele site.
Het idee van subreddits helpt Reddit ook om communitymoderators op grote schaal te gebruiken. Moderators hebben de taak hun subreddit te modereren in plaats van te proberen de hele site te patrouilleren.
Ten slotte gaan sociale media heel snel. Als je hoort over een problematische post, kan het zijn dat de oorspronkelijke poster deze heeft verwijderd. In het geval dat het bericht niet is gemeld terwijl het live was, kan het lastig zijn om er achteraf op te reageren.
In één geval in 2015 werd een bericht op de sociale-mediasite YikYak bij de politie gemeld met een gewijzigde versie van het oorspronkelijke bericht, dat al was verwijderd. Wat intern door moderators van online inhoud had kunnen worden opgelost, werd een langdurig juridisch drama dat een hele gemeenschap van streek maakte.
Veel sociale mediasites, waaronder Facebook, hebben beleid voor het bewaren van verdachte berichten in het geval dat er naar moet worden verwezen in zich ontwikkelende situaties, onder meer door wetshandhavers.
Maar functies zoals livestreaming zorgen ervoor dat de inhoud omhoog gaat terwijl het gebeurt, wat algoritmen kunnen missen totdat het te laat is.
Gooi een muntje naar je moderator
Als je iets online ziet dat je zorgen baart, ga dan via de voorziene kanalen om het te melden. Probeer te voorkomen dat je boos of achterdochtig wordt, want het modereren van sociale media is moeilijk. Hetzelfde geldt als u of een bericht wordt gerapporteerd. Het is waarschijnlijk een goedbedoelde zet om gebruikers van sociale media veilig te houden.