Wetenschap
Foto Reyer Boxem

Ritumbra Manuvie heeft een missie

FacebookHatebook
onder de loep

Foto Reyer Boxem
Ze zag in India met eigen ogen de gevolgen van opruiing en misinformatie op Facebook. En dus roept rechtendocent Ritumbra Manuvie het bedrijf nu ter verantwoording met haar onderzoek naar haatzaaiende berichten op social media.
15 november om 15:45 uur.
Laatst gewijzigd op 16 november 2022
om 13:04 uur.
november 15 at 15:45 PM.
Last modified on november 16, 2022
at 13:04 PM.
Avatar foto

Door René Hoogschagen

15 november om 15:45 uur.
Laatst gewijzigd op 16 november 2022
om 13:04 uur.
Avatar foto

By René Hoogschagen

november 15 at 15:45 PM.
Last modified on november 16, 2022
at 13:04 PM.
Avatar foto

René Hoogschagen

Freelancejournalist Volledig bio Freelance journalist Full bio

Slachtingen onder Hutu’s, apartheid, de Jodenvervolging: de geschiedenis kent vele ernstige gevolgen van opruiing. Daar moet je dus serieus mee omgaan, vindt Ritumbra Manuvie, rechtendocent aan University College Groningen. Dat geldt ook voor een sociaal medium als Facebook. En als Facebook dat niet uit zichzelf doet, zegt ze, moet het bedrijf ertoe gedwongen worden. 

Facebook heeft zelf al toegegeven dat het berichten die ophef veroorzaken, ongewild versterkt. Sinds de Amerikaanse verkiezingen van 2020 zijn er tienduizenden moderators aangenomen om die verspreiding te voorkomen. Maar dat is vooral gericht op de Engelstalige markt; voor anderstaligen wordt er veel te weinig gedaan, concludeert Manuvie. 

Statenloze moslims

Ze zag het effect van haatzaaien in de Indiase deelstaat Assam, waar ze promotieonderzoek had gedaan naar immigratie door klimaatverandering. Ze wist dat de mensen er geteisterd werden door overstromingen. ‘Ze hadden niks. Ook geen papieren, die waren weggespoeld.’

De overheid besloot een volkstelling te houden waarvoor mensen hun papieren moesten laten zien. Ze konden ook nieuwe papieren aanvragen, maar: moslims niet. ‘Van de ene op de andere dag waren 1,9 miljoen mensen staatloos.’ Manuvie was verbijsterd over deze wet. ‘Hoe kun je dit doen?’

Je zag een vloedgolf aan berichten over dat die wet zo briljant was

Tegelijk zag ze dat de hindoegemeenschap met de wet wegliep. ‘Dat zag je ook op Facebook: een vloedgolf aan berichten over dat die wet zo briljant was. Maar ik, als wetenschapper die de situatie had bestudeerd, dacht: nee! Dat is het niet! Wat gebeurt hier in godsnaam?’

Wat bleek: in de jaren daarvoor was er op Facebook en op andere media een sterke toename van negatieve politieke berichtgeving over moslims. ‘Dat moslims ons land waren binnengevallen en dat we ze ons land uit zouden moeten zetten, naar Bangladesh.’ 

De berichten kwamen van groeperingen die een hindoestaat propageerden. Iets waar de regeringspartij van Narendra Modi door mensenrechtenorganisaties als Amnesty ook van beschuldigd wordt.

Cognitieve bias

De verandering vond in een paar jaar plaats, zegt Manuvie. ‘Je ziet ineens je tijdlijn veranderen, je ziet dat vrienden zich aansluiten bij extreemrechtse hindoegroepen. En je denkt: wat is er aan de hand?’

Het is een cognitieve bias, legt ze uit. Eerst leg je de berichten nog aan de kant als onzin. ‘Maar als je ze vaker ziet, wordt het steeds makkelijker om ze te geloven. Je begint connecties te leggen, en denkt: tja, misschien is het wel waar.’ 

Later onthulde The Wall Street Journal dat het hoofd beleid van Facebook India, dat op moderatie moest toezien, voorstander was van de regering Modi en dat zij opdracht gaf om medestanders van Modi niet in de weg te zitten. Facebook ontkende de partijdigheid.

Terwijl in India mensen de straat opgingen om tegen de wet te protesteren, vroegen Manuvie en andere expats uit India zich in een pub in Brussel af hoe ze steun konden betuigen. Ze spraken over de haatzaaiende berichten in de media en besloten de stichting The London Story (TLS) op te zetten, vernoemd naar de pub, om daar wetenschappelijk onderzoek naar te doen. Misschien konden feiten redding brengen.

Gerapporteerd

Facebook is groot in India. De tellingen variëren, maar het gaat om honderden miljoenen gebruikers. En het zijn er meer dan in de Verenigde Staten. Het scheelde zelfs niet veel of Facebook was het portaal naar het internet geweest, net zoals in Myanmar. In dat land heeft Facebook nu een miljardenclaim aan de broek, omdat het bedrijf niets deed tegen opruiende berichten voorafgaand aan de genocide op de Rohingya in 2017.

Als je zulke berichten vaker ziet, wordt het steeds makkelijker om ze te geloven

Via CrowdTangle, een tool van Facebook bedoeld voor marketeers en onderzoekers, vonden Manuvie en haar team ruim zeshonderd Facebookpagina’s waarop mensen tekeer gaan tegen moslims in India. Tweehonderd van die berichten rapporteerden ze bij Facebook. Maar ze werden niet meteen verwijderd, zegt Manuvie, ondanks dat ze overduidelijk over de grenzen heen gingen van wat Facebook zegt toe te laten. Zo zat er een filmpje bij waarin de extreemrechtse religieus leider Yati Narsinghanand roept dat alle moslims uitgeroeid zouden moeten worden. 

Facebook verwijderde het filmpje uiteindelijk wel, twee weken voor publicatie van een eigen onderzoek naar de impact van het bedrijf op de Indiase samenleving. Dat wil zeggen: een samenvatting van het rapport van vier A4’tjes. De rest bleef binnenskamers, vertelt Manuvie. ‘Het stond vol pr-taal.’

Covid

En dan was er het onderzoek naar misinformatie op Facebook in Nederland in de aanloop naar de Tweede Kamerverkiezingen in 2021. Op pagina’s van rechtse groeperingen vond de stichting 938 berichten die volgens TLS verwijderd zouden moeten worden. Ze gingen de grenzen van Facebooks eigen regels over covid-misinformatie voorbij, meende TLS. Ze bevatten bijvoorbeeld beweringen dat er chips in de vaccins zaten. Of dat corona niet erger dan een griepje zou zijn en QAnon-achtige samenzweringstheorieën.

Wat ook opviel: een deel van die berichten waren van Forum voor Democratie, waaronder advertenties waar FVD flink op inzette, achterhaalde Manuvie. De partij gaf zelfs meer uit aan advertenties op Facebook dan enige andere kamerfractie.

Een van de gerapporteerde berichten bestond uit het zinnetje: ‘Laat Nederland weer vrij’, doelend op de lockdown. Is dat niet wat streng? Nee, zegt Manuvie. ‘We nemen dit ook niet zomaar op in het rapport. We hebben over veel berichten gediscussieerd.’ 

Ze beoordeelden alle berichten op context, wie het zei en wanneer en hoe de ontvanger het kon interpreteren. De conclusie over dit bericht: ‘Ja, we zitten in een lockdown, maar daar zit iedereen in. Zeggen dat je door de lockdown geen vrijheid meer hebt, gaat te ver. Het is geen nazi-Duitsland.’

Wappies

Tegelijk neemt ze het op voor de ‘wappies’. De vergelijking tussen niet-gevaccineerden en joden in de Tweede Wereldoorlog vindt ze niet vreemd. ‘Nee, ze werden niet gedeporteerd en vergast, maar hoe er over ze werd gepraat, had overeenkomsten’, zegt Manuvie. ‘Alsof het fundamenteel foute mensen waren, achterlijk, mentaal instabiel. Ze zo behandelen, als tweederangs burgers, is fout.’

Mensen hebben de berichten misschien zelf verwijderd 

Ze was ook ontzet over het feit dat de Nederlandse overheid deze mensen, haar eigen burgers, wappies noemde, zegt ze. ‘Want uiteindelijk zijn het jouw burgers, jouw mensen. Als je niet met ze praat, als je ze niet kan uitleggen waarom je deze maatregelen nodig hebt, dan doe je je werk niet goed als overheid. Zo simpel is het.’ 

Elk van die 938 berichten rapporteerde TLS aan Facebook. Bijna elke keer kregen ze een geautomatiseerd antwoord, soms van een echt persoon, maar steeds was de melding dat er geen enkele grond was om het te verwijderen. Toen het rapport vijf maanden later uitkwam, waren twaalf van de berichten alsnog verdwenen. ‘Een deel daarvan, volgens mij, omdat Mark Rutte erin werd bedreigd.’

Moderators

Een jaar later was zo’n 45 procent verwijderd, zegt ze. Maar ze betwijfelt of dat door Facebook is gedaan. ‘Mensen als Willem Engel hebben het misschien zelf gedaan, omdat het als bewijs kan dienen in een rechtszaak tegen ze.’ Ze betwijfelt ook of er wel moderators zijn.

De moderators die voor de Nederlandstalige markt werken, doen dat vanuit een kantoor in Berlijn. Een zwaar beroep, waar mensen de hele dag heftige beelden te zien en te lezen krijgen, vertelt een oud-medewerker in een radiodocumentaire van de VPRO.

Manuvie pleit ervoor dat er, naast het goed modereren van berichten, ook onafhankelijk toezicht komt om verspreiding van opruiende berichten tegen te gaan. Intussen roept ze mensen op Facebook niet te gebruiken.

Dat zal voor studenten niet erg moeilijk zijn. Facebook is voor velen al dood en begraven, ze zitten liever op Instagram. ‘Mooi’, verzucht Manuvie. ‘Daar ben ik blij om.’ Alhoewel, vervolgt ze: ‘Instagram is van hetzelfde bedrijf, is even weinig transparant en gebruikt dezelfde richtlijnen tegen misinformatie en opruiing.’

Facebook reageerde niet op vragen van UKrant over het moderatiebeleid.

English