Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món
Blog

Myanmar i Facebook: Quan l'algorisme encén l'odi

Dani Vilaró (Comunicació),

L'agost es va complir el sisè aniversari de la brutal operació de neteja ètnica de l'exèrcit de Myanmar contra el poble rohingya. El 2017, l'exèrcit va desfermar un atac brutal als rohingyes (minoria ètnica majoritàriament musulmana que viu a l'estat de Rakhine), en el qual es van violar dones i nenes rohingyes, es van incendiar pobles sencers i es va matar milers de persones. Van ser crims de lesa humanitat. Meta (propietària de Facebook) ha d'indemnitzar la comunitat rohingya pel seu controvertit paper en aquesta crisi.

I quin va ser aquest rol de l'empresa de Mark Zuckerberg? Una autèntica atrocitat social. És sabut i s'ha comprovat que els algorismes de Facebook i l'implacable afany de lucre de Meta van generar una cambra de ressonància que va contribuir a fomentar l'odi a la població rohingya. Amb el seu model de "interacció", Meta va alimentar i afavorir les condicions que van fer esclatar la violència i van forçar al grup ètnic a fugir en massa de la violència de l'Estat cap als països veïns, en la seva majoria a la veïna Bangladesh.

“M'agradaria conèixer Mark Zuckerberg i el seu equip. Potser volen venir a passar una o dues nits al camp de refugiats. Els diria: ‘És que no veieu el vostre paper en el nostre sofriment? Us vam demanar, repetidament, que intentéssiu ajudar... però vau ignorar els nostres precs. Digueu-me: Sentiu alguna cosa per nosaltres? Es tracta només de les dades? Es tracta només de fer diners?”. Són paraules de Maung Sawyeddollah, refugiat rohingya, des del camp de persones refugiades més gran del món, Cox’s Bazaar, a Bangladesh.

El contingut que incitava a la violència i a la discriminació del poble rohingya va arribar fins a la mateixa cúpula dels dirigents militars i civils de Myanmar. El general Min Aung Hlaing, cap de les forces armades del país, va publicar a Facebook el 2017: “Declarem obertament que el nostre país no té cap raça rohingya”, en un missatge d'odi que es va viralitzar sense fre.

Aquest és, doncs, un dels exemples més evidents i cruels de la implicació d'una gran empresa de xarxes socials en una crisi de drets humans i, sis anys després, la comunitat rohingya encara continua esperant una resposta de Meta. Investigacions d'Amnistia Internacional han deixat clar que els perillosos algorismes de Facebook, programats per a impulsar la ‘interacció’, van jugar un paper clau per encendre i intensificar l'odi contra els rohingyes i van contribuir a la violència massiva, així com al desplaçament forçat de més de la meitat de la població rohingya de Myanmar, unes 700.000 persones.

Meta utilitza sistemes d'algorismes basats en la participació per impulsar serveis de novetats, classificació, recomanació i grups de Facebook que configuren el que es veu a la plataforma. Meta, doncs, es beneficia quan els qui utilitzen Facebook romanen el màxim temps possible en la plataforma, venent-los més publicitat selectiva i recomanada. L'exhibició de continguts incendiaris —inclosos els que propugnen l'odi i els que constitueixen incitació a la violència, hostilitat i discriminació— és una forma efectiva de mantenir la gent més temps dins la plataforma. D'aquesta manera, la promoció i amplificació d'aquesta mena de contingut d'odi i polaritzat és clau per al model empresarial de Facebook i fa guanyar carretades de diners a l'empresa.

Meta també ho sabia

La denúncia d'organitzacions de drets humans com Amnistia sobre l'ús irresponsable dels algorismes no és cosa només d'aquestes entitats, i fins i tot Meta n'és conscient: estudis interns de Facebook que es remunten a 2012 assenyalen que la companyia sabia que els seus algorismes podien provocar greus danys en el món real, com així ha passat. El 2016, investigacions internes del gegant teconològic van reconèixer clarament que els seus sistemes de recomanació per afavorir les interaccions a la xarxa "augmenten el problema” de l'extremisme. Meta va rebre repetides comunicacions i visites d'activistes de la societat civil de Myanmar entre 2012 i 2017 en les quals l'empresa va ser advertida que podia contribuir a la violència extrema. No obstant això, de manera reiterada, l'empresa de Zuckerberg no va escoltar els avisos ni va fer complir les seves pròpies polítiques sobre llenguatge que incita a l'odi.

La legislació internacional també és molt clara. Si Meta va contribuir a greus impactes negatius en els drets humans a Myanmar, segons les normes internacionals de drets humans, té la responsabilitat de proporcionar un recurs efectiu a la comunitat rohingya. Això inclou fer els canvis necessaris en el seu model empresarial que puguin garantir que això no torna a passar mai més (garantia de no repetició). Totes les empreses tenen la responsabilitat de respectar els drets humans amb independència del lloc del món on operin i en totes les seves activitats. Es tracta d'una norma de conducta àmpliament reconeguda que figura en normes internacionals sobre empreses i drets humans, com ara els Principis Rectors de l'ONU sobre les Empreses i els Drets Humans o les Línies Directrius de l'OCDE per a Empreses Multinacionals.

En darrera instància, els Estats han de contribuir a la regulació i perseguir la barra lliure de què han gaudit fins ara els grans gegants tecnològics. Cal afavorir la protecció dels drets humans amb la introducció i aplicació de lleis efectives que frenin aquests models empresarials del sector tecnològic basats en la vigilància i l'acumulació de dades. Fins ara les grans empreses tecnològiques han demostrat que són incapaces de fer-ho quan es juguen uns beneficis tan descomunals.