Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

Myanmar: Els sistemes de Facebook van promoure la violència contra la població rohingya

Els perillosos algorismes de Meta, propietària de Facebook, i el seu temerari afany de lucre van contribuir substancialment a les atrocitats perpetrades per l'exèrcit de Myanmar contra la població rohingya el 2017, així ho afirma Amnistia Internacional en un nou informe publicat avui.

The social atrocity. Meta and the right to remedy for the rohingya detalla que Meta sabia o hauria d'haver sabut que els sistemes d'algorismes de Facebook estaven impulsant la difusió de contingut nociu anti rohingya a Myanmar, i tot i això l'empresa no va fer res.

“El 2017, milers de persones rohingyes van ser víctimes d'homicidi, tortura, violació i desplaçament com a part de la campanya de neteja ètnica de les forces de seguretat de Myanmar. En els mesos i anys que van desembocar en les atrocitats, els algorismes de Facebook van intensificar una tempesta d'odi contra la població rohingya que va contribuir a la violència en el món real”, ha afirmat Agnès Callamard, secretària general d'Amnistia Internacional.

“Mentre l'exèrcit de Myanmar cometia crims de lesa humanitat contra la població rohingya, Meta es beneficiava de la cambra de ressonància de l'odi creat pels seus algorismes intensificadors d'odi".

Meta ha de retre comptes. L'empresa té ara la responsabilitat de proporcionar una reparació a totes les persones que van patir les conseqüències violentes de les seves temeràries accions”.

Sawyeddollah, refugiat rohinga de 21 anys, va dir a Amnistia Internacional: “Vaig veure un munt de coses horribles a Facebook. I només vaig pensar que la gent que publicava allò era dolenta [...] Després em vaig adonar que no són només aquestes persones —les que publicaven—, sinó que Facebook és també responsable. Facebook les està ajudant en no controlar la seva plataforma”.

La població rohingya és una minoria ètnica predominantment musulmana que viu al nord de l'estat de Rakhine. A l'agost de 2017, més de 700.000 rohinges van fugir de Rakhine quan les forces de seguretat de Myanmar van llançar una campanya selectiva i generalitzada d'assassinats, violacions i incendis sistemàtics de cases. La violència va esclatar després de dècades de discriminació, persecució i opressió promogudes per l'Estat contra la població rohinga que constitueix apartheid.

Una cambra de ressonància anti rohingya

Meta utilitza sistemes d'algorismes basats en la participació per impulsar els serveis de novetats, classificació, recomanació i grups de Facebook que configuren el que es veu a la plataforma. Meta es beneficia quan els qui utilitzen Facebook romanen el major temps possible en la plataforma venent-los més publicitat selectiva. L'exhibició de continguts incendiaris —inclosos els que propugnen l'odi i els que constitueixen incitació a la violència, l'hostilitat i la discriminació— és una forma efectiva de mantenir la gent més temps a la plataforma. D'aquesta manera, la promoció i amplificació d'aquesta mena de contingut és clau per al model empresarial de Facebook basat en la vigilància.

En els mesos i anys que van desembocar en les atrocitats de 2017, Facebook a Myanmar s'havia convertit en una cambra de ressonància de contingut anti rohingya. Actors vinculats aa l'exèrcit de Myanmar i grups nacionalistes budistes radicals van inundar la plataforma de contingut antimusulmà, publicant desinformació sobre una imminent presa del poder musulmana al país i representant la població rohingya com a “invasors”.

En un apunt que es va compartir més de 1.000 vegades, un defensor musulmà dels drets humans va ser representat i qualificat de “traïdor nacional”. Els comentaris incloïen missatges d'amenaça i racistes, com: “És musulmà. Els musulmans són gossos i cal matar-los a trets” i “No el deixeu amb vida. Elimineu la seva raça. El temps apreta”.

El contingut que incitava a la violència i a la discriminació va arribar fins a la mateixa cúpula dels dirigents militars i civils de Myanmar. El general Min Aung Hlaing, cap de les forces armades de Myanmar, va publicar an la seva pàgina de Facebook el 2017: “Declarem obertament que, rotundament, el nostre país no té cap raça rohingya”. El general va prendre el poder en un cop d'estat al febrer de 2021.

Al juliol de 2022, la Cort Internacional de Justícia va declarar-se competent per jutjar una causa contra el govern de Myanmar en virtut de la Convenció sobre l Genocidi i a la llum del tracte dispensat per Myanmar a la població rohingya. Amnistia Internacional celebra aquest pas fonamental per aconseguir que el govern de Myanmar reti comptes i continua fent una crida perquè els alts comandaments militars de Myanmar siguin portats davant de la justícia pel seu paper en els delictes comesos contra els rohingyes.

El 2014, Meta va mirar de donar suport a una iniciativa contra l'odi coneguda com “panzagar” o “llenguatge flor” amb la creació d'un paquet d'stickers perquè publiquessin els usuaris i usuàries de Facebook en resposta a continguts que propugnaven la violència o la discriminació. Els stickers portaven missatges com “Pensa abans de compartir” i “No siguis la causa de la violència”.

No obstant això, activistes van observar de seguida que els stickers tenien conseqüències imprevistes, perquè els algorismes de Facebook interpretaven el seu ús com a senyal que a la gent li agradava un apunt i va començar a promoure'ls. En comptes de disminuir el nombre de persones que veien una publicació que propugnava l'odi, els stickers feien que la publicació fos més visible.

La Missió Internacional Independent de Recerca de les Nacions Unides sobre Myanmar va concloure en última instància que el “paper dels mitjans socials [va ser] considerable” en les atrocitats en un país on “Facebook és Internet”.

Mohamed Showife, activista rohingya, va dir: “El poble rohingya només somia viure igual que altres persones en aquest món [...] però vostès, Facebook, vostès van destruir el nostre somni”.

La inacció de Facebook

L'informe detalla que, en reiterades ocasions, Meta no va aplicar la deguda diligència en matèria de drets humans en les seves operacions a Myanmar, tot i la seva responsabilitat sobre aquest tema prevista en les normes internacionals.

Hi ha estudis interns que es remunten a 2012 que indicaven que Meta sabia que els seus algorismes podien provocar danys greus en el món real. El 2016, les pròpies investigacions de Meta reconeixien clarament que “els nostres sistemes de recomanació augmenten el problema” de l'extremisme.

Meta va rebre repetides comunicacions i visites d'activistes de la societat civil local entre 2012 i 2017 en les quals l'empresa va ser advertida que podia contribuir a violència extrema. El 2014, les autoritats de Myanmar van arribar a bloquejar temporalment Facebook pel paper de la plataforma a desencadenar un esclat de violència ètnica a Mandalay. No obstant això, de manera reiterada, Meta no va escoltar els avisos ni va fer complir les seves pròpies polítiques sobre llenguatge que incita a l'odi.

La investigació d'Amnistia Internacional inclou anàlisi de noves dades procedents dels “Papers de Facebook”, un seguit de documents interns filtrats per la denunciant d'irregularitats Frances Haugen.

En un d'ells, datat a l'agost de 2019, una persona que treballava en Meta va escriure: “Tenim dades de diverses fonts que el llenguatge que incita a l'odi, el llenguatge polític divisiu i la desinformació en Facebook afecten societats de tot el món. També tenim dades fefaents que les mecàniques del nostre producte central, com la viralitat, les recomanacions i l'optimització per a la participació, són una part significativa de la raó per la qual aquests tipus de llenguatge floreixen en la plataforma”.

“Meta ha de pagar”

Amnistia Internacional llança avui una nova campanya en què demana a Meta Platforms, Inc. que atengui la reclamació de reparació de la comunitat rohingya.

Avui es compleix el primer aniversari de l'assassinat del destacat activista Mohib Ullah, president de la Societat Arakan Rohingya per a la Pau i els Drets Humans. Mohib estava liderant les iniciatives encaminades a fer retre comptes a Meta.

Grups de persones refugiades rohingyes han demanat directament a Meta una reparació mitjançant el finançament amb un milió de dòlars d'un projecte d'educació en el camp per a persones refugiades de Bazaar Cox, a Bangladesh. Aquesta quantitat representa només el 0,002% dels beneficis de Meta el 2021 de 46.700 milions de dòlars. Al febrer de 2021, Meta va rebutjar la petició de la comunitat rohingya afirmant: “Facebook no participa directament en activitats filantròpiques”.

Showkutara, una jove activista rohingya de 22 anys, va explicar a Amnistia Internacional: “Facebook ha de pagar. En cas contrari, acudirem a tots els tribunals de justícia del món. Mai no renunciarem a la nostra lluita”.

Existeixen almenys tres demandes judicials actives en les quals es reclama a Meta una reparació per a la població rohingya. Al desembre de 2021 es van presentar sengles demandes civils contra l'empresa al Regne Unit i els Estats Units. A més, grups de persones refugiades joves rohingye han interposat contra Meta una demanda davant l'OCDE que està actualment en estudi del Punt Nacional de Contacte de l'OCDE als Estats Units.

“En virtut de les normes internacionals de drets humans, Meta té la responsabilitat de reparar el terrible mal sofert per la població rohingya al qual ha contribuït. Les conclusions han de servir d'avís que Meta podria contribuir a més abusos greus contra els drets humans si no fa canvis fonamentals en el seu model empresarial i els seus algorismes”, va concloure Agnès Callamard.

“Són imprescindibles unes reformes urgents d'ampli abast en els seus sistemes d'algorismes per a prevenir abusos i augmentar la transparència a fi de garantir que la història de Meta amb la població rohingya no es repeteix en cap altre lloc del món, especialment on existeix una violència ètnica latent”.

“En darrera instància, els Estats han de contribuir a la protecció dels drets humans mitjançant la introducció i aplicació de lleis efectives que frenin els models empresarials del sector tecnològic basats en la vigilància. Les grans empreses tecnològiques han demostrat que són incapaces de fer-ho quan es juguen uns guanys tan descomunals”.

El 20 de maig de 2022, Amnistia Internacional va escriure a Meta en relació amb les mesures de l'empresa relatives a les seves activitats empresarials a Myanmar abans i durant les atrocitats de 2017. Meta va respondre que no podia facilitar informació sobre el període anterior a 2017 perquè l'empresa està “actualment involucrada en un procediment judicial en relació amb afers semblants”.

El 14 de juny de 2022, Amnistia Internacional va tornar a escriure a Meta en relació amb les acusacions contingudes en l'informe i va donar a l'empresa l'oportunitat de respondre. Meta es va negar a fer comentaris.