Actuem pels drets humans a tot el món

Buscar

Un estudi a Twitter per crowdsourcing revela la dimensió de les conductes abusives en línia contra les dones

Amnistia Internacional i Element AI publiquen l'estudi més extens realitzat sobre conductes abusives en línia contra les dones

Amnistia Internacional i Element AI, empresa global de desenvolupament de programes d'intel·ligència artificial, publiquen l'estudi més extens realitzat sobre conductes abusives contra dones a Twitter, manifestant que un de cada 10 tuits en els quals s'esmentava a periodistes i polítiques negres era ofensiu o problemàtic.

Més de 6.500 persones voluntàries de 150 països es van inscriure per participar en la Patrulla Antitrols, projecte únic de crowdsourcing (col·laboració col·lectiva) per a processar dades en gran escala sobre conductes abusives en línia. Aquestes personesvan classificar 228.000 tuits enviats a 778 dones de la política i el periodisme al Regne Unit i als Estats Units en 2017.

A continuació, Amnistia Internacional i Element AI van usar avançades tècniques d'aprenentatge automàtic i ciència de dades per extrapolar dades sobre l'abast de les conductes abusives contra les dones a Twitter. Element AI va calcular que s'havien enviat 1.100.000 tuits ofensius o problemàtics a les dones de l'estudi en tot l'any, o una mitjana d'un cada 30 segons.

"Amb l'ajuda de tècnics experts i milers de voluntaris, hem creat el major conjunt de dades en el món obtingut mitjançant col·laboració col·lectiva sobre conductes abusives en línia contra les dones. La Patrulla Antitrols ens ha facilitat les dades que donen suport a allò que les dones diuen des de fa temps: que Twitter és un espai on es permet que el racisme, la misogínia i l'homofòbia prosperin pràcticament sense control", ha afirmat Milena Marin, assessora general sobre investigació tàctica d'Amnistia Internacional.

"Vam descobrir que, si bé les conductes abusives es dirigien contra dones de totes les tendències polítiques, les de color tenien moltes més probabilitats de ser atacades i, de manera desproporcionada, les dones negres. No solucionant aquest problema, Twitter està contribuint a silenciar veus ja marginades."

Element AI va utilitzar les dades recopilades per la Patrulla Antitrols per desenvolupar un model d'aplicació basat en aprenentatge automàtic que intenta detectar els tuits abusius. Element AI permet accedir el model aquí per provar-ho durant tres setmanes, i així descobrir les limitacions actuals i potencials de la tecnologia d'AI en aquest àmbit.

"Aquest estudi forma part d'una associació a llarg termini entre Amnistia Internacional i Element AI. Amb un enfocament seriós sobre la intel·ligència artificial, la nostra empresa estableix compromisos a llarg termini, posant les seves eines i experts tècnics al servei dels agents del bé comú perquè facin el que millor saben fer", ha afirmat Julien Cornebise, director d'investigació d'AI For Good i director de l'oficina d'Element AI a Londres.

La mostra incloïa a polítiques de tot l'espectre polític dels Estats Units i el Regne Unit. Les periodistes de la mostra treballaven per a publicacions nord-americanes i britàniques molt diverses, entre elles Daily Mail, The New York Times, The Guardian, The Sun, gal-dem, PinkNews i Breitbart News.

Principals conclusions

  • El nombre d'atacs dirigits contra dones negres era desproporcionat: tenien el 84% més de probabilitats que les dones blanques de ser esmentades en tuits ofensius o problemàtics. Un de cada 10 tuits en els quals s'esmentava a dones negres era abusiu o problemàtic, enfront d'un de cada 15 en el cas de les dones blanques.
  • El 7,1% dels tuits enviats a les dones de l'estudi eren ofensius o problemàtics. Això suposa 1.100.000 tuits en tot l'any on s'esmenta a 778 dones, o un tuit cada 30 segons.
  • Les dones de color (negres, asiàtiques, llatines i de raça mixta) tenien el 34% més de probabilitats que les dones blanques de ser esmentades en tuits ofensius o problemàtics.
  • Les conductes abusives en línia contra les dones es donen en tot l'espectre polític. Observem nivells semblants de conducta abusiva en línia contra polítiques i periodistes, i vam comprovar que afectava per igual a liberals i conservadores, així com a organitzacions de mitjans de comunicació tant d'esquerres com de dretes.

Amnistia Internacional ha demanat reiteradament a Twitter que publiqui les dades relatives a l'abast i la naturalesa de les conductes abusives en la seva plataforma però, de moment, l'empresa no ho ha fet. Així amaga la magnitud del problema i dificulta la recerca de solucions eficaces.
El personal voluntari de Patrulla Antitrols va dedicar de manera col·lectiva la quantitat increïble de 2.500 hores a analitzar tuits, equivalent a la feina d'una persona a temps complet durant un any i mig.

"Gràcies a la investigació realitzada mitjançant col·laboració col·lectiva hem pogut reunir dades fonamentals en molt menys temps que un investigador o investigadora d'Amnistia, sense perdre l'element de criteri humà, tan essencial per examinar un context de tuits", ha dit Milena Marin.

"La Patrulla Antitrols no consisteix a actuar com a policia de Twitter, ni a obligar a l'empresa a eliminar continguts. Demanem que sigui més transparent, i esperem que les dades de la Patrulla Antitrols la impulsin a realitzar aquest canvi. És fonamental que Twitter comenci a ser transparent pel que fa al seu ús precís de les tècniques d'aprenentatge automàtic per detectar conductes abusives, i així mateix que publiqui informació tècnica sobre els algoritmes en què es basen."

Informació complementària

El contingut abusiu infringeix les mateixes regles de Twitter i inclou els tuits en què amenaça o promou la violència contra algú per la seva raça, origen ètnic, origen nacional, orientació sexual, gènere, identitat de gènere, filiació religiosa, edat, discapacitat o malaltia greu. El contingut problemàtic es defineix com lesiu o hostil, sobretot si es repeteix contra una persona en múltiples ocasions, però no tan intens com el material abusiu.

Amnistia Internacional va compartir les seves conclusions amb Twitter, que va respondre sol·licitant aclariment del terme "problemàtic", "d'acord amb la necessitat de protegir la llibertat d'expressió i garantir l'elaboració de polítiques clares i ben delimitades".