Actuem pels drets humans a tot el món

Risc que el 'feed' 'Per a tu' de TikTok dirigeixi infants i jovent a continguts perjudicials per a la salut mental

© Suki Law
  • Una investigació tècnica en col·laboració amb Algorithmic Transparency Institute i AI Forensics va revelar que, després d'utilitzar la plataforma durant 5 o 6 hores, pràcticament 1 de cada 2 vídeos estava relacionat amb la salut mental i era potencialment perjudicial, una xifra que multiplicava aproximadament per 10 el volum presentat en perfils sense interès per la salut mental.
  • Es va produir un efecte 'espiral' encara més ràpid quan l'equip investigador va revisar manualment de nou els vídeos relacionats amb la salut mental que es van suggerir als comptes 'sock puppet' que imitaven usuaris de 13 anys a Kènia, les Filipines i els Estats Units.
  • Després de passar entre 3 i 20 minuts investigant manualment, més de la meitat dels vídeos del feed 'Per a tu' estaven relacionats amb problemes de salut mental, i molts dels vídeos recomanats en una sola hora idealitzaven, normalitzaven o encoratjaven el suïcidi.
  • El propi model de negoci de TikTok és intrínsecament abusiu i privilegia la interacció per retenir les persones usuaris a la plataforma, amb la finalitat de recopilar cada vegada més dades sobre elles. Les proteccions s'apliquen de manera desigual a les persones usuaris de diferents llocs del món.

El sistema de recomanació de continguts de TikTok i les seves pràctiques invasives de recopilació de dades suposen un perill per a les persones joves que utilitzen la plataforma, ja que amplifica continguts depressius i suïcides que podrien empitjorar problemes de salut mental preexistents, segons mostren els dos informes complementaris que publica avui Amnistia Internacional.

Els dos informes -Empesos a la foscor: El feed "Per a tu" de TikTok fomenta l'autolesió i la ideació suïcida i "Sento que no se m'està protegint": Emboscada a la xarxa de vigilància de TikTok- posen en relleu els abusos que pateixen nens, nenes i joves en utilitzar TikTok i les formes en què el sistema de recomanació de TikTok i el model de negoci subjacent provoquen aquests abusos.

Els resultats d'una investigació tècnica desenvolupada conjuntament amb les entitats associades - Algorithmic Transparency Institute (ATI), National Conference on Citizenship i AI Forensics - mostren que els nens, nenes i joves que veuen continguts relacionats amb la salut mental a la pàgina "Per a tu" de TikTok es veuen ràpidament abocats a una espiral de continguts potencialment nocius, inclosos vídeos que idealitzen i fomenten el pensament depressiu, les autolesions i el suïcidi.

"Els resultats exposen les pràctiques de disseny addictiu i manipulador de TikTok, el propòsit del qual és retenir els usuaris perquè interactuïn el màxim temps possible. També mostren que el sistema algorítmic de recomanació de continguts de la plataforma, al qual s'atribueix el seu ràpid augment global, exposa nens, nenes i joves amb problemes de salut mental preexistents a greus riscos de patir danys", ha declarat Lisa Dittmer, investigadora d'Amnistia Internacional.

El problema: el Feed “per a tu”

A "Empesos a la foscor: El feed "Per a tu" de TikTok fomenta l'autolesió i la ideació suïcida" es detallen els riscos que els intents constants de TikTok per captar l'atenció de les persones usuaris joves intensifiquin problemes de salut mental com la depressió, l'ansietat i les autolesions.

El feed "Per a tu" de TikTok és una pàgina altament personalitzada que es pot desplaçar sense fi, que mostra continguts recomanats algorítmicament, seleccionats per reflectir el que el sistema dedueix que pot interessar als usuaris.

La investigació tècnica es va desenvolupar amb més de 30 perfils automatitzats creats per representar a joves de 13 anys de Kènia i els Estats Units per tal de mesurar els efectes del sistema de recomanació de TikTok sobre persones usuaris joves. En una simulació addicional efectuada de forma manual es van incloure un compte a Kènia, un altre a les Filipines i un altre als Estats Units.

La investigació tècnica va revelar que, després d'utilitzar la plataforma TikTok 5 o 6 hores, pràcticament 1 de cada 2 vídeos mostrats estava relacionat amb la salut mental i era potencialment nociu, xifra que multiplicava aproximadament per 10 el volum presentat a comptes sense interès per la salut mental.

Es va produir un efecte "espiral" encara més ràpid quan l'equip investigador va visualitzar de nou manualment els vídeos relacionats amb la salut mental suggerits a les comptes d'investigació que imitaven a persones usuaris de 13 anys a Kènia, Filipines i Estats Units.

Després de passar entre 3 i 20 minuts de recerca manual, més de la meitat dels vídeos del feed "Per a tu" estaven relacionats amb problemes de salut mental i molts dels vídeos recomanats en una sola hora idealitzaven, normalitzaven o encoratjaven el suïcidi.

Addictiu per disseny

Els debats de grups-mostra, les entrevistes i les simulacions de comptes de TikTok de nens i nenes a Kènia, Filipines i Estats Units, així com les proves existents en els camps de la investigació sobre els danys de les xarxes socials i la salut pública, revelen que el disseny de la plataforma de TikTok fomenta l'ús malsà de l'aplicació.

*Luis, universitari de 21 anys de Manila diagnosticat de trastorn bipolar, va explicar a Amnistia Internacional la seva experiència amb el feed "Per a tu" de TikTok.

"És una cul-de-sac en la qual et fiques a partir d'un sol vídeo. Si un vídeo aconsegueix captar la teva atenció, encara que no t'agradi, te'l presenten quan tornes a obrir TikTok i, com que et resulta familiar, el tornes a veure. En veure'l de nou, la seva freqüència al feed augmenta exponencialment", va explicar Luis.

*Francis, estudiant de 18 anys de la província filipina de Batangas, va observar: "Quan veus un vídeo trist amb el qual et sents identificat, de sobte tota la pàgina 'Per a tu' està trista, entres a 'tristok'. Afecta el meu estat d'ànim".

Un altre participant en el grup-mostra va explicar: "El contingut que veig - com ara vídeos en què algú està malalt o s'autodiagnostica - em porta a pensar excessivament [encara] més. Afecta la meva mentalitat, em fa sentir que tinc els mateixos símptomes i agreuja la meva ansietat. Ni tan sols busco aquests vídeos, simplement apareixen al meu feed".

*Joyce, dona de 21 anys de Filipines, va afirmar: "La vaig esborrar [l'aplicació de TikTok] durant un temps, però va ser perquè hi estava molt enganxad... Passava moltes hores a TikTok, simplement navegant pels vídeos, a causa que no pots evitar preguntar-te què sortirà a continuació en desplaçar la pantalla".

Nens, nenes i joves entrevistats a Kènia van declarar que consideraven que usar TikTok afectava les seves tasques escolars i el temps dedicat a les relacions socials amb els seus amics, i que provocava que naveguessin pels seus feeds a altes hores de la nit en lloc de dormir prou.

Aquests testimonis de nens, nenes i joves van ser corroborats per especialistes en psicologia de l'adolescència als quals va consultar Amnistia Internacional en el marc de la investigació.

Encara que les respostes particulars de les persones joves poden variar, així com els factors contextuals que afecten l'ús que fan de les xarxes socials, TikTok, igual que altres plataformes, ha determinat el seu disseny amb la intenció de maximitzar el temps que passen a la plataforma als usuaris.

"La nostra investigació mostra que TikTok pot exposar nens, nenes i joves a greus riscos per a la salut si persisteix en el seu actual model de negoci, més orientat a mantenir els ulls fixos a la plataforma que a respectar el dret a la salut dels usuaris", ha declarat Lisa Dittmer, investigadora d'Amnistia Internacional.

La xarxa de vigilància

"Sento que no se m'està protegint": Emboscada a la xarxa de vigilància de TikTok mostra com les pràctiques de recopilació de dades de TikTok, que vulneren els drets, apunten a aquestes pràctiques nocives de captació d'usuaris i es sustenten en aquestes pràctiques.

La investigació d'Amnistia Internacional mostra que el propi model de negoci de TikTok és intrínsecament abusiu i privilegia la interacció per retenir les persones usuaris a la plataforma, amb la finalitat de recopilar cada vegada més dades sobre elles. Després TikTok utilitza aquestes dades per crear perfils de les persones usuaris i generar inferències sobre elles, el que li permet segmentar-les en grups i dirigir-se a elles mitjançant continguts i anuncis altament personalitzats per aconseguir que segueixin interactuant. Aquests grups i categories es posen també a disposició dels anunciants perquè puguin oferir anuncis personalitzats a les persones usuaris.

Encara quan TikTok ha instaurat certes polítiques i pràctiques per garantir més respecte dels drets de nens i nenes, aquestes difereixen d'una regió a una altra, la qual cosa deixa als nens, nenes i joves d'unes parts del món exposats a la recopilació de dades amb finalitat d'explotació en altres.

"TikTok es dirigeix als usuaris, nens i nenes inclosos, amb pràctiques de recopilació de dades més invasives en aquelles parts del món on tenen menys protecció per a les seves dades en virtut de la legislació i normativa local, la qual cosa significa que els nens i les nenes que viuen en països on la normativa és laxa, inclosos molts de la Majoria Global, són objecte dels pitjors abusos contra el dret a la privacitat", ha declarat Lauren Armistead, directora adjunta del programa Amnesty Tech.

"TikTok ha de respectar els drets de totes les seves persones usuaris joves, no només a Europa, i prohibir tota la publicitat segmentada que es dirigeixi a menors de 18 anys arreu del món".

TikTok també ha de deixar d'hiperpersonalitzar per defecte el feed "Per a tu" i, en el seu lloc, permetre que els usuaris triïn de forma activa quins interessos originen la recomanació de continguts, sobre la base d'un consentiment ben fonamentat i de si desitgen veure un feed personalitzat.

Encara que Amnistia Internacional demana a TikTok que dugui a terme aquests passos urgents cap a un model de negoci que respecti els drets, és necessària també una legislació vinculant per protegir i fer realitat els drets de nens, nenes i joves.

La millor manera de protegir nens i nenes de l'abús de les seves dades personals en línia és que els governs prohibeixin per llei tota la publicitat segmentada que es basi en una recopilació invasiva de dades personals.

En resposta a les nostres conclusions, TikTok ens va remetre a les seves Normes de la comunitat, en les quals s'estableixen quins tipus de continguts estan prohibits i, per tant, en cas que es denunciïn o es detectin d'una altra manera, se'n retiren de la plataforma. En les normes, es declara que no està permès "mostrar, promoure o proporcionar instruccions de suïcidi i autolesions, o qualsevol desafiament, repte, joc o pacte relacionat", "mostrar o promoure bromes sobre el suïcidi i les autolesions" ni "compartir plans de suïcidi i autolesions".

TikTok va declarar que està en procés de "elaborar un procés de diligència deguda en matèria de drets humans per a tota l'empresa que inclourà la realització periòdica d'avaluacions d'impacte en aquest àmbit". L'empresa no va proporcionar detalls sobre els riscos específics que ha identificat per als drets humans de nens, nenes i joves. El fet que TikTok no compti actualment amb un procés de diligència deguda en matèria de drets humans a nivell d'empresa és un clar incompliment de la responsabilitat empresarial de respectar els drets humans.

Informació complementària

Tots dos informes se sumen a les proves explorades en informes previs d'investigació d'Amnistia Internacional. Gegants de la vigilància va mostrar com el model empresarial de Facebook i Google és intrínsecament incompatible amb el dret a la privacitat i representa un perill per a diversos altres drets, com la llibertat d'opinió i d'expressió, la llibertat de pensament i el dret a la igualtat i a no patir discriminació.

En els informes d'Amnistia Internacional sobre Myanmar i el paper de Meta en la persecució dels rohingyes i Etiòpia: La inacció de Meta va contribuir a la comissió d'abusos contra la comunitat de Tigre durant el conflicte al nord d'Etiòpia es va revelar que el model de negoci de la plataforma Facebook basat en la interacció pot tenir efectes devastadors a través de l'amplificació de continguts extrems que inciten a la violència, l'odi i la discriminació, la qual cosa en última instància contribueix a greus violacions dels drets humans i a abusos contra aquests.

Junts, aquests informes amplien la creixent base de proves de la campanya global d'Amnistia Internacional per exigir la rendició de comptes empresarial i la reparació dels abusos contra els drets humans associats al model de negoci de Meta, Google, TikTok i altres plataformes "Big Tech", basat en la vigilància.