Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

L’adopció dels governs de tecnologies incontrolades en els sistemes de protecció social soscava drets

Il·lustració sobre l'impacte de les tecnologies digitals
Simina Popescu

“Les tecnologies digitals –incloses la intel·ligència artificial, l’automatització i la presa de decisions basada en algoritmes– està exacerbant les desigualtats en els sistemes de protecció social a tot el món”, afirma Amnistia Internacional en un nou informe publicat avui.

“Des de Sèrbia fins a la Índia, passant pels Països Baixos, aquestes tecnologies són aclamades pels governs com a solucions d’avantguarda per aconseguir una millor distribució dels recursos, millorar els sistemes administratius, detectar frau i millorar la seguretat. No obstant, la investigació d’Amnistia Internacional ha demostrat que la digitalització incontrolada de sistemes de protecció social planteja múltiples riscos per als drets humans i agreuja les desigualtats”, ha declarat Imogen Richmond-Bishop, investigadora de Tecnologia i Drets Econòmics, Socials i Culturals d’Amnesty Tech.

“Davant les múltiples crisis globals causades pels conflictes, l’emergència climàtica i la pandèmia de la COVID-19, entre altres factors, és més necessari que hi hagi sistemes de protecció social sòlids per protegir les persones i les comunitats davant de la inseguretat dels ingressos”.

Social Protection in the Digital Age subratlla els riscos que l’ús incontrolat de les tecnologies digitals representa per als drets humans.

El registre de la targeta social de Sèrbia és un bon exemple de sistema de presa de decisions semiautomatitzat que s’utilitza en un panorama ja defectuós de la seguretat social i que afecta directament les comunitats ja marginades, com s’exposa en un informe d’Amnistia Internacional del 2023. Aquesta tecnologia, que es va implementar sense salvaguardes ni proteccions adequades pels drets humans, va tenir conseqüències concretes per a les comunitats romanís i les persones amb discapacitat.

Més discriminació

El sistema va ampliar la discriminació, que ja existia, i va crear obstacles addicionals a l’accés al dret a la seguretat social. Moltes de les persones que van ser entrevistades per Amnistia Internacional van ser desposseïdes de la seva exigua ajuda en efectiu, fet que va implicar que el seu accés a béns i serveis essencials –com aliments i medicines– quedés suspès a causa de defectes en el registre de la targeta social.

A l'Índia, el sistema d’identificació biomètrica Aadhaar –que proporciona un número d’identificació únic a casa persona, sigui nacional o resident, i fins i tot si és menor d’edat– s’utilitza com a vehicle per verificar i autentificar la informació sobre la identitat en molts serveis públics, com les prestacions de la seguretat social i les racions alimentàries, entre altres. Aquest tipus de registres es fan utilitzant mètodes totalment digitalitzats. Els periodistes i professionals de la investigació de la societat civil, entre altres persones i entitats, han documentat com això ha suposat l’exclusió de moltes persones d’una protecció social vital.

“És essencial que abans d’introduir la tecnologia en els sistemes de protecció social, els Estats estudiïn i sospesin el seu ús davant els possibles riscos pels drets humans. La introducció de qualsevol tecnologia ha d’anar acompanyada d’avaluacions independents i sòlides sobre el seu impacte en els drets humans durant tot el cicle de vida del sistema, des del disseny fins al desplegament. A més, han d’existir mesures de mitigació efectives”, ha expressat Imogen Richmond-Bishop.

Consulta a comunitats afectades

“Ha de consultar-se a les comunitats que es veuran afectades per qualsevol canvi d’aquests sistemes vitals de suport i comunicar-se d’una manera clara i accessible. És clau que, si es conclou que un sistema té el potencial de causar danys als drets humans i que no es poden prevenir d’una manera efectiva, no s’ha d’utilitzar mai”.

El 2023, la investigació d’Amnistia Internacional presentada en l’informe Trapped by Automation: Poverty and Discrimination in Serbia’s Welfare State va documentar que grans parts de la població –especialment romanís i persones amb discapacitats –després d’haver estat eliminades de l’ajuda de l’assistència social com a conseqüència de la introducció del registre de la targeta social, no podien pagar les seves factures, ni dur aliments a les seves llars i tenien dificultats per arribar a final de mes.

El 2021 Amnistia Internacional va documentar com un sistema d’algoritmes utilitzat per les autoritats neerlandeses havia elaborat perfils racials de la població que rebia subsidis per a cures infantils. Aquest instrument estava pensat per verificar si les sol·licituds dels subsidis eren autèntiques o fraudulentes. No obstant, el sistema va penalitzar erròniament la informació complementària de milers de progenitors d’origen immigrant i amb baixos ingressos. Aquest error va sumir moltes famílies en deutes desorbitats i en la pobresa.