Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

Amnistia presenta eines de Rendició de Comptes sobre Ús d'Algoritmes per obligar a respondre dels danys facilitats per IA

©Almost Studio

Segons ha manifestat avui Amnistia Internacional, amb motiu de la pròxima presentació del seu conjunt d’eines de Rendició de Comptes sobre l’Ús d’Algoritmes, davant l’ús generalitzat de sistemes d’intel·ligència artificial i de presa de decisions automatitzada que afecten la nostra vida diària, és essencial dotar els defensors i defensores dels drets humans, activistes i comunitats d’eines que els permetin posar llum sobre les greus implicacions per als drets humans que aquests sistemes comporten.

El conjunt d'eines es basa en les investigacions, campanyes i treball d'incidència i amb mitjans de comunicació d'Amnistia Internacional a Dinamarca, Suècia, Sèrbia, França, l'Índia, el Regne Unit, el Territori Palestí Ocupat (TPO), els Estats Units i Països Baixos. Proporciona una guia pràctica per a investigar, treure a la llum i exigir rendició de comptes pels danys derivats dels sistemes algorítmics que cada vegada estan més integrats en la nostra vida quotidiana, concretament en els àmbits del sector públic relacionats amb les prestacions socials, la funció policial, la sanitat i l'educació.

Amb independència de la jurisdicció en la qual s'implementin aquestes tecnologies, el seu desplegament no sol donar com a resultat societats més “eficients” o “millors”, com declaren nombrosos funcionaris governamentals i empreses, sinó més aviat biaixos, exclusió i abusos contra els drets humans.

“El conjunt d'eines està destinat a qualsevol persona que desitgi investigar o qüestionar l'ús de sistemes algorítmics i intel·ligència artificial en el sector públic, incloses organitzacions de la societat civil, periodistes, persones afectades o organitzacions comunitàries. Està dissenyat de manera que es pot adaptar a diversos entorns i contextos.

“És essencial que fem créixer la nostra capacitat col·lectiva d'investigar i exigir rendició de comptes pels sistemes d'IA nocius, a fi d'impugnar les pràctiques abusives dels Estats i les empreses i de respondre al moment actual d'inversió massiva en IA. Cal tenir en compte que aquests sistemes poden permetre la vigilància massiva, soscavar el nostre dret a la protecció social, restringir la nostra llibertat de protesta pacífica i perpetuar l'exclusió, la discriminació i els prejudicis en tota la societat”, va manifestar Damini Satija, directora de Programa de Amnesty Tech.

El conjunt d'eines presenta un enfocament múltiple basat en les conclusions de les recerques realitzades per Amnistia Internacional en aquest àmbit durant els últims tres anys, així com en les lliçons apreses de diverses col·laboracions amb socis clau. Aquest enfocament no sols proporciona eines i plantilles pràctiques per a investigar aquests sistemes opacs i les violacions dels drets humans a les quals donen lloc, sinó que també estableix un conjunt integral de tàctiques dirigit als qui treballen per a posar fi a aquests sistemes abusius procurant el canvi i la rendició de comptes a través de campanyes, comunicacions estratègiques, treball d'incidència o litigi estratègic.

Un dels molts casos pràctics en els quals es basa el conjunt d'eines és la recerca d'Amnistia Internacional sobre el sistema de benestar de Dinamarca. La recerca exposa el fet que el sistema de benestar social basat en la intel·ligència artificial que utilitza l'autoritat danesa de benestar social, Udbetaling Danmark (UDK), estimula la vigilància massiva i comporta el risc de discriminar les persones amb discapacitat, de baixos ingressos, migrants, refugiades i als grups racials marginats mitjançant l'ús d'eines d'intel·ligència artificial que assenyalen a persones perquè les hi investigui per frau a les prestacions socials. La recerca no hauria estat possible sense la col·laboració de les comunitats afectades, periodistes i organitzacions locals de la societat civil. És per això que el conjunt d'eines és producte de l'estreta col·laboració entre diferents grups disciplinaris.

El conjunt d'eines situa la legislació sobre drets humans com un component de gran valor per a la labor de rendició de comptes sobre l'ús d'algorismes, especialment tenint en compte que existeix una llacuna en el camp de la IA ètica i responsable i en els mètodes d'auditoria. En última instància, el mètode d'Amnistia Internacional posa l'accent en el treball col·laboratiu, al mateix temps que aprofita la influència col·lectiva d'un enfocament multimètode. Les comunitats i la seva capacitat d'acció per a impulsar la rendició de comptes continuen sent un aspecte central del procés.

Aquesta qüestió és encara més urgent avui dia, donades les asseveracions i els experiments que es fan de forma generalitzada i sense control entorn dels suposats beneficis de l'ús de la IA en la prestació de serveis públics. Els actors estatals estan recolzant enormes inversions en el desenvolupament i la infraestructura de la IA i donant a les empreses carta blanca perquè persegueixin els seus interessos lucratius, independentment de les repercussions que això tingui sobre els drets humans ara i en el futur”, va afirmar Damini Satija.

“Amb aquest conjunt d'eines, pretenem democratitzar el coneixement i permetre que organitzacions de la societat civil, equips investigadors, periodistes i persones afectades destapin aquests sistemes i les indústries que els produeixen, exigeixin rendició de comptes i posin fi als abusos que aquestes tecnologies possibiliten.”

Informació complementària

Amnistia Internacional ha realitzat treball de recerca i incidència sobre l'automatització i digitalització del sector públic i els riscos i conseqüències per als drets humans de la presa de decisions algorítmica a Dinamarca, França, Països Baixos, l'Índia i Sèrbia.

La campanya en curs d'Amnistia Internacional Veto a l'escaneig demana que es prohibeixi l'ús de tecnologia de reconeixement facial. La campanya es basa en la recerca i el treball d'incidència realitzats per l'organització en el Territori Palestí Ocupat, Nova York i Hyderabad.