Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

Regne Unit: La cimera de seguretat de la Intel·ligència Artificial no pot ignorar els greus perjudicis als drets humans de la tecnologia de detecció de fraus

El primer ministre britànic, Rishi Sunak. Imatge: REUTERS/Susannah Ireland

Amb motiu de la pròxima Cimera de Seguretat de la IA del Regne Unit, que començarà dimecres 1 de novembre, Damini Satija, directora del Laboratori de Rendició de Comptes sobre l’ús d’algoritmes d’Amnistia Internacional ha manifestat:

La Cimera de Seguretat de la IA del Regne Unit ha de donar bon exemple en la cursa global per regular la intel·ligència artificial, i no estar dominada per discursos especulatius sobre les “amenaces existencials” d’aquestes tecnologies, en perjudici de qui avui pateix les pitjors conseqüències dels sistemes d’IA en matèria de drets humans”.

La setmana passada, el primer ministre britànic, Rishi Sunak, va promoure l’ús de les eines d’IA per “actuar dràsticament contra qui comet frau en les prestacions socials” com un avenç tecnològic positiu, fent cas omís de la investigació que demostra el caràcter discriminatori d’aquests sistemes i el seu freqüent ús indegut.

¿On reconeix el govern aquests danys que causa la IA, i on rau el seu interès a regular i protegir les comunitats més marginades? El programa de treball d’aquesta cimera sobre intel·ligència artificial afavoreix clarament els interessos del sector tecnològic, i això és preocupant perquè l’ús d’aquestes tecnologies tendeix a perjudicar els grups marginats.

En un assaig anterior amb aquestes tecnologies al Regne Unit, el Ministeri de Treball i Pensions va tractar injustament persones discapacitades, sotmetent-les a investigacions per frau en el cobrament de les pensions i submergint-les en un laberint burocràtic interminable, sense traces de transparència ni justícia.

L’any 2021, la investigació d’Amnistia Internacional va posar al descobert les devastadores conseqüències d’un sistema d’IA discriminatori emprat per les autoritats dels Països Baixos per detectar sol·licituds fraudulentes de prestacions infantils, i els seus efectes racialitzats sobre el dret a la seguretat social. Quatre anys després, les persones afectades segueixen esperant justícia i rendició de comptes.

Els Estats tendeixen a implementar sistemes d’IA com a “solucions tècniques” a problemes socials, però en la pràctica solen ser mesures de reducció de costos que agreugen polítiques que ja són punitives per a la població marginada.

Els compromisos que es formulen a la cimera no han de centrar-se en discursos alarmistes sobre la IA, sinó acostar-nos a una normativa que garanteixi que les mesures de protecció que adoptem davant els danys causats per la IA se centren en els drets humans i les veus de les comunitats afectades.

Informació complementaria

Amnistia Internacional, en col·laboració amb més de 100 organitzacions de la societat civil, ha demanat al govern britànic que les persones i les comunitats més afectades per la IA segueixin estant en primera línia de la presa de decisions.

Amnistia Internacional, com a part d’una coalició d’organitzacions de la societat civil encapçalada per la Xarxa Europea de Drets Digitals (EDRi), ve demanant una regulació de la UE sobre la intel·ligència artificial que protegeixi i promogui els drets humans, inclosos els drets de les persones en moviment.