Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món
Blog

Per què la Intel·ligència Artificial afecta els drets humans

Jordi Baltà - Vicepresident d'AIC,

Últimament no hi ha setmana, i pràcticament no hi ha dies, que no ens arribi alguna nova notícia en relació amb la Intel·ligència Artificial (IA): des de la facilitat amb què eines com ChatGPT responen les preguntes complexes que els plantegem, fins la previsió que la IA ens aporti una última cançó dels Beatles, a partir d’una gravació inacabada de John Lennon.

La IA té múltiples usos, molts dels quals poden ser positius. Alhora, la seva omnipresència, i els riscos que pot comportar el seu ús, fa que, com qualsevol altra tecnologia, calgui regular-la. Ens ho ha recordat el recent debat al Parlament Europeu sobre la proposta de Llei europea d’IA.

Ja fa temps que nombroses organitzacions de la societat civil, com Amnistia Internacional, han destacat que, si no es regula bé, la IA pot exacerbar les discriminacions i els riscos per als drets humans. També organismes internacionals com la UNESCO, a la Recomanació sobre l’Ètica de la IA, han demanat que les tecnologies s’utilitzin per promoure, defensar i exercir els drets humans, i no per vulnerar-los.

En aquest sentit, una de les qüestions que preocupa és el fet que, com que la IA utilitza sistemes de predicció basats en algoritmes, és fàcil que reprodueixi biaixos racistes, classistes, d’edat, capacitat o gènere que estan presents a la societat, i que poden representar una vulneració del dret a la igualtat i a no patir cap discriminació, establert a l’article 2 de la Declaració Universal dels Drets Humans.

L’any 2021, Amnistia Internacional va publicar un informe que denunciava els biaixos discriminatoris del sistema algorítmic utilitzat als Països Baixos per determinar si les sol·licituds de subvenció per a cures infantils presentades per les famílies eren incorrectes i potencialment fraudulentes. Així, moltes famílies amb ingressos baixos, entre les quals hi havia moltes persones pertanyents a minories ètniques, havien estat acusades injustament de frau per les autoritats tributàries. Davant de riscos com aquests, caldria que els governs prohibissin de manera immediata l’ús de dades relatives a la nacionalitat o a l’origen ètnic quan determinin el risc que algú incompleixi la llei.

També és necessari que hi hagi transparència sobre els algoritmes utilitzats. A l’Estat espanyol, per exemple, el bo social que s’aplica des de 2017 per rebaixar el preu de la llum de les famílies més vulnerables es basa en un codi secret que el govern no ha revelat. Una investigació periodística recent també ha evidenciat que des de 2018 la Seguretat Social utilitza la IA per determinar si una persona de baixa laboral pot tornar a la feina o no, un sistema opac i que caldria poder auditar.

Com passa en altres àmbits, els efectes de la IA en els drets humans no són responsabilitat només dels governs, sinó que afecten també les empreses. De fet, en un àmbit com la tecnologia les empreses tenen un paper molt significatiu: Meta, l’empresa matriu de Facebook, és considerada responsable d’haver reforçat els discursos racistes d’odi contra la població rohingya a Myanmar, a causa dels algoritmes que utilitza aquesta xarxa social.

El debat sobre la Llei europea d’IA

La Llei sobre la IA que actualment es debat a Europa neix d’una proposta formulada l’abril de 2021 per la Comissió Europea. El Consell de la UE, que representa els governs dels Estats membres de la UE, va emetre la seva posició en relació amb aquesta qüestió el passat mes de desembre, i recentment ho ha fet el Parlament Europeu. El procés, però, no ha acabat, ja que en els propers mesos les tres institucions han d’arribar a un acord per al text definitiu.

Davant d’aquesta negociació, Amnistia Internacional demana que es prohibeixi l’ús de tecnologies de vigilància massiva, com les tecnologies invasives de reconeixement facial, perquè reforcen pràctiques discriminatòries, sobretot en relació amb les persones racialitzades. Cal, també, reforçar la transparència en l’ús de la IA, implicar les persones afectades quan es prenguin decisions en relació amb la IA, i prohibir aquells sistemes d’IA que suposin un risc per als drets humans.

La recent decisió del Parlament Europeu sobre la Llei sobre la IA inclou aspectes positius, com la prohibició de les tecnologies de vigilància massiva abusives. Amb tot, no prohibeix els sistemes discriminatoris d’elaboració de perfils i avaluació de riscos, ni els sistemes de previsió que s’utilitzen per restringir, prohibir i evitar la mobilitat de les persones migrants, refugiades i sol·licitants d’asil, ni el desenvolupament i l’exportació a altres països de sistemes de reconeixement facial i tecnologies similars.

Com que la negociació segueix en marxa, Amnistia Internacional manté oberta una ciberacció adreçada a les autoritats europees, per demanar que la IA respecti els drets humans, que us invitem a signar.