Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

UE: La Llei d'Intel·ligència Artificial ha de prohibir les tecnologies perilloses basades en la intel·ligència artificial

Pixabay

"La Unió Europea (UE) ha de prohibir les tecnologies perilloses basades en la intel·ligència artificial en la Llei d'Intel·ligència Artificial", ha declarat avui Amnistia Internacional. La Unió té com a objectiu finalitzar el primer reglament integral sobre la intel·ligència artificial aquesta tardor.

Nombrosos estats de tot el món han utilitzat sistemes no regulats d'intel·ligència artificial per avaluar sol·licituds de prestacions socials, vigilar espais públics o determinar les probabilitats que algú cometi un delicte. Aquestes tecnologies solen ser etiquetades com a "solucions tècniques" per abordar problemes estructurals com la pobresa, el sexisme i la discriminació. Utilitzen quantitats de dades sensibles i sovint les integren de manera esgraonada en sistemes automatitzats per decidir si una persona hauria de rebre habitatge, prestacions socials, atenció sanitària i educació... o fins i tot ser acusada d'un delicte.

No obstant això, en comptes de resoldre els problemes socials, els sistemes d'intel·ligència artificial han amplificat flagrantment el racisme i les desigualtats, i han perpetuat danys als drets humans i la discriminació.

"Aquests sistemes no s'utilitzen per millorar l'accés de les persones a les prestacions socials: s'utilitzen per reduir les despeses."

Mher Hakobyan, assessor d'Amnistia Internacional per a la influència en la regulació de la intel·ligència artificial.

"Aquests sistemes no es fan servir per millorar l'accés de les persones a les prestacions socials, sinó per retallar despeses. I quan ja existeixen el racisme i la discriminació sistèmics, aquestes tecnologies amplifiquen els danys a les comunitats marginades en una escala i una velocitat molt més grans". 

"En lloc de centrar-se de manera desproporcionada en les 'amenaces existencials' que planteja la intel·ligència artificial, els òrgans legislatius de la UE haurien de crear lleis que abordin els problemes existents, com el fet que aquestes tecnologies s'utilitzen per prendre decisions manifestament discriminatòries que vulneren els drets humans fonamentals".

Privació cruel de prestacions per a la cura infantil.

El 2021, Amnistia Internacional va documentar com un sistema d'intel·ligència artificial utilitzat per les autoritats fiscals neerlandeses havia creat perfils racials de les persones que rebien prestacions per a la cura infantil. Aquesta eina estava dissenyada per verificar la autenticitat de les sol·licituds de prestacions, però el sistema va sancionar de manera equivocada milers de progenitors amb baixos ingressos i d'origen immigrant, abocant-los a deutes exorbitants i a la pobresa.

Batya Brown, a qui el sistema neerlandès d'atenció a la infància va acusar falsament de frau en les prestacions socials, va explicar que les autoritats fiscals li van reclamar la devolució de centenars de milers d'euros, fet que la va enredar en una xarxa de burocràcia i ansietat econòmica. Anys després, la justícia encara no s'ha pronunciat.

'Va ser tan estrany. Vaig rebre una carta que deia que m'havien donat per error subsidis per a la cura infantil. I vaig pensar, 'com pot ser?' Tenia vint-i-pocs anys. No sabia gaire sobre les autoritats fiscals. Em vaig veure immersa en aquest món de paperassa. Vaig veure com tot se m'escapava de les mans. Des que se'ns ha reconegut com a víctimes del que jo anomeno 'el frau dels subsidis', fins i tot quatre anys després, continuen tractant-nos com a simples números', ha afirmat Batya Brown.

'L'escàndol dels subsidis neerlandesos per a la cura infantil ha de servir d'avís als òrgans legislatius de la UE. L'ús de sistemes d'intel·ligència artificial per supervisar la concessió de prestacions essencials pot tenir conseqüències devastadores per a les comunitats marginades. La Llei d'Intel·ligència Artificial ha de prohibir els sistemes de puntuació social, perfilatge i avaluació de riscos, ja sigui utilitzada per vigilar les persones beneficiàries de prestacions socials, 'preveure' la probabilitat de cometre un delicte o prendre decisions sobre sol·licituds d'asil', ha afegit Mher Hakobyan

Prohibició de l'ús i l'exportació de sistemes de vigilància invasiva

Sota l'excusa de la 'seguretat nacional', els sistemes de reconeixement facial s'estan convertint en l'eina preferida pels governs que volen vigilar excessivament a les persones en la societat. Les agències encarregades de l'aplicació de la llei utilitzen aquests sistemes en espais públics per identificar a persones que podrien haver comès un delicte, tot i el risc d'arrests injustos.

Amnistia Internacional, que forma part d'una coalició de més de 155 organitzacions, ha demanat la prohibició total de l'ús retrospectiu i en temps real del reconeixement facial en espais públics accessibles, incloent-hi les zones frontereres i els voltants de centres de detenció, per part de tots els actors, sense excepcions, a la UE.

En llocs com Nova York, Hyderabad i els Territoris Palestins Ocupats (TPO), Amnistia Internacional ha documentat i denunciat com els sistemes de reconeixement facial acceleren els sistemes existents de control i discriminació.

A les TPO, les autoritats israelianes utilitzen el reconeixement facial per vigilar i controlar la població palestina, limitant la seva llibertat de moviment i la seva capacitat d'accedir a drets fonamentals.

La investigació d'Amnistia Internacional també ha revelat que es fan servir càmeres fabricades per l'empresa neerlandesa TKH Security com a part del sistema de vigilància implementat a la Jerusalem Oriental ocupada.

A més de garantir la prohibició total del reconeixement facial dins de la UE, els òrgans legislatius han de vetllar perquè aquesta tecnologia i altres tecnologies altament problemàtiques, que estan prohibits dins de la Unió, no siguin fabricades en aquesta per a ser exportades a països on s'utilitzen per cometre greus violacions de drets humans. La UE i els seus Estats membres tenen l'obligació, en virtut del dret internacional, de vetllar perquè les empreses sota la seva jurisdicció no treguin profit dels abusos als drets humans mitjançant l'exportació de tecnologies emprades per a la vigilància massiva i la persecució policial racista", va afegir Mher Hakobyan.

Abusos contra la població migrant

Els Estats membres de la UE han anat recorrent cada vegada més a l'ús de tecnologies opaques i hostils per facilitar els abusos contra persones migrants, refugiades i sol·licitants d'asil a les seves fronteres.

Els òrgans legislatius han de prohibir la creació de perfils racistes i els sistemes d'avaluació de riscos que etiqueten com a 'amenaces' a les persones migrants i sol·licitants d'asil, així com les tecnologies que preveuen moviments fronterers i neguen a les persones el dret d'asil.

No ham d'arribar al punt de Terminator o Matrix perquè aquestes amenaces siguin existencials

Alex Hanna, director d'Investigació del Distributed AI Research Institute (DAIR)

"Cada vegada que una persona passa per un aeroport, travessa una frontera, sol·licita una ocupació o és sotmesa a les decisions d'aquests models. No hem d'arribar al punt de 'Terminator' o 'Matrix' perquè aquestes amenaces siguin existencials. Per a la gent, aquestes amenaces són existencials si els arrabassen les seves oportunitats vitals i els seus mitjans de subsistència", ha dit Alex Hanna, director d'Investigació de Distributed AI Research Institute (DAIR).

Poder d'autoregular-se

Les grans empreses tecnològiques també han pressionat per introduir buits legals en el procés de classificació del risc de la Llei d'Intel·ligència Artificial, la qual cosa permetria a les mateixes empreses tecnològiques determinar si les seves tecnologies haurien de ser classificades com a "d'alt risc".

"És clau que la UE adopti una legislació sobre intel·ligència artificial que protegeixi i promogui els drets humans. Concedir a les grans empreses tecnològiques el poder d'autoregular-se minva greument els objectius fonamentals d'aquesta llei, incloent-hi la protecció de la ciutadania contra els abusos als drets humans. La solució és ben senzilla: tornar a la proposta original de la Comissió Europea, que proporciona una llista clara de situacions en què l'ús d'una eina d'intel·ligència artificial es consideraria d'alt risc", ha conclòs Mher Hakobyan.

Informació complementària

Amnistia Internacional, com a part d'una coalició d'organitzacions de la societat civil liderada per la Xarxa Europea de Drets Digitals (EDRi), ha estat demanant una regulació de la UE sobre la intel·ligència artificial que protegeixi i promogui els drets humans, inclosos els drets de les persones en moviment.

Està prevista la celebració de negociacions trilaterals d'alt nivell, conegudes com a 'diàlegs a tres bandes', entre el Parlament Europeu, el Consell de la UE (que representa als 27 Estats membres de la Unió) i la Comissió Europea al mes d'octubre, amb l'objectiu d'adoptar la Llei d'Intel·ligència Artificial abans que finalitzi el mandat actual de la UE el 2024.