Amnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsAmnesty IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid IconsCovid Icons
Actuem pels drets humans a tot el món

Els Països Baixos han de posar fi als experiments policials de vigilància massiva

"La policia dels Països Baixos ha de deixar immediatament d'utilitzar sistemes algorítmics que desemboquen en una vigilància massiva indiscriminada i l'ús de criteris racials", afirma Amnistia Internacional en un informe que denuncia l'amenaça que representa l'actuació policial "predictiva" per als drets humans.

L'informe We Sense Trouble documenta els perills dels projectes emergents de "actuació policial predictiva" que estan desplegant els organismes encarregats de fer complir la llei dels Països Baixos. Aquests projectes, qualificats de "laboratoris vius" per la policia neerlandesa, utilitzen models matemàtics per avaluar el risc que determinada persona cometi un delicte o que aquest es cometi en determinat lloc, i després adrecen els esforços d'aplicació de la llei cap a aquestes persones o llocs considerats de "alt risc".

Amnistia Internacional va investigar un projecte d'actuació policial predictiva a la ciutat de Roermond anomenat Projecte Detecció. Aquest experiment policial tracta les persones de Roermond com conillets d'Índies sotmesos a vigilància massiva i discrimina les procedents de països d'Europa de l'Est.

"El que fins fa poc pertanyia a la ciència ficció ara és una realitat per a persones dels Països Baixos. L'actuació policial predictiva sotmet les persones a vigilància massiva indiscriminada, un fet que mai no pot justificar-se", ha afirmat Merel Koning, responsable superior de polítiques, tecnologia i drets humans d'Amnistia Internacional.

"El problemàtic experiment de Roermond, que utilitza perfils per a les persones d'Europa de l'Est i les discrimina, posa de manifest que els sistemes policials basats en algorismes són perjudicials, no predictius. Encara que aquests projectes estan proliferant ràpidament al país, no hi ha les salvaguardes necessàries per abordar les nombroses amenaces que representen per als drets humans. El Parlament neerlandès ha d'actuar per posar fi immediatament a l'ús d'aquests sistemes fonamentalment erronis".

El disseny i desenvolupament de sistemes predictius d'actuació policial són fets publicitats sovint com "objectius" i "neutrals", però els prejudicis i estereotips estan arrelats en els models i algorismes. Això dona resultats discriminatoris, amb puntuacions de més risc per a determinats grups.

Amnistia Internacional demana una avaluació obligatòria de l'impacte en els drets humans de les tecnologies policials predictives abans del seu ús. Fins avui, cap dels sistemes que usa la policia neerlandesa ha estat sotmès a una avaluació exhaustiva des del punt de vista dels drets humans.

El Projecte Detecció

Segons la policia, el Projecte Detecció està dissenyat per prevenir i detectar delictes contra la propietat.

Les autoritats neerlandeses afirmen que el sistema és neutral i que està basat en dades objectives sobre delinqüència; no obstant això, Amnistia Internacional documenta que el Projecte Detecció és discriminatori en el seu propi disseny, perquè reflecteix prejudicis humans integrats en l'actuació policial. El fet que el projecte giri a l'entorn del l'activitat de carteristes i furts en comerços comesos específicament per persones d'Europa de l'Est, desemboca en l'aplicació de criteris racials automàtics.

Amb càmeres i altres sensors, la policia vigila sistemàticament totes les persones que circulen en automòbil a Roermond i els seus voltants, aplegant informació sobre vehicles i patrons de moviments. Les dades recollides es processen després amb un model algorítmic que calcula una "puntuació de risc" per a cada vehicle, dada que la policia creu que informa de la probabilitat que qui condueix i els qui viatgen en el vehicle cometin un delicte contra la propietat. Un dels indicadors utilitzats per fer aquesta valoració és si les persones que van en el vehicle són d'Europa de l'Est.

Quan un vehicle és identificat com d'alt risc, la policia intentarà interceptar-lo i comprovar els documents d'identitat de la persona que condueix i de les que viatgen amb ella. La legislació neerlandesa no té salvaguardes legals adequades per prevenir donar l'alto i escorcollar de forma arbitrària i discriminatòria.

"Les persones residents de Roermond, així com qualsevol que viatgi a la ciutat, estan sent utilitzades de fet com conillets d'Índia en un experiment pel qual no han donat el seu consentiment. Aquest és un sistema intrínsecament discriminatori, dissenyat per aplicar criteris racials i ser utilitzat contra les persones procedents d'Europa de l'Est", va concloure Merel Koning.

"Les autoritats neerlandeses han de demanar la paralització del Projecto Detecció i d'experiments similars, que constitueixen una clara violació del dret a la intimitat, el dret a la protecció de dades i els principis de legalitat i no discriminació".

Amnistia Internacional també demana a les autoritats neerlandeses que avaluïn quantes persones s'han vist afectades pel Projecte Detecció i altres projectes experimentals comparables d'actuació policial predictiva i de quina forma ho han estat. Aquesta informació haurà de fer-se pública, juntament amb les mesures adoptades per permetre un recurs efectiu i una reparació de les persones afectades.