Amnistia Internacional alerta que la intel·ligència artificial amplifica el racisme i les desigualtats

L’ONG exigeix prohibir sistemes de reconeixement en llocs públics i evitar que les multinacionals puguin autoregular-se


Amnistia Internacional alerta que la intel·ligència artificial (IA) agreuja diversos problemes socials i exigeix a la UE la prohibició de les eines que utilitzen aquesta tecnologia de forma “perillosa”. “Els sistemes d’IA han amplificat de forma flagrant el racisme i les desigualtats i han perpetuat la vulneració dels drets humans”, ha apuntat aquest dijous l’ONG en un comunicat. En un context en què les institucions comunitàries estan negociant la primera llei per definir els límits de la IA, l’organització ha advertit dels perills vinculats a la nova tecnologia i ha exigit mesures com el veto de sistemes de reconeixement facial en llocs públics o evitar que les grans multinacionals guanyin capacitat per “autoregular” el sector.

Segons l’assessor sobre regulació de la intel·ligència artificial d’Amnistia Internacional, Mher Hakobyan, bona part dels sistemes basats en noves tecnologies que es fan servir avui dia “no s’empren per millorar el benestar de la gent, sinó que es fan servir per estalviar costos”. “Quan ja existeixen problemes sistèmics com el racisme i la discriminació, aquestes tecnologies danyen encara més les comunitats marginades”, lamenta.

En aquest sentit, l’expert recomana que la UE, més que centrar-se en les amenaces potencials de la intel·ligència artificial, formuli lleis “que facin front als problemes existents, com ara que la tecnologia s’usi per prendre decisions discriminatòries que vulnerin drets humans bàsics”.

En relació amb aquesta qüestió, l’article fa menció a una eina emprada pel govern dels Països Baixos que pretenia detectar si les sol·licituds d’ajudes a la infància eren fraudulentes o no. Segons Amnistia, el sistema “va penalitzar erròniament milers de famílies de classe baixa i d’origen immigrant, enfonsant-los en la pobresa i haver de fer front a més deutes”.

De fet, l’organització lamenta que els estats membres recorrin a tecnologies “opaques i hostils” per “abusar de migrants” i exigeix que es prohibeixi el biaix “racista” d’alguns sistemes d’avaluació.

Veto als sistemes de reconeixement facial

Una altra de les demandes d’Amnistia Internacional és prohibir “sense excepcions” els sistemes de reconeixement facial en espais públics, incloent-hi zones frontereres al voltant de centres de detenció. Per l’ONG, aquestes tecnologies s’han convertit en l’eina “per excel·lència” per dur a terme una vigilància que considera “excessiva” i que, alerta, poden derivar en detencions “incorrectes”.

Per altra banda, l’organització exigeix als legisladors europeus que prohibeixin l’exportació de productes “problemàtics” a països que vulneren de forma reiterada els drets humans. “Els estats tenen l’obligació d’assegurar que les companyies dins la seva jurisdicció no treuen rèdit de l’abús dels drets humans”, assenyala.

Posar límits a les empreses

Finalment, Amnistia Internacional denuncia que les grans multinacionals del sector han exercit diversos tipus de pressions per decidir quines tecnologies són considerades “d’alt risc”. Davant aquest escenari, l’entitat veu “crucial” que sigui la UE la que faci aquesta classificació per evitar que les empreses gaudeixin de la capacitat d’autoregular-se.

Subscriu-te al butlletí de Social.cat per rebre les últimes novetats al teu correu.


No hi ha cap comentari

Comenta aquest article