El uso policial de herramientas apoyadas por la inteligencia artificial (IA), especialmente el reconocimiento facial o algoritmos predictivos de delito, puede generar grandes desigualdades y discriminaciones a amplios colectivos de la sociedad.
La Eurocámara solicita que no se puedan usar bases de datos privadas de reconocimiento facial, como por ejemplo “Clearview Al”, una empresa estadounidense que ha analizado 10.000 millones de fotos para poder identificar a quienes salen en ellas. Aparte de ello, piden transparencia en el desarrollo de cualquier algoritmo que pueda suponer una intromisión en la privacidad de los ciudadanos y que precisamente por eso se opte preferiblemente por el código abierto.
Estas tecnologías deberán estar sujetas y tener estrictas regulaciones, aparte de ello, también deberán tener siempre una supervisión humana. Así se establece en una resolución aprobada por el Parlamento Europeo, que pide también la “prohibición permanente del reconocimiento automático de individuos en espacios públicos”, dejando claro que los ciudadanos solo deberían ser vigilados cuando sean sospechosos de haber cometido un crimen.
Los eurodiputados subrayan en la resolución los problemas que implican los sesgos algorítmicos. Así, advierten de que los sistemas de identificación basados en la IA identifican erróneamente a los grupos étnicos minoritarios, a las personas LGBTI, a los mayores y a las mujeres en mayor proporción que al resto. Eso es “especialmente preocupante” cuando ha de aplicarse la ley o en el control de fronteras, uno de los lugares donde más se usan estas tecnologías.
“Hemos trabajado durante meses con varios eurodiputados para que el Parlamento Europeo tomase una decisión en este sentido”, sostiene Jakubowska, coordinadora del programa de biometría facial de EDRI, una ONG basada en Bruselas que trabaja por la defensa de los derechos humanos en la era digital.