Este artículo se publicó hace 6 años.
PrivacidadReconocimiento facial: los preocupantes fallos del Gran Hermano algorítmico
La identificación biométrica, basada en patrones, encierra crecientes riesgos para la seguridad y la privacidad de los ciudadanos. La abundancia de falsos positivos en las herramientas de reconocimiento facial exige la comprobación humana para ofrecer un mínimo de garantías. La finalidad del uso de esas imágenes es clave para su legitimidad.
Madrid-
La penúltima polémica acerca del reconocimiento facial mediante algoritmos la ha protagonizado Amazon y su controvertido programa Rekognition, un poderoso software de identificación de imágenes que la compañía vende a algunos gobiernos. En un experimento, el software identificó erróneamente a 28 miembros del Congreso de los EEUU como sospechosos policiales.
La ONG Unión de Libertades Civiles de Estados Unidos (ACLU), muy crítica con la venta del uso de esta herramienta a gobiernos (es utilizada, por ejemplo, por cuerpos policiales de Oregón y Florida), ha publicado un experimento, en el que usó esa herramienta sobre una base de datos —que compró al módico precio de 12,33 dólares—de 25.000 imágenes de detenidos en EEUU. Luego, introdujo una a una las fotos de todos los congresistas estadounidenses. El sistema identificó a 28 congresistas como personas con antecedentes policiales con al menos un 80% de probabilidad.
Esta misma semana, tres demócratas identificados en la prueba de la ACLU -el senador Edward Markey, y los representantes Luis Gutiérrez y Mark DeSaulnier- enviaron una carta a Jeff Bezos, director ejecutivo de Amazon, expresando preocupación y preguntando por la exactitud y el uso de la herramienta por parte de las autoridades.
Amazon, naturalmente, resta importancia a este estudio y considera que “el análisis de imágenes y vídeo puede ser un impulso para mejorar el mundo”, como aumentar la seguridad ciudadana. Desde su división de servicios en la nube (Amazon Web Services), un portavoz afirmó a BuzzFeed que dijo que los resultados podrían mejorarse “siguiendo las mejores prácticas" para establecer los umbrales de confianza, es decir, el porcentaje de probabilidad de que Rekognition encuentre una coincidencia.
"Si bien el 80% de confianza es un umbral aceptable para las fotos de perritos calientes, sillas, animales u otros objetos que aparecen en las redes sociales, no sería apropiado para identificar a las personas con un nivel razonable de certeza", dijo el portavoz, que añadió: "Cuando usamos reconocimiento facial para asuntos legales, sugerimos a los clientes establecer un umbral más alto, de al menos el 95% o más". No obstante, la compañía oficialmente recomienda un 80% de confianza para reconocer rostros humanos.
Presiones
Desde mayo, la ACLU y otros grupos de derechos civiles han criticado Rekognition de Amazon dado su funcionamiento “sesgado”: la herramienta podría usarse para atacar injustamente a inmigrantes y personas de color. Es decir, las identificaciones tienen importantes sesgos. Y temen que este software pueda emplearse "para controlar a inmigrantes" o para establecer quién "ha participado en una protesta".
Las presiones parecen haber dado sus primeros frutos. Incluso Microsoft, rival de Amazon que también usa tecnología de reconocimiento facial, ha llegado a pedir al Congreso de EEUU que estudie una posible regulación sobre el reconocimiento facial.
Un número creciente de voces señalan los perniciosos efectos de los sesgos que pueden contener estos sistemas, la llamada ‘discriminación algorítmica’. Algunos estudios indican que las máquinas pueden amplificar comportamientos discriminatorios o racistas.
En el Reino Unido, por ejemplo, en donde la videovigilancia con tecnologías de reconocimiento facial comenzó a imponerse tras los atentados de Londres de 2005 (con un más que dudoso resultado), las autoridades deberán afrontar una demanda por parte del grupo activista Big Brother Watch, cuyos abogados estiman que estos sistemas —y especialmente su uso intensivo en la capital en los últimos dos años— violan la Ley de Derechos Humanos, incluido el derecho a la privacidad y la libertad de expresión. Y qué decir de China.
Fiabilidad en cuestión
La identificación facial automática se basa fundamentalmente en la comparación de imágenes mediante algoritmos que “aprenden” a discernir entre dichas imágenes. Y la clave de su efectividad es la selección de los elementos que forman el patrón, y qué valor o peso tiene cada elemento dentro del aprendizaje. Aquí entra también el principal factor de sesgo.
Existen sobre todo dos formas para ‘enseñar’ a una máquina a realizar este proceso: por un lado, la introducción a priori de una amplia base de datos de imágenes sobre la que el programa identifica imágenes por similitud; por otro, el “aprendizaje” de la máquina sin una tutorización previa, en el que se introducen una serie de características y la máquina rastrea imágenes para hallar las que encajen en ese patrón, las cuales han de ser validadas a posteriori. El algoritmo puede ser neutro, pero quizá la selección de imágenes previas o de sus características no.
“Te juegas tener problemas importantes, como ser detenido por una identificación incorrecta”
“Avanzar, se ha avanzado en el reconocimiento facial”, reconoce Sergio Carrasco, abogado especializado en tecnología e ingeniero de Telecomunicaciones, que pone como ejemplos las herramientas de este tipo desarrolladas por Facebook o el desbloqueo de móviles, pero apunta que en esos casos funciona al ser “situaciones óptimas”. “Son fotos de frente o de lado en las que se ven todos los rasgos; pero en los casos de videovigilancia, con cámaras en posiciones altas y con una calidad no tan buena, generan falsos positivos en las identificaciones”, comenta. Y, además, pueden ser troleables.
Este experto diferencia entre un falso positivo en una galería fotográfica, que no tiene la menor trascendencia, y un falso positivo en un caso de seguridad ciudadana. “Te juegas tener problemas importantes, como ser detenido por una identificación incorrecta”. “Entiendo que se puede utilizar como elemento indiciario, pero siempre tiene que existir una revisión humana”, apunta.
Un ejemplo claro de que el reconocimiento de imágenes por patrones suele fallar es el caso de los vetos de Facebook a fotos de obras de arte que incluyen desnudos, como sucedió recientemente con los cuadros del maestro flamenco Pedro Pablo Rubens. “Es un ejemplo de que todavía el reconocimiento por patrones no es perfecto, ni mucho menos”, sostiene Carrasco.
Finalidad de la actividad
La legitimidad de la captación de las imágenes y de su tratamiento es otro aspecto clave. En el caso de las fuerzas de seguridad, por ejemplo, se puede presuponer que existe esa legitimidad.
Los sistemas de reconocimiento facial y biométricos pueden ser útiles como medida complementaria para ahorrar tiempo a la policía, sobre todo para eliminar parte del trabajo humano a la hora de analizar imágenes, pero sigue siendo necesario el trabajo humano final para eliminar los mencionados falsos positivos que pueden arrojar estos sistemas.
Y aun así es lícito preguntarse qué sucede con esos datos; persiste el riego, por ejemplo, de la generación de patrones de comportamiento de esas personas, sostiene Carrasco. “Cómo se almacenan y para qué se utilizan en última instancia son cuestiones clave en este asunto”, afirma este experto.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.