Este artículo se publicó hace 2 años.
Tecnología para perpetuar el racismo: la Policía de Los Ángeles rebautiza sus herramientas contra el crimen
Activistas y expertos advierten del auge de las inteligencias artificiales y denuncian la "pseudociencia" y el racismo sistémico codificados en los algoritmos predictivos empleados por decenas de departamentos de Policía en EEUU.
Aitana Vargas
Los Ángeles (Eeuu)-Actualizado a
Es una mañana calurosa y húmeda en Skid Row. Como es habitual desde hace décadas, sobre las sucias calles de este céntrico barrio de Los Ángeles, en EEUU, se agolpan cientos de tiendas de campaña donde malviven miles de personas entre escombros, basura y desechos. Bautizada como la capital estadounidense de los sin techo, en este gueto también se encuentra el cuartel general de STOP LAPD Spying Coalition, una organización comunitaria cuyos activistas llevan años librando una feroz batalla contra los aparatos de vigilancia gubernamentales y el racismo sistémico arraigado históricamente en uno de los departamentos de Policía más poderosos, influyentes y mejor financiados de EEUU: la Policía de Los Ángeles (LAPD).
Activistas y expertos señalan las herramientas del LAPD como modelos que perpetúan el racismo
Hamid Khan –la voz más mediática de la coalición– y tres miembros de su equipo reciben a Público. Nada más comenzar la entrevista denuncian que Skid Row es, desde hace décadas, un "laboratorio humano" en tiempo real utilizado por el Departamento de Policía de Los Ángeles para experimentar con nuevas tecnologías antes de extender su aplicación a otros distritos de esta gigantesca urbe.
La postura de los activistas es categórica: exigen la abolición del sistema policial, del capitalismo voraz y denuncian la lucha por la tierra encabezada por los intereses corporativos. No es una visión exenta de polémica, pero gracias a los esfuerzos de la coalición y a la movilización ciudadana han contribuido a desmantelar PredPol y Operación LASER (Los Angeles Strategic Extraction & Restoration), dos controvertidas tecnologías de predicción delictiva empleadas por el LAPD bajo el liderazgo de Bill Bratton que se implementaron entre 2009-2019 y 2011-2020, respectivamente. Durante años, activistas y expertos han señalado a estas herramientas como modelos que perpetúan el racismo sistémico contra las comunidades negras e indígenas en la primera potencia mundial.
"La fachada tecnológica le otorga al LAPD la coartada, la máscara y la licencia para llevar a cabo sus mismas prácticas racistas y violentas, pero camuflándolas con sistemas informáticos y el lenguaje de la inteligencia artificial", dice Khan.
Explica el activista que, a nivel conceptual, las herramientas predictivas utilizadas por el LAPD son una extensión de la llamada política Broken Windows, impulsada por Bratton (ahora exjefe de la Policía de Los Ángeles y de Nueva York) para combatir con agresividad delitos menores, incluyendo robos, el desorden público o el esparcimiento de basura en las vías públicas. Utilizando los terremotos, las réplicas y los epicentros sísmicos como analogía, la premisa fundamental sobre la que se apoya Broken Windows es que los delitos menores conducen a los mayores y que estos últimos se cometerán en el mismo lugar que los primeros.
"Broken Windows se implementó en Skid Row en el año 2005, así que este barrio nos aporta un entendimiento detallado de la metodología y de las prácticas policiales... y de cómo hemos llegado hasta la actualidad", asegura el activista.
Los orígenes militares de PredPol
En el año 2010, siempre a la vanguardia de la innovación tecnológica, el LAPD selló una alianza con Jeff Brantingham, profesor de antropología de la Universidad de California en Los Ángeles (UCLA). Fruto de esta colaboración y de las investigaciones previas del catedrático nació PredPol, una compañía que dio sus primeros pasos con una inversión y con el beneplácito de UCLA Venture Capital Fund –el brazo capitalista de la conocida universidad estadounidense–.
PredPol se inspira en algoritmos militares empleados por EEUU para predecir el riesgo de insurgencia y terrorismo en conflictos bélicos, como Irak y Afganistán. Y a Brantingham, que recibió fondos federales para desarrollar este algoritmo, le debió parecer una buena idea fomentar métodos de combate para aplacar delitos menores.
La herramienta analiza datos sobre delitos contra la propiedad ocurridos en el pasado para predecir focos geográficos calientes de posible delincuencia en el futuro. Con solo tres parámetros (el tipo de delito, el lugar y la hora o fecha de éste), el algoritmo determina a qué barrios deben enviarse patrullas al inicio de cada jornada laboral, porque allí hay un mayor riesgo de que ocurra un crimen.
Según un estudio encabezado por académicos de UCLA difundido en 2015, PredPol predijo y redujo con éxito delitos de la propiedad en Los Ángeles durante varios meses de pruebas iniciales. El modelo, según la investigación, también era potencialmente aplicable en otras ciudades del mundo.
PredPol se inspira en algoritmos militares empleados por EEUU para predecir el riesgo de insurgencia y terrorismo en conflictos bélicos
Sin embargo, los detractores de PredPol aseguran que esta herramienta convierte ciertos vecindarios, como Skid Row o South Central en Los Ángeles (con una gran población negra), en zonas de intensa actividad policial, algo que, lejos de combatir delitos, "castiga" y "criminaliza" a comunidades que históricamente viven azotadas por la discriminación, la persecución policial y la amenaza del sistema penal.
"El mayor defecto de la policía predictiva es que no predice los delitos", asegura Matthew Guariglia, analista político y experto en vigilancia y prácticas policiales para la fundación Electronic Frontier Foundation (EFF). "Solo penaliza a la gente que vive alrededor de las zonas que la Policía patrulla con regularidad. Porque cuantos más policías haya en una zona, mayor será la probabilidad de que se arreste gente en ese barrio por delitos menores".
Además de dinamitar la "presunción de inocencia", Guariglia asegura que las tecnologías predictivas son "una profecía condenada a cumplirse" que alimenta una dinámica en bucle: siempre se patrullan las mismas zonas, se efectúan detenciones en éstas, los nuevos datos recopilados se integran al sistema informático y así se refuerzan las mismas tendencias y sesgos raciales a nivel policial.
Guariglia explica además que las tecnologías predictivas no imprimen innovación a las prácticas policiales modernas y que, en esencia, estas inteligencias artificiales cumplen la misma función que los expertos en estadística desempeñaban en 1912.
"Desde los orígenes de las fuerzas policiales, éstas no pueden predecir un crimen. No son videntes", afirma el analista. "Lo que pasa es que ahora esta labor la hacen compañías externas que te cobran un ojo de la cara, y tenemos que plantearnos si este gasto merece la pena y el impacto que la tecnología está teniendo en nuestras comunidades", advierte el experto.
Operación LASER: "extirpar" delincuentes
En 2011, la Policía angelina contrató los servicios de Justice and Security Strategies (JSS) –la empresa consultora de Craig Uchida– para poner en marcha otro de sus programas predictivos insignia: Operación LASER. La iniciativa tenía como finalidad "extirpar" pandilleros y delincuentes violentos reincidentes con la misma "precisión láser" que un cirujano aplica a un tumor maligno. "Continuando con la analogía médica, si se extraen delincuentes quirúrgicamente, el tiempo de recuperación del barrio se acorta", dice uno de los documentos publicados por los impulsores de esta iniciativa.
En la fase previa a la implementación de LASER, el LAPD generó un mapa de áreas problemáticas y puntos geográficos de interés (como aparcamientos, establecimientos de venta de alcohol y viviendas) a partir de detenciones y crímenes a punta de pistola ocurridos en dichas zonas.
Con estas regiones ya identificadas, arrancaba Operación LASER. Se creó así un Boletín de Delincuentes Crónicos con los nombres y datos de posibles sospechosos o individuos de interés, a quienes se les atribuyó una mayor probabilidad de reincidir y que, por tanto, debían estar sometidos a una mayor vigilancia policial.
"LASER es uno de los sistemas más estúpidos que jamás se han inventado"
Cada sospechoso recibió una puntuación en función de su pertenencia o afiliación a bandas criminales, antecedentes delictivos, arrestos, libertad condicional e interacciones con agentes del orden público. Los datos recopilados se iban introduciendo y actualizando en el sistema informático con fines predictivos.
"LASER es uno de los sistemas más estúpidos que jamás se han inventado, y la idea de que haya pasado el proceso [de prueba] o burocrático es algo que me supera", asegura a Público Andrew G. Ferguson, catedrático en Derecho de American University, una eminencia en el campo de las tecnologías policiales predictivas en EEUU y autor de The Rise of Big Data Policing.
"El STOP LAPD Spying Coalition realizó un gran trabajo identificando y mostrando los elementos racistas de la policía predictiva, algo que se ve de manera más clara con LASER, un programa cuyo objetivo siempre es la gente negra, morena y pobre. Y eso está muy claro", agrega. "La policía predictiva puede usarse como un arma contra la gente pobre y en particular, la gente con la que ellos [la coalición] trabajan en Skid Row", asevera.
Según el experto, la organización comunitaria ha sido "increíblemente efectiva" a la hora de articular los peligros de las tecnologías predictivas en Los Ángeles, y aclara que la urbe californiana no solo carece de políticas progresistas a nivel policial, sino que durante décadas ha dejado constancia de sus arraigadas prácticas racistas. "Cuando tienes un departamento de Policía con antecedentes racistas y aplicas una tecnología que únicamente introduce valores racistas, obtienes predicciones racistas y creas un sistema racista", afirma Ferguson.
Investigadores de Berkeley desenmarañan COMPAS
PredPol y LASER no fueron las únicas tecnologías en llegar al mercado hace más de una década. Con el auge y la moda de las herramientas predictivas, la inteligencia artificial y la recopilación y el uso de datos masivos con fines penales y de vigilancia, también irrumpieron en el mercado estadounidense programas similares, como COMPAS. Utilizado por algunos magistrados y agentes de libertad condicional, este polémico software predice el riesgo de reincidencia de un delincuente asignándole una puntuación que se emplea para dictar sentencia o determinar la libertad condicional o la prisión preventiva de un individuo.
Ya en el año 2016, una investigación exhaustiva de Pro-Publica reveló los tintes racialmente sesgados codificados en esta tecnología. Tiempo después, un equipo de expertos en ingeniería informática de la Universidad de California en Berkeley –integrado por Hany Farid y Julia Dressel– logró desenmascarar el engranaje algorítmico secreto de COMPAS y reprodujo las predicciones de éste a partir de tan solo dos parámetros –la edad de un individuo y sus antecedentes– a pesar de que el algoritmo emplea 137 parámetros.
El equipo de Berkeley también comparó la precisión y las predicciones de COMPAS con las predicciones realizadas por una persona. Para ello, Dressel y Farid reclutaron por internet a un grupo de individuos sin experiencia en el sistema penal a quienes pagaron un dólar por participar en el estudio.
La probabilidad de que una persona negra sea encarcelada es cinco veces superior a la de una blanca
"La precisión de ambos [de COMPAS y de las personas] está en torno al 65%", explica Dressel a Público. "Una herramienta no es inherentemente superior a un humano a la hora de tomar una decisión o de realizar una predicción por el simple hecho de estar construida con dato. Es muy difícil predecir el comportamiento humano como un crimen".
La ingeniera, que ahora trabaja en la ONG Recidiviz, aclara que los algoritmos son máquinas de aprendizaje cuyo funcionamiento gira sobre una asunción central: que el futuro será igual que el pasado. "Una herramienta no puede realizar predicciones precisas cuando los datos que se introducen en ésta no son una representación fiel de lo que realmente ha ocurrido en el mundo", matiza.
"La gente está cometiendo delitos que no se denuncian constantemente: Hay conductores que sobrepasan el límite de velocidad que jamás son arrestados, o consumidores de drogas ilegales a quien nadie denuncia". Si estos parámetros no se introducen en el software, las predicciones reflejan una realidad sesgada, opina Dressel.
Según un estudio de 2022 remitido a Naciones Unidas por The Sentencing Project y la Unión de Libertades Civiles (ACLU), la probabilidad de que una persona negra sea encarcelada es cinco veces superior a la de una blanca, mientras que para un latino, esta probabilidad se triplica con respecto al hombre blanco.
Ante esta realidad, los expertos también advierten que otro gran inconveniente de las inteligencias artificiales es que actúan como un "legitimador" de prejuicios preexistentes, ya que se sirven de "sello científico" y de etiquetas como "altamente sofisticado" para justificar sus engranajes algorítmicos y predicciones racialmente sesgadas. "Cuando se afirma que un programa es matemático, que está científicamente probado y que se cometerá un delito en esta esquina en este momento, lo que se hace, esencialmente, es legitimar una corazonada", dice Guariglia.
El Departamento de Justicia de EEUU da la voz de alarma
Los peligros de la inteligencia artificial y de las herramientas predictivas dentro del sistema penal y policial tampoco han pasado desapercibidos para el Departamento de Justicia de EEUU (DOJ) que, en el año 2014, remitió un informe al entonces presidente estadounidense Barack Obama advirtiendo de las preocupantes ramificaciones.
El trasfondo del informe –que se hizo público gracias a las acciones legales y a un posterior acuerdo extrajudicial entre el Electronic Privacy Information Center (EPIC) y el DOJ– es esclarecedor. El DOJ destacó los riesgos de emplear estas herramientas para sentenciar o tomar decisiones que conciernen la libertad de un individuo "basándose en datos históricos de otras personas", y recordó que "la justicia igualitaria exige que las decisiones tomadas en torno a una sentencia se basen principalmente en la propia conducta y en los antecedentes criminales del acusado" en cuestión.
Matemáticos condenan el uso de algoritmos en prácticas policiales porque reproducen y perpetúan las desigualdades raciales
Incluso cuando los algoritmos "parecen neutrales, cualquier modelo es susceptible de importar sesgos que se reflejan en los datos subyacentes", reza el texto. La misma conclusión se extrae de las investigaciones sobre COMPAS realizadas por Berkeley.
A estas evaluaciones se sumaron en 2020 las críticas de cientos de matemáticos que firmaron y enviaron una carta a la revista Notices of the American Mathematical Society condenando el uso de algoritmos en prácticas policiales porque reproducen y perpetúan las desigualdades raciales. Además, instaron a sus colegas a finiquitar cualquier colaboración en esta materia con las fuerzas del orden.
El activismo catalizó el desplome de PredPol y LASER
Asediada por la opinión pública y el aluvión de críticas de los expertos, en abril de 2019, la Policía angelina finiquitó Operación LASER. Y aunque de puertas para fuera pareciera lo contrario, lo hizo a regañadientes. "Hemos descontinuado LASER porque queremos reevaluar los datos", aseguró Josh Rubenstein, portavoz del LAPD en aquella época. "Eran inconsistentes y estamos dando marcha atrás".
Un año después, la Policía angelina alegó recortes "presupuestarios" para anunciar el fin de PredPol. Aún así, activistas y expertos coinciden en que el STOP LAPD Spying Coalition fue el catalizador de la caída en picado de estos programas gracias al liderazgo de Jamie García, que abanderó la causa en nombre de la coalición allá por el año 2012.
Durante años, la organización implementó una extensa y agresiva estrategia con la comunidad como eje central, a quien acercó la problemática de la policía predictiva algorítmica en un lenguaje "entendible" y la hizo partícipe de la causa. "Incluso la gente en Skid Row salía de sus tiendas de campaña para sumarse a la conversación", explica Khan.
La labor de la coalición ha sido titánica. También "muy creativa" y "muy inteligente", apunta Ferguson. Sus voluntarios organizaron sesiones semanales de brainstorming, redactaron detallados informes basados en extensas investigaciones, acudieron a instancias judiciales para exigir la obtención de documentos celosamente custodiados por el LAPD, se reunieron de forma regular con una comisión de la Policía para trasladarle sus quejas, exigieron transparencia y trazaron alianzas estratégicas con otros grupos.
"Sobre el año 2016, la coalición nos contactó porque inicialmente quería apoyo técnico para desenmascarar el algoritmo de PredPol", explica a Público Alexis Takanashi, una de las fundadoras de Free Radicals, una organización de ideología abolicionista. Los equipos de Khan y Takanashi desarrollaron conjuntamente la Ecología Algorítmica, un modelo que examina e identifica los actores e intereses que definen el propósito de los algoritmos predictivos. El objetivo final de la Ecología Algorítmica es el desmantelamiento de estos poderes.
"De alguna manera, PredPol ni siquiera es el centro de la historia. Se trata de cómo las instituciones confabulan en pos de sus propios objetivos de cara a la comunidad sin el consentimiento o interés de ésta", matiza Takanashi.
Desde el Centro de Privacidad y Tecnología de Georgetown University, su directora ejecutiva, Emily Tucker, explica que los miembros de la coalición "son expertos no sólo en la realidad política en materia de vigilancia policial, sino también en las tecnologías y en los procesos presupuestarios" desarrollados por las compañías y los organismos gubernamentales que investigan.
El LAPD usa sus grandes recursos para mutar, reinventarse y empaquetar cualquier programa predictivo con otro envoltorio, aunque el fondo sea el mismo
En los últimos años, de los conocimientos y victorias de la coalición se han hecho eco medios de todo el mundo. Quizá uno de los logros más aplaudidos sea que, a nivel legislativo, la ciudad californiana de Santa Cruz fuera la primera del país en prohibir el uso de las tecnologías predictivas a nivel municipal. A esto se suma que el LAPD y el departamento de Policía de El Monte (CA) abandonaran PredPol. Incluso la ciudad británica de Kent, que implementó este modelo para predecir crímenes violentos en 2013, decidió clausurar el programa en 2018.
"Se les debería dar crédito por ser, probablemente, el grupo antivigilancia policial más exitoso del país", opina Ferguson. "Pero también son víctimas de su propio éxito". Y es que con un presupuesto anual que supera los 3.000 millones de dólares, el LAPD tira de sus recursos para mutar, reinventarse y empaquetar cualquier programa predictivo con otro envoltorio, aunque el fondo sea el mismo. Un mes después de la descontinuación de PredPol, nació Data-Informed Community-Focused Policing, una iniciativa de la Policía angelina considerada como una continuación de los programas predictivos anteriores y que ya está en el punto de mira del equipo de Khan. Y posiblemente debido a la cascada de críticas que lleva años recibiendo PredPol, los cerebros del programa decidieron hacerle un lavado de imagen y rebautizarlo: Geolitica.
"Como el atractivo de la policía predictiva es tan grande, constantemente atrapa la imaginación de los departamentos de Policía que quieren hacer algo [ante el crimen]", asegura Ferguson. Pero, al final, "la policía predictiva siempre trata de dar respuesta a una pregunta que no tiene respuesta: ¿Qué vas a hacer para acabar con el crimen?", concluye.
Este reportaje forma parte de una serie especial sobre 'periodismo de soluciones' financiada por 'Público' y el Club de Prensa de Los Ángeles. La segunda parte de la serie se publicará en este diario en las próximas semanas.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.