Policía y algoritmos: ¿qué sistemas se están usando en España?

Por CIVIO*
Una de nuestras líneas de investigación son las herramientas algorítmicas e IA que usan las administraciones públicas. Sus decisiones afectan a nuestros derechos, así que la transparencia no es una opción. Y hoy ponemos el foco en los sistemas predictivos de criminalidad en los cuerpos policiales españoles.
Lo que hemos encontrado revela un panorama muy complejo y una clara necesidad de mayor apertura. Te adelantamos algunas claves de esta investigación:
La Policía Local de Valencia comienza a usar IA predictiva
Nuestra investigación sitúa a la Policía Local de Valencia como un caso destacado. Desde principios de este año, utiliza un «Mapa planificador de Intervenciones». Este sistema, mediante IA, procesa datos anonimizados de siete años de intervenciones -desde vigilancia de mercados a detenciones- para identificar patrones y «aconsejar» la distribución de patrullas, calculando incluso las distancias para que los agentes puedan abarcar el territorio con más incidencias.
Es el más avanzado de tres programas desarrollados para ellos. Hemos hablado con su creador y con un inspector, quien señala que, aunque le ven «mucha potencialidad», por ahora «no está distribuido, no tiene acceso todo el mundo» y están a la espera de que el ayuntamiento cree un comité de IA que elabore protocolos de seguridad. No es el primer programa de predicción del delito que se desarrolla en España, pero sí es, según lo que hemos podido averiguar, el único que hasta la fecha está siendo utilizado por parte de un cuerpo policial. Su efectividad real aún está por medirse.
La mayoría niega la IA predictiva: solo estadística
Frente a Valencia, la mayoría de cuerpos policiales en España niegan usar IA para predecir la criminalidad. Esto incluye a Policía Nacional, Guardia Civil, Mossos d’Esquadra, Ertzaintza y las policías locales de grandes ciudades como Madrid o Barcelona. Suelen afirmar que emplean «programas de análisis estadísticos». Esta distinción es crucial y a menudo difusa.
Intentos previos de IA predictiva, como el software PredCrime (probado hace una década en Rivas Vaciamadrid y Castellón), «se quedaron anclados», según su desarrollador. Eurocop, la empresa que lo impulsó y que provee software a más de 320 policías locales, nos confirmó que PredCrime «nunca se llegó a comercializar», pese a figurar en algunas licitaciones. Ayuntamientos como Alicante o Salamanca aclaran hoy que usan herramientas de análisis de datos, no la IA predictiva que se mencionaba. De hecho, en municipios como Calonge i Sant Antoni (Gerona) o Marratxí (Mallorca), donde los pliegos también citaban la predicción, ni siquiera llegaron a usar o ya no usan la plataforma de Eurocop. Otro intento fue el proyecto P3-DSS de la Policía Nacional, que se nutrió de datos de crímenes del Distrito Centro de Madrid entre 2008 y 2012 pero, según confirmó el inspector responsable, nunca fue utilizado operativamente.
Entonces, ¿dónde está la línea entre estadística avanzada y predicción algorítmica? Y, sobre todo, ¿qué datos usan estos sistemas y cómo operan realmente? Estas son las preguntas que buscamos responder con este artículo.
Desenmarañando la madeja

Para arrojar luz sobre esta tecnología y sus implicaciones, hemos combinado el envío de decenas de solicitudes de transparencia —dirigidas al Ministerio del Interior, todas las policías autonómicas y los mayores ayuntamientos— con el análisis de contratos públicos, entrevistas a desarrolladores, responsables policiales y expertos en IA y derechos, y la distribución de un cuestionario a través de la Unión Nacional de Jefes y Directivos de Policía Local (UNIJEPOL). Te lo contamos todo en esta metodología.
Y no es fácil: nos hemos topado con negativas a facilitar información, como la de la Ertzaintza a detallar su sistema Baietz, o la del propio Consejo de Transparencia desestimando nuestra reclamación al Ministerio del Interior sobre herramientas algorítmicas.
Entender qué información procesan estos sistemas y cuál omiten es crucial. La promesa de una mayor eficiencia en seguridad es atractiva, pero para que estas herramientas sean útiles y justas, la transparencia y el debate público informado son imprescindibles. Como podrás comprobar, no buscamos generar alarma, ni mucho menos, sino hacer posible un escrutinio real. Empezamos con un algoritmo desfasado usado en prisiones, seguimos con un polémico sistema usado para «detectar denuncias falsas» y hoy ponemos el ojo sobre otros sistemas policiales.
* CIVIO. Periodismo y acción, para vigilar lo público.
Comparte este artículo, tus amig@s lo agradecerán…
Mastodon: @LQSomos@nobigtech.es; Bluesky: LQSomos;
Telegram: LoQueSomosWeb; Twitter (X): @LQSomos;
Facebook: LoQueSomos; Instagram: LoQueSomos;