Inteligencia artificial para prevenir homicidios: ¿avance o amenaza?
La inteligencia artificial avanza a pasos acelerados y cada día se integra más en sistemas de seguridad pública. En el Reino Unido, una nueva iniciativa tecnológica ha encendido las alarmas: se trata de un sistema predictivo basado en IA que busca identificar personas con alta probabilidad de cometer homicidios.
El proyecto, conocido como "Intercambio de datos para mejorar la evaluación de riesgos", recuerda al argumento de la película Minority Report, donde los crímenes son prevenidos antes de cometerse.
Esta herramienta está siendo desarrollada por el Ministerio de Justicia británico, junto con la Policía Metropolitana de Londres, la Policía de Manchester y el Ministerio del Interior. Su objetivo es analizar grandes volúmenes de datos personales de entre 100,000 y 500,000 personas, todas dentro del radar de las autoridades por distintos motivos.
📌 ¿Qué datos se analizan?
El sistema toma en cuenta antecedentes penales, reportes de víctimas y testigos, desapariciones, historial de salud mental, consumo de sustancias, autolesiones y otras condiciones de vulnerabilidad. A partir de esta información, se generan perfiles de riesgo que predicen posibles conductas violentas.
📌 ¿Qué se busca lograr?
La intención oficial es prevenir homicidios mediante intervenciones anticipadas y más efectivas. En teoría, identificar a tiempo a personas en riesgo podría permitir acciones sociales, médicas o de seguridad que eviten una tragedia.
📌 ¿Por qué es polémico?
Diversos defensores de los derechos civiles han expresado preocupaciones serias. Advierten que el uso de datos sensibles y algoritmos puede reforzar desigualdades, criminalizar la pobreza y estigmatizar a minorías étnicas. Además, los modelos predictivos en justicia penal han demostrado sesgos importantes en otras ocasiones.
Aunque el uso de inteligencia artificial en la prevención del delito puede parecer un avance, plantea dilemas éticos profundos. ¿Es válido intervenir en la vida de una persona por algo que aún no ha hecho? ¿Quién decide qué datos son relevantes y qué perfiles representan una amenaza?
En un mundo cada vez más automatizado, este tipo de proyectos exige una reflexión urgente sobre los límites entre seguridad, privacidad y justicia.