Crímenes de Bot
Un departamento de policía en el Reino Unido está probando un sistema impulsado por inteligencia artificial que podría ayudar a resolver casos sin resolver condensando décadas de trabajo detectivesco en solo unas horas, informa Sky News.
Pero aún no se sabe la tasa de precisión de esta plataforma desarrollada en Australia, llamada Soze, lo cual es una preocupación importante ya que los modelos de IA tienden a arrojar resultados incorrectos o alucinar información inventada.
El Departamento de Policía de Avon y Somerset, que cubre partes del suroeste de Inglaterra, está poniendo a prueba el programa haciendo que Soze escanee y analice correos electrónicos, cuentas de redes sociales, videos, estados financieros y otros documentos.
Sky informa que la IA pudo escanear evidencia de 27 casos “complejos” en unas 30 horas, equivalente a 81 años de trabajo humano, lo cual es asombroso. No es de extrañar que este departamento de policía esté interesado en utilizar este programa, porque esos números suenan como un multiplicador de fuerza en esteroides, lo cual lo hace especialmente atractivo para las fuerzas del orden que pueden estar muy limitadas en términos de personal y restricciones presupuestarias.
“Podría tener una revisión de un caso sin resolver que parezca imposible debido a la cantidad de material y alimentarla en un sistema como este que pueda simplemente digerirlo y luego darte una evaluación”, dijo Gavin Stephens, presidente del Consejo Nacional de Jefes de Policía del Reino Unido, a Sky. “Puedo ver que eso sería realmente, realmente útil.”
Informe de Minorías
Otro proyecto de IA al que Stephens se refirió es la creación de una base de datos de cuchillos y espadas, que muchos sospechosos han utilizado para atacar y herir o matar a víctimas en el Reino Unido.
Stephens parece optimista sobre la pronta implementación de estas herramientas de IA, pero tendría sentido validar que estén funcionando correctamente primero. La IA, quizás especialmente en la aplicación de la ley, es conocida por ser propensa a errores y puede llevar a falsos positivos.
Un modelo que se utilizó para predecir las posibilidades de que un sospechoso cometa otro delito en el futuro fue inexacto y también tenía sesgos contra las personas negras, lo cual suena como algo sacado directamente de la novela de Philip K. Dick “Informe de Minorías”, luego adaptada en la película de 2002 por Steven Spielberg. El reconocimiento facial de IA también puede llevar a arrestos incorrectos, con minorías siendo repetidamente señaladas por crímenes que no cometieron.
Estas inexactitudes son tan preocupantes que la Comisión de Derechos Civiles de los Estados Unidos recientemente criticó el uso de IA en la aplicación de la ley.
Existe la percepción de que porque son máquinas las que están haciendo el análisis, serán infalibles y precisas. Pero están construidas sobre datos recopilados por humanos, que pueden tener sesgos y estar completamente equivocados, por lo que los problemas conocidos están presentes desde el principio.
Más sobre IA y trabajo policial: Agentes dicen que IA alucinante está lista para redactar informes policiales que podrían enviar a personas a prisión.