Editorial
Abstract
Daniela Klette (de 65 años), miembro de la tercera generación de la Facción del Ejército Rojo (RAF, por sus siglas en inglés), cometió atentados, secuestros y asesinatos a partir de los 70 y llevaba más de 20 años eludiendo la justicia, hasta que fue arrestada en Berlín la noche del 26 de febrero pasado. La antigua miembro de la RAF financiaba su vida en la clandestinidad con robos a transportistas de dinero y supermercados. Klette fue acusada de participar en seis atracos a mano armada en los que se robaron millones de euros, y de, al menos, un intento de asesinato. Informes señalan que la localización de la terrorista ocurre gracias a la labor de la cadena alemana ARD en su pódcast titulado “Legion: Most wanted“, documental basado en la búsqueda de Klette. Durante el reportaje, el equipo del espacio comunicacional se puso en contacto con un experto para pedirle que introdujera fotos de la acusada en herramientas abiertas de inteligencia artificial (IA) que luego detectaron imágenes de ella en Facebook con el nombre de Claudia Ivone. Con ayuda de la policía comprobaron el hallazgo y se logró la captura. Su detención plantea profundas reflexiones filosóficas y éticas sobre el uso de la IA y la tecnología de reconocimiento facial (TRF) en la aplicación de la ley y la vigilancia. Aunque el arresto de criminales mediante el uso de estas herramientas puede parecer un triunfo de la justicia, las implicaciones de sus aplicaciones más amplias merecen una cuidadosa consideración. En este editorial de analizan algunas consecuencias del empleo de la IA y las TRF para dar con individuos como Klette, así como el potencial uso indebido por parte de malhechores y autoridades por igual.
Una de las principales preocupaciones filosóficas en torno al uso del reconocimiento facial en la aplicación de la ley está asociada a la privacidad y el espionaje. Autores como Michel Foucault sostienen desde hace tiempo que las tecnologías de vigilancia pueden
utilizarse como instrumentos de control y poder por parte del Estado. La implantación generalizada de estos programas plantea interrogantes sobre hasta qué punto se puede vigilar y rastrear constantemente a las personas, lo que puede vulnerar sus derechos y autonomía individual. A esto se suma que los delincuentes pueden utilizar estas técnicas para seleccionar a sus víctimas, por lo que la dinámica de poder cambia, permitiendo a los autores explotar las vulnerabilidades del sistema con fines nefastos. Para precisar mejor los contextos de este escenario, especialmente considerando que como lo afirma Francis Bacon “Cuando el peligro parece ligero, deja de ser ligero” se asoma que -desde un punto de vista moral- su uso, por parte de las fuerzas del orden público,
plantea aspectos de responsabilidad y parcialidad. La profesora Safiya Noble, del Centro de Investigación Crítica de Internet, ha puesto de relieve cómo los algoritmos de IA pueden perpetuar los prejuicios raciales y de género, dando lugar a resultados discriminatorios. Así mismo, el acceso a las TRF por delincuentes para atacar a personas concretas, amplía la posibilidad de discriminación algorítmica y de elaboración de perfiles injustos que se convierten en una realidad preocupante. Además, la falta de marcos reguladores y de supervisión en el despliegue del software de la TRF agrava estos dilemas éticos, dejando margen para su aplicación indebida y manipulación. En el contexto de la delincuencia, estas implicaciones van más allá de la vigilancia y se extienden a aspectos de toma de decisiones y responsabilidad. El sueco Nick Bostrom, fundador del Instituto del Futuro de la Humanidad, ha explorado el concepto de agencia moral en la era de la IA, planteando preocupaciones sobre la delegación del juicio en sistemas autónomos. Si los criminales aprovechasen las TRF para identificar y explotar las vulnerabilidades de víctimas potenciales, el cambio de agencia del ser humano a la máquina difuminaría las líneas de culpabilidad y rendición de cuentas; lo que plantea complejos problemas en relación a la responsabilidad en los delitos mediados por la tecnología. El potencial de abuso de las TRF por parte de los transgresores subraya la necesidad de sólidos marcos éticos y mecanismos de gobernanza que garanticen el desarrollo y despliegue responsables de los sistemas de IA. Basándose en teorías como el utilitarismo y la deontología, las y los decisores y tecnólogos pueden orientar el diseño y la aplicación de las TRF para minimizar los daños y defender los principios de justicia e imparcialidad. Es imperativo que las consideraciones de privacidad, transparencia y responsabilidad ocupen un lugar central en los debates sobre la IA y su aplicación en la ley para mitigar el riesgo de consecuencias no deseadas. En resumen, la captura de Daniela Klette, en Alemania, muestra no solo el poder accesible fácilmente por muchos sino los posibles escollos de la TRF para localizar a otras personas sin récord criminal. Adoptando un enfoque ético, basado en principios filosóficos y morales, podemos navegar por el complejo terreno de la IA y garantizar que sus beneficios se equilibren con consideraciones de justicia y derechos humanos.





