“Patrullar las redes sociales abiertas, aplicaciones y sitios de internet”, así inicia el desglose de tareas que tendrá a cargo la flamante Unidad de Inteligencia Artificial Aplicada a la Seguridad que se publicó en el boletín oficial la semana pasada.
El área dependerá del Ministerio de Seguridad y también tendrá a cargo la producción de perfiles de sospechosos a partir de grandes volúmenes de datos, el análisis de cámaras de seguridad con reconocimiento facial y el uso datos históricos para “predecir delitos”, entre otras funciones.
Así se estableció en la resolución 710/24, firmada por la ministra Patricia Bullrich. “El objetivo de esta unidad será prevenir, detectar, investigar y perseguir delitos y sus conexiones mediante el uso de inteligencia artificial (IA)”, explicaron.
Las tareas de la Unidad de IA
- Patrullaje de internet: la unidad patrullará redes sociales abiertas, aplicaciones, sitios web y la deep web “para identificar delitos y a sus autores, o situaciones que sean de riesgo para la seguridad pública”
- Analizar imágenes de cámaras de seguridad con IA para “detectar actividades sospechosas o identificar personas buscadas”.
- Monitoreo de actividades en redes sociales “para detectar potenciales amenazas, identificar movimientos de grupos delictivos y prevenir disturbios”.
- Analizar datos históricos de crímenes para “predecir futuros delitos y ayudar a prevenirlos”.
- Detección de “transacciones” sospechosas: la unidad también se encargará de identificar intercambios financieros sospechosos o comportamientos anómalos.
- Identificar patrones inusuales en las redes informáticas para intervenir de forma temprana, “esto incluye la identificación de malware, phishing y otras formas de ciberataque”.
- Desactivación de explosivos: utilizarán robots para inutilizar o detonar artefactos sospechosos.
- Patrullar con drones en “áreas extensas, proporcionar vigilancia aérea y responder a emergencias”.
En criollo
La resolución se plantea actividades sumamente ambiciosas, diversas y también rimbombantes. Pero hay algunas de estas prácticas que demandan mayor preocupación por sus implicancias para el estado de derecho y el debido proceso.
La creación de perfiles de sospechosos a partir de inmensos volúmenes de datos produce preocupación, ¿pero qué quiere decir? Se lo preguntamos a Aníbal Sacco, especialista en seguridad informática e integrante de la Asociación Contra la VIolencia Institucional (ACVI).
Estos perfiles se producen identificando palabras clave (o keywords) individualmente o combinadas, por ejemplo: matar, arma, venta, drogas, etc. Luego se buscan patrones entre el primer filtrado, algo que se agiliza con la ayuda de IA. “Puede identificar patrones, no necesariamente lineales y no necesariamente racionalizables, que permitan encontrar un factor común en el contenido de la producción de estos perfiles”, señala Sacco.
La IA también puede realizar un análisis automatizado de contenido no lingüístico, por ejemplo, analizando archivos multimedia (videos, audios, imágenes) que resulten relevantes para la búsqueda.
En cuanto al patrullamiento de redes sociales, el integrante de la ACVI señala que a su entender esto “significa que, en caso de ser real, buscarán hacer algún tipo de procesamiento masivo sobre el contenido publicado por los usuarios en redes sociales”.
En palabras de Beatriz Busaniche, directora de la Fundación Vía Libre, la resolución es “sumamente problemática desde el punto de vista del derecho y crítica desde el punto de vista de las tecnologías implementadas, que están reñidas con el estado de derecho”.
El activismo de Busaniche consiste en la defensa de derechos fundamentales en entornos mediados por tecnologías digitales. En línea con esto, la especialista plantea que antes que ciberpatrullaje, esto se trata más bien de “inteligencia de fuentes abiertas”.
La presidenta de Vía Libre explica que estas prácticas de patrullaje de redes sociales son ilegales. Aún cuando se pretende comparar esto con el patrullaje que hace un oficial de policía en la vía pública, no hay nada en común. “Si vos estás en la puerta de tu casa, o en algún lugar de la esfera pública, conversando con alguien y un policía empieza a grabar lo que decís, a sacarte fotos o filmarte, vos vas a reaccionar… porque eso es ilegal, eso es invasivo de la privacidad”, ejemplifica Busaniche.
“Si vos estás en la puerta de tu casa, o en algún lugar de la esfera pública, conversando con alguien y un policía empieza a grabar lo que decís, a sacarte fotos o filmarte, vos vas a reaccionar… porque eso es ilegal, eso es invasivo de la privacidad”.
Contexto y ¿controles?
Para entender mejor en qué contexto ingresa esta resolución y evaluar posibles consecuencias de su implementación, hablamos con Victoria Darraidou, coordinadora de seguridad democrática y violencia institucional del Centro de Estudios Legales y Sociales (CELS).
“Esta resolución tiene conexión con la resolución del Ministerio de Seguridad de mayo pasado que establecía el sistema de ciberpatrullaje y que tampoco aclaraba las formas de intervención, las investigaciones, las hipótesis criminales, ni los marcos regulatorios”, señala Darraidou.
Los controles del uso de estas tecnologías no aparecen en la resolución, y tampoco son tarea simple. “Esa caja negra de la inteligencia artificial hace que no sepamos cómo funcionan, no son transparentes estas tecnologías a la hora de tomar decisiones de vigilancia y seguridad”, reflexiona la integrante del CELS.
IA y drogas
Los sesgos humanos se transfieren a la programación y pueden construir “perfiles sospechosos” basados en criterios discriminatorios con colectivos marginalizados y marcados por la selectividad penal. Por ejemplo, hacia las personas con tez marrón.
Victoria Darraidou apunta que en el mundo “hay evidencia de los sesgos que producen estas tecnologías, al sobrecriminalizar a sectores de la sociedad ya vulnerados”. Otro ejemplo de estos casos es el colectivo de personas que usan drogas, o incluso de quienes militan por la reforma de la política de drogas.
Consultado sobre el uso de esta tecnología para la investigación de delitos de drogas, Sacco dice que podría aprovecharse para expandir el análisis de keywords e identificar objetos clave en el contenido multimedia, como pueden ser las sustancias ilegalizadas o los accesorios para el consumo de sustancias.
Así como estas tecnologías podrían volcarse a la detección de vendedores de drogas ilegalizadas, también podría identificar a usuarios que ostentan sustancias en redes sociales, organizaciones que informan sobre drogas con una perspectiva de reducción de daños o incluso emprendedores que trabajan con cannabis.
Victoria Darraidou identifica un riesgo en “la circulación de información sobre sustancias, que incluso desde la lógica de reducción de daños y en clave de salud, a los ojos de la ley de drogas podrían ser interpretadas como una infracción”.
El riesgo está en la exposición de contenido que pueda considerarse parte de una práctica ilegal, ya que la ley de drogas 23.737 establece como delito dar información sobre el uso o producción de sustancias ilegalizadas, entre otras tantas conductas.
“Todas las actividades que tienen que ver con la despenalización de ciertas prácticas, van a quedar absolutamente en riesgo y hackeadas con este tipo de sistemas”, dice Busaniche. Que también amplía la cuestión hacia otros activismos, dando cuenta de que el historial de lxs usuarixs de redes sociales en su militancia puede ser un riesgo.
En palabras de la presidenta de la Fundación Vía Libre, existe “un riesgo muy serio”, ya que “podemos hablar del tema de drogas, podemos hablar lo mismo con la interrupción legal del embarazo. Las personas que estén en esta militancia o que trabajen en este campo podrían ser sindicadas y marcadas con perfiles de sospechosos por uso de ciertas palabras claves”.
La idea de un ciberpatrullaje (o investigación ilegal) sugiere recorrer las redes públicas en busca de “pruebas” de algún tipo, algo que ya se realizaba desde la gestión pasada de Patricia Bullrich en seguridad. Fue sostenido durante la presidencia de Alberto Fernández por la ministra Sabina Frederic y ahora incorpora nuevas herramientas que podrían potenciar esta orientación selectiva en el nuevo mandato de Patricia Bullrich.