Economía

gobierno-milei-vigilara-redes-sociales-predecir-futuros-delitos

Gobierno de Milei implementa IA para vigilancia y prevención del crimen: ¿Innovación o amenaza a la privacidad?

August 01, 20244 min read

En un giro controvertido que mezcla tecnología de punta con políticas de seguridad, el gobierno argentino del presidente Javier Milei ha anunciado la creación de una nueva unidad de seguridad que utilizará Inteligencia Artificial (IA) para realizar tareas de vigilancia y predicción de delitos. Esta medida, presentada por la ministra de Seguridad, Patricia Bullrich, el 31 de julio de 2024, ha generado un intenso debate sobre los límites entre la seguridad pública y los derechos individuales.

La Unidad de Inteligencia Artificial Aplicada a la Seguridad: Un arma de doble filo

La nueva Unidad de Inteligencia Artificial Aplicada a la Seguridad se perfila como una herramienta de vanguardia en la lucha contra el crimen. Entre sus funciones más destacadas se encuentran:

  1. Realizar "ciberpatrullajes" en redes sociales, aplicaciones y sitios web.

  2. Detectar potenciales amenazas y prever disturbios.

  3. Identificar movimientos de grupos delictivos.

  4. Monitorear la deep web en busca de actividades ilícitas.

  5. Detectar transacciones financieras sospechosas.

  6. Asistir en la desactivación de explosivos.

Sin embargo, lo que para algunos representa un salto cualitativo en materia de seguridad, para otros es una seria amenaza a las libertades civiles. La capacidad de "predecir" delitos, en particular, ha encendido las alarmas entre defensores de derechos humanos y expertos en derecho constitucional.

Inteligencia Artificial y predicción de delitos: ¿Ciencia ficción o realidad distópica?

El uso de algoritmos de aprendizaje automático para analizar datos históricos sobre delitos y predecir futuros crímenes suena como algo sacado de la película "Minority Report" de Steven Spielberg. No obstante, esta es precisamente la tecnología que el gobierno de Milei pretende implementar.

Andrés Gil Domínguez, especialista en Inteligencia Artificial y profesor de Derecho Constitucional en la Universidad de Buenos Aires, advierte: "No es lo mismo ciberpatrullar en busca de delitos que ya están tipificados en el Código Penal que hablar de conductas de hipotético riesgo, eso ya es inconstitucional".

Reconocimiento facial y vigilancia en tiempo real: Un paso más allá

Además de la predicción de delitos, la nueva unidad utilizará software de reconocimiento facial para analizar en tiempo real las imágenes de cámaras de seguridad. Esto permitirá identificar a personas buscadas y detectar actividades sospechosas. Si bien esta tecnología ya se utiliza en otros países, su implementación en Argentina, bajo el gobierno de Milei, ha generado preocupación debido al contexto político y social del país.

Voces de alerta: Organizaciones de derechos humanos se pronuncian

Amnistía Internacional ha sido una de las primeras organizaciones en alzar la voz contra esta iniciativa. Mariela Belski, directora de Amnistía Internacional Argentina, señala: "La vigilancia a gran escala afecta la libertad de expresión porque alienta a las personas a autocensurarse o abstenerse de compartir sus ideas o críticas si sospechan que todo lo que comentan, publican o comparten está siendo monitoreado por las fuerzas de seguridad".

Por su parte, el Centro Argentino de Estudios sobre Libertad de Expresión y Acceso a la Información (CELE) ha advertido sobre el uso histórico de tecnologías de vigilancia para perseguir a académicos, periodistas, activistas y opositores políticos. En el contexto del gobierno de Milei, caracterizado por una retórica confrontativa y medidas económicas polémicas, estas advertencias cobran especial relevancia.

El dilema de la seguridad vs. privacidad en la era digital

La implementación de IA en tareas de seguridad plantea un dilema fundamental en las sociedades democráticas modernas: ¿Cuánta privacidad estamos dispuestos a sacrificar en aras de una supuesta mayor seguridad?

El caso argentino no es aislado. Gobiernos de todo el mundo están explorando el uso de IA para tareas de seguridad y prevención del delito. Sin embargo, la falta de marcos regulatorios claros y la posibilidad de abusos han generado preocupación a nivel global.

Desafíos y riesgos de la IA en manos gubernamentales

  1. Sesgos algorítmicos: Los sistemas de IA pueden perpetuar y amplificar sesgos existentes en la sociedad, llevando a una aplicación desigual de la ley.

  2. Falsos positivos: La predicción de delitos basada en IA podría llevar a la criminalización de individuos inocentes.

  3. Efecto intimidatorio: La vigilancia masiva puede tener un efecto disuasorio sobre la libertad de expresión y asociación.

  4. Falta de transparencia: Los algoritmos de "caja negra" dificultan la rendición de cuentas y el escrutinio público.

  5. Vulnerabilidad a hackeos: Los sistemas de IA pueden ser blanco de ciberataques, comprometiendo datos sensibles.

¿Hacia dónde va Argentina con esta medida?

La implementación de IA para tareas de seguridad por parte del gobierno de Milei marca un punto de inflexión en la política argentina. Si bien la lucha contra el crimen es una prioridad legítima, el uso de tecnologías tan poderosas y potencialmente invasivas requiere un debate público profundo y la implementación de salvaguardas robustas.

La sociedad argentina se encuentra ahora ante el desafío de encontrar un equilibrio entre la innovación tecnológica, la seguridad pública y la protección de los derechos fundamentales. El éxito o fracaso de esta iniciativa podría sentar un precedente importante no solo para Argentina, sino para toda la región.

En un mundo cada vez más digitalizado, donde la IA juega un papel cada vez más prominente, el caso argentino nos recuerda la importancia de mantener una vigilancia constante sobre el uso de estas tecnologías por parte de los gobiernos. El futuro de nuestras libertades civiles podría depender de ello.

Inteligencia ArtificialSeguridad PúblicaDerechos HumanosGobierno MileiVigilancia Digital
Back to Blog