Estados Unidos comenzó a usar Inteligencia Artificial predictiva en las cárceles

Una empresa entrenó un modelo de IA con años de llamadas telefónicas y videollamadas de personas encarceladas. Ahora prueba el sistema para escanear, en tiempo real, llamadas, mensajes de texto y correos electrónicos.

Representación conceptual de la evolución de la inversión en ciberseguridad: gráficos ascendentes, candados digitales y elementos cuánticos mostrando la próxima disrupción tecnológica.
Ciberseguridad.
Imagen generada por IA.

En Estados Unidos, una empresa de telecomunicaciones entrenó un modelo de inteligencia artificial con años de llamadas telefónicas y videollamadas de personas encarceladas. La compañía, Securus Technologies, ahora está probando este sistema para escanear, en tiempo real, llamadas, mensajes de texto y correos electrónicos. La promesa es anticipar delitos antes de que ocurran.

Según se explica en un artículo publicado esta semana en The MIT Technology Review, Securus utiliza una base de datos construida durante décadas de grabaciones. Solo una parte del entrenamiento incluyó siete años de llamadas del sistema penitenciario de Texas. La empresa afirma que sus modelos pueden detectar intenciones delictivas en conversaciones cotidianas marcando fragmentos que luego agentes humanos deciden o no derivar para investigación. La compañía sostiene que esto contribuyó a frenar actividades de trata y operaciones de pandillas pero no presentó casos específicos obtenidos por los modelos nuevos.

Las personas encarceladas saben que sus comunicaciones están grabadas, pero no que esos datos alimentan modelos de IA que se usarán para escuchar sus conversaciones actuales. Para organizaciones como Worth Rises, el consentimiento es inexistente ya que el sistema no da alternativas para comunicarse con familiares. En la mayoría de los estados, además, las llamadas tienen costo para las familias de los presos lo que incluso instala la paradoja de que quienes generan los datos pagan por producirlos y vuelven a pagar cuando esos datos se usan para vigilancia.

Las críticas no se explican sólo por la falta de consentimiento. Securus tiene antecedentes de prácticas cuestionadas como filtraciones que hicieron público que la empresa llegó a grabar miles de conversaciones protegidas entre personas presas y sus abogados. La American Civil Liberties Union advirtió que la nueva herramienta amplía la vigilancia sin límites regulatorios sólidos. Pero la discusión excede las cárceles: si un sistema asegura poder detectar “pensamientos sobre delitos”, la frontera entre prevención y monitoreo permanente se vuelve difusa.

El despliegue de estas tecnologías también se cruzó con un cambio regulatorio. En 2024, la Comisión Federal de Comunicaciones (FCC, por su sigla en inglés) prohibió que empresas como Securus trasladaran los costos de grabación y vigilancia a las personas presas. La medida buscaba reducir gastos abusivos y evitar que la seguridad dependiera de tarifas pagadas por quienes están detenidos. La reacción política fue inmediata. Asociaciones de alguaciles y fiscales generales se opusieron. Algunas cárceles advirtieron que reducirían el acceso a llamadas.

En ese contexto, Securus presionó a la FCC para revertir las restricciones. En junio, el comisionado Brendan Carr anunció la postergación de los plazos de implementación y abrió la puerta a financiar herramientas de IA con tarifas pagadas por personas encarceladas. En octubre, la agencia aprobó nuevos topes más altos y habilitó a las empresas a trasladar costos de almacenamiento, transcripción y construcción de sistemas de IA. La única disidencia fue la comisionada Anna Gomez, que señaló que los costos de seguridad deben recaer en las fuerzas de seguridad, no en las familias.

El caso Securus muestra un escenario donde tecnología, poder institucional y ausencia de opciones se combinan. La discusión pública aún se centra en eficiencia y costos, pero el problema central es otro: quién controla el modelo, quién define el uso de los datos y quién asume las consecuencias cuando una herramienta que promete prevenir delitos se convierte en un sistema de vigilancia sin límites claros.

¿Encontraste un error?

Reportar

Temas relacionados

Inteligencia Artificial

Te puede interesar