Imaginá que un día tocan la puerta de tu casa. Son agentes federales. Te arrestan por un fraude bancario que supuestamente cometiste en una ciudad a 2.000 kilómetros de tu casa. Vos nunca estuviste ahí. Pero una inteligencia artificial dice que sí — y eso alcanza.
Esto no es ciencia ficción. Le pasó a Angela Lipps, en Tennessee, Estados Unidos. Y la tecnología que la mandó presa ya se usa en Argentina.
Qué pasó con Angela Lipps
Angela fue arrestada en su casa en Tennessee por los agentes federales, acusada de fraude bancario en Fargo, Dakota del Norte. ¿La “prueba”? Un sistema de reconocimiento facial que la identificó como sospechosa.
Pasó seis meses presa. Primero 108 días en una cárcel de Tennessee, después la trasladaron a Dakota del Norte. Durante ese tiempo perdió su casa, su auto, sus ahorros y hasta su perro.
El caso se desmoronó cuando un abogado de oficio hizo algo que nadie había hecho antes: revisó los extractos bancarios de Angela. Compras en una gasolinera de Tennessee, pedidos de Uber Eats, cobro de un cheque de seguridad social — todo en Tennessee, el mismo día del supuesto fraude, a 2.000 km de distancia.
La liberaron en Nochebuena, pleno invierno. Con ropa de verano en una ciudad con temperaturas bajo cero. Sin disculpas. Sin compensación. El jefe de policía de Fargo se negó a responder preguntas.
El problema no fue la IA
Acá está lo más importante del caso: el error no fue solo del algoritmo. El problema fue que ningún ser humano verificó la identificación antes de arrestarla.
Un sistema de reconocimiento facial tira un resultado: “esta cara se parece a esta otra”. Es una probabilidad, no una certeza. Lo que debería seguir es una investigación: verificar coartadas, comparar datos, hacer el trabajo policial básico. En el caso de Angela, nadie hizo nada de eso. La IA dijo que era ella, y eso bastó para mandarla presa seis meses.
Este es el patrón que se repite en todos los casos de detenciones erróneas por reconocimiento facial: la tecnología se usa como atajo, no como herramienta. Reemplaza la investigación en vez de complementarla.
Los sesgos que nadie te cuenta
Los sistemas de reconocimiento facial no son neutros. Múltiples estudios demostraron que tienen tasas de error significativamente más altas con personas de piel oscura y con mujeres. ¿Por qué? Porque los datos con los que se entrenan esos algoritmos reflejan los mismos sesgos del mundo real.
Esto no es un detalle técnico menor: significa que la tecnología falla más con las personas que históricamente ya tienen más problemas con el sistema de justicia penal.
¿Podría pasar en Argentina?
Ya pasó.
En abril de 2019, el Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP): 300 cámaras en estaciones de subte y vía pública que comparaban rostros contra una base de datos de más de 46.000 personas con orden de detención.
Los resultados fueron desastrosos. En los primeros tres meses de operación:
- El sistema señaló a 1.227 personas.
- Solo 256 eran efectivamente buscadas.
- 971 personas — el 79% — fueron retenidas por error.
Casos concretos: Guillermo Ibarrola, de Ezeiza, fue detenido en Retiro y pasó 6 días preso, acusado de un robo en Bahía Blanca que nunca cometió. Una mujer fue esposada en el subte y pasó casi un día detenida por “parecerse” a una prófuga. La Defensoría del Pueblo de CABA documentó al menos 5 casos adicionales.
En septiembre de 2022, la jueza Elena Amanda Liberatori declaró el sistema inconstitucional: se implementó sin controles, presentaba sesgos discriminatorios por raza y etnia, y recolectaba datos biométricos de personas que no estaban siendo buscadas. En 2023, la Cámara de Apelaciones confirmó el fallo. A abril de 2026, el SRFP sigue suspendido.
Y lo más preocupante: no existe en Argentina una ley nacional que regule específicamente el reconocimiento facial. La Ley 25.326 de Protección de Datos Personales es del año 2000 — anterior a esta tecnología por más de una década.
Qué tiene que ver esto con todos nosotros.
Si sos abogado, esto te importa por dos razones.
Primero, porque el reconocimiento facial se sigue usando en varias provincias argentinas — Córdoba, Mendoza, Salta, y también San Juan — sin un marco legal específico y sin las auditorías que la Justicia exigió en CABA.
Segundo, porque cuando un potencial cliente te dice “me detuvieron y no fui yo”, la pregunta nueva es: ¿lo identificó un algoritmo? Y si la respuesta es sí, tenés que saber que eso no es una prueba — es una hipótesis que debe verificarse. El debido proceso exige que una identificación por reconocimiento facial se corrobore con evidencia independiente antes de privar a alguien de su libertad.
Angela Lipps perdió seis meses de su vida, su casa y sus ahorros porque nadie se tomó el trabajo de verificar lo que dijo una máquina. El derecho a la libertad y la presunción de inocencia no pueden quedar en manos de un algoritmo que acierta menos que una moneda al aire.
Acordate de Palantir, es una palabra que vas a escuchar mucho en los próximos años.
Si te interesó este tema o tenés experiencia con reconocimiento facial en el ámbito judicial, escribime a nododelta@gmail.com. Y si conocés algún caso en San Juan, me interesa especialmente.
Referencias
- Una mujer pasó seis meses en prisión porque una IA se equivocó de cara — Xataka
- El sistema de reconocimiento facial sigue suspendido en CABA — CELS
- Seis días arrestado por un error del sistema de reconocimiento facial — Página/12
- Inconstitucionalidad del SRFP — Defensoría del Pueblo CABA




