El juez que usó IA para redactar su sentencia: el fallo del STJ de Chubut que abre el debate

Una frase lo delató: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar.”

Eso quedó visible en la sentencia del juez Rogelio Richeri, de Esquel, que condenó a un hombre por robo simple a dos años y medio de prisión efectiva. El problema no era que hubiera usado inteligencia artificial. El problema es que olvidó borrar la respuesta del chat antes de firmar el fallo.


Lo que pasó, en orden

Noviembre de 2023: el juez Richeri dicta sentencia condenatoria en una causa por robo simple. La Cámara en lo Penal de Esquel, al revisar el expediente, encuentra esa frase incrustada en el texto —justo antes de un capítulo clave donde se resolvían nulidades sobre pruebas centrales del caso. La Cámara anuló la sentencia: si el juez usó IA para redactar esa sección, ¿cómo saber qué razonó él y qué razonó el modelo?

La causa llega al Superior Tribunal de Justicia de Chubut. El 13 de marzo de 2026, cinco de sus seis ministros —Banfi Saavedra, Bustos, Giacomone, Raidan y Vivas— revocaron la anulación y validaron la sentencia original.

El argumento del STJ es preciso: “La deliberación judicial sólo adquiere relevancia jurídica a través de su exteriorización en la sentencia, mediante una fundamentación expresa.” En otras palabras: lo que importa no es cómo llegó el juez a su conclusión, sino si esa conclusión está fundada en razones lógicas y verificables. Incumplir una pauta reglamentaria —aunque sea obligatoria— no invalida automáticamente la sentencia. El control procesal no es una auditoría del proceso mental del juez; es una evaluación de lo que está escrito y firmado.


No es el primero

El caso Richeri no es el primero en su tipo. En enero de 2023, el juez colombiano Juan Manuel Padilla García resolvió una causa sobre el derecho a la salud de un niño con autismo utilizando ChatGPT de manera explícita —y lo dijo en la sentencia. Padilla consultó al modelo sobre la procedencia del reclamo, incluyó sus respuestas en el fallo, y comparó la herramienta con lo que antes hacía una secretaria: “en forma organizada, simple y estructurada”.

El caso colombiano generó polémica inmediata. Un profesor de la Universidad del Rosario hizo las mismas preguntas al modelo y obtuvo respuestas diferentes. Eso ilustra el problema con usar una IA generativa como si fuera una fuente: el mismo prompt puede producir respuestas distintas, y la IA no distingue entre lo que es correcto y lo que suena correcto.

La diferencia con el caso Richeri es de grado: en Colombia el juez usó IA y lo declaró; en Chubut el juez usó IA sin declararlo, pero dejó una huella involuntaria. En ambos casos la herramienta fue ChatGPT, y en ambos casos el debate terminó siendo el mismo: ¿puede un juez delegar en una IA parte del razonamiento de su sentencia?


Lo que ya está pasando en Argentina

Mientras el debate judicial se instala, los distintos Poderes Judiciales argentinos llevan años incorporando IA de manera institucional.

Prometea, desarrollado por el Ministerio Público Fiscal federal, ya en 2017, fue uno de los primeros sistemas de IA aplicados a decisiones judiciales en la región: automatizaba dictámenes de tutela en causas repetitivas. La Corte Suprema incorporó en 2025, mediante la Acordada 10/2025, resúmenes generados con IA para todos los fallos publicados en el sistema LEX100. Ese mismo año, el Poder Judicial de la Nación lanzó un asistente virtual con GPT-4.1-nano para consultas procesales en lenguaje natural. Un plan piloto de IA generativa sumó a más de 4.500 funcionarios judiciales, con resultados que mostraron mejoras del 77% en tareas complejas.

En mi provincia (San Juan) se usa desde el 2024 la plataforma JusticIA para uso interno del Poder Judicial (conforme el acuerdo general 102/24 y complementarios) Por lo que se puede ver desde el tutorial que está disponible para todo el público, tiene módulos para transcripción de audios, audiencias, anonimizador de escritos, y un asistente jurídico.-

Toda esas IAs trabajan sobre tareas administrativas o de síntesis. No razonan. Lo que hizo el Dr. Richeri —si lo que hizo fue delegar la construcción jurídica de un punto del fallo— es cualitativamente distinto.


La pregunta que importa

El STJ de Chubut resolvió el caso concreto, pero no resolvió la pregunta de fondo: ¿puede un juez usar IA para redactar sentencias, y bajo qué condiciones?

Hay dos usos que vale la pena separar:

IA como herramienta de redacción. El juez razona, extrae conclusiones, y usa la IA para estructurar, resumir o mejorar el texto. El criterio jurídico es del juez; la IA solo trabaja la forma. Es como usar un corrector ortográfico muy sofisticado.

IA como herramienta de razonamiento. El juez le pregunta a la IA qué debe resolver, toma su respuesta como fundamento y la incluye —con o sin edición— en la sentencia. Acá el criterio jurídico dejó de ser exclusivamente del juez. Se pasó de la raya.

El problema es que la frase que dejó Richeri no permite saber en cuál de los dos casos estamos. Y eso es exactamente lo que la Cámara intentó señalar al anular.

La UNESCO publicó en diciembre de 2025 una serie dedirectrices para el uso de sistemas de IA en cortes y tribunales, organizadas en cuatro ejes: derechos como límite estructural, integridad técnica, transparencia y control, y responsabilidad. La preocupación central no es que la IA sea mala herramienta —es que puede agravar discriminaciones sistémicas si no hay supervisión. Más adelante haré un artículo al respecto de esta publicación.

Ningún algoritmo tiene que responder por un fallo equivocado. El juez, sí.


Lo que queda abierto

El STJ de Chubut fijó postura en un punto específico: un descuido en el proceso de redacción no invalida por sí solo una sentencia bien fundada. Es una posición razonable. Pero no dice nada sobre qué pasa cuando el fundamento mismo fue generado por la IA y el juez no lo verificó. En este caso entendemos que podría ser invalidada la sentencia, pero analizando el caso concreto. El uso de IA no invalida per se el contenido de la decisión.-

Esa pregunta todavía no tiene respuesta en Argentina. Y dado el ritmo al que se está incorporando IA en los tribunales, va a tener que tenerla pronto.

Para leer más al respecto:
https://www.palabrasdelderecho.com.ar/articulo/6314/Anularon-una-condena-penal-por-uso-indebido-de-inteligencia-artificial-
https://www.diariojudicial.com/news-102981-la-sentencia-es-del-juez-no-de-la-ia


¿Trabajás en el Poder Judicial o tenés una opinión sobre el uso de IA en sentencias? Escribime a nododelta@gmail.com.