ChatGPT le dijo que despida a su abogado: la demanda de USD 10 millones contra OpenAI

En enero de 2024, en una ciudad de Illinois, EE.UU., Graciela Dela Torre firmó un acuerdo. Su caso contra Nippon Life Insurance —que le había cortado los beneficios por discapacidad laboral— había llegado a un arreglo. El caso estaba cerrado. Su abogado le explicó que había firmado una cláusula de liberación: no podía volver a demandar por los mismos hechos.

Graciela no quedó convencida. Tomó la respuesta de su abogado, la pegó en ChatGPT y preguntó si la estaban engañando.

ChatGPT le dijo que sí.

Este artículo fue publicado por primera vez el 9 de Abril de 2026, si hay novedades, será actualizado.


Lo que pasó después

Graciela despidió a su abogado y comenzó a litigar por su cuenta (se representaba a si misma), con ChatGPT como su asesor legal, que le escribía los recursos y dictámenes. En los meses siguientes presentó 21 mociones, una citación y 8 escritos intentando reabrir el caso original. Todos redactados con asistencia de la IA. Muchos citaban jurisprudencia que no existe.

El juez rechazó todos los intentos de reabrir el caso.

Entonces Graciela inició una nueva demanda contra Nippon con el mismo método. A la fecha de la demanda que nos ocupa, había presentado 44 escritos, mociones y peticiones, más 14 solicitudes de aviso judicial en ese segundo proceso. Muchos de esos documentos referenciaban casos y decisiones que nunca ocurrieron —alucinaciones de ChatGPT presentadas como jurisprudencia real ante un tribunal federal.

Nippon gastó aproximadamente USD 300.000 en honorarios de abogados respondiendo a estos escritos sin fundamento.

El 4 de marzo de 2026, Nippon Life Insurance Company of America demandó a OpenAI en el Tribunal Federal del Distrito Norte de Illinois. Reclamo: USD 300.000 en daños compensatorios y USD 10 millones en daños punitivos.


Los tres cargos

La demanda acusa a OpenAI de tres cosas:

1. Interferencia dolosa con el contrato (tortious interference with contract): ChatGPT convenció a una parte de ignorar un acuerdo legalmente vinculante.

2. Abuso de proceso (abuse of process): los escritos generados por ChatGPT no tenían fundamento jurídico real y solo servían para generar costos a la contraparte.

3. Ejercicio ilegal de la abogacía (unlicensed practice of law): ChatGPT no se limitó a dar información general. Analizó un caso concreto, evaluó la conducta del abogado, recomendó una estrategia procesal y redactó los documentos para ejecutarla. Eso, en Illinois -y en casi todo el mundo- es ejercer la abogacía.

OpenAI modificó sus políticas de uso en octubre de 2024 para prohibir expresamente que los usuarios busquen asesoramiento legal en la plataforma. Nippon cita ese cambio como evidencia de que los riesgos eran previsibles desde antes, y nada se hizo a tiempo.

OpenAI dice que la demanda carece de mérito.


El análisis de Stanford: esto no es solo ejercicio ilegal de la abogacía.

El Centro CodeX de la Stanford Law School publicó un análisis que va más al fondo. El artículo —titulado “Designed to Cross”— argumenta que el marco jurídico correcto no es el del ejercicio ilegal de la abogacía, sino el de la responsabilidad por producto defectuoso.

La lógica: OpenAI diseñó un sistema que, de manera previsible, cruzaría la línea entre información general y consejo jurídico específico, sin construir los controles necesarios para impedirlo. Comercializó su tecnología destacando que puede aprobar exámenes de ingreso al ejercicio de la abogacía (los famosos bar exam), sin diseñar los mecanismos que impidan que esa capacidad se use para reemplazar a un abogado en un caso real.

La conclusión tiene peso: si el problema es de diseño arquitectónico, los parches de términos y condiciones llegan siempre tarde. La solución es de ingeniería del producto, esto es bloqueos estructurales, no advertencias en letra pequeña.


Nueva York va a la acción

Mientras el caso de Illinois sigue su curso, en Nueva York avanza un proyecto de ley que podría cambiar las reglas del juego. El proyecto S7263, que pasó la Comisión de Internet y Tecnología del Senado por unanimidad y llegó al recinto pleno en febrero de 2026, crearía responsabilidad estricta para los operadores de chatbots que brinden consejo jurídico, médico u otro consejo profesional regulado.

El esquema es claro: avisar al usuario que “está hablando con una IA” no exime de responsabilidad si el sistema igual da el consejo prohibido. Y cualquier persona perjudicada podría demandar directamente al operador del chatbot, sin necesidad de probar culpa.

Si se aprueba, sería la primera ley de este tipo en los Estados Unidos. Y en otros países ya se está mirando el modelo.


Argentina no está lejos

El problema no es solo de los tribunales de Illinois o de cualquier jurisdicción de EE.UU.

En Rosario, la Cámara de Apelaciones dictó una resolución formal de advertencia a un abogado que presentó un escrito basado en normas y plazos que no existen en el Código Procesal de Santa Fe —generado con IA, sin verificación. No hubo sanción disciplinaria, pero sí un severo llamado de atención institucional sobre el uso “acrítico” de herramientas como ChatGPT o Gemini en la práctica profesional.

El CPACF publicó directrices oficiales para el uso de inteligencia artificial por parte de abogados. En varias cámaras nacionales se han detectado que hay expedientes con citas inventadas. El patrón se repite.

Desde el ángulo del derecho penal, el ejercicio ilegal de la abogacía está tipificado en el artículo 247 del Código Penal argentino. La norma apunta a personas físicas, no a sistemas informáticos —pero la pregunta de quién responde cuando la IA ejerce ilegalmente ya está golpeando la puerta. El caso Nippon no es ciencia ficción: es el escenario de mañana en cualquier jurisdicción.


La diferencia que importa

El caso Dela Torre no es solo un problema de tecnología. Es un problema del uso humano de esta tecnología.

Graciela no usó ChatGPT como herramienta. Lo usó como abogado. Le preguntó si su abogado humano la estaba engañando. Le pidió que evaluara su caso. Le delegó las decisiones estratégicas. Siguió cada respuesta sin filtro crítico propio.

La IA hizo lo que hace siempre: respondió con confianza, con argumentos coherentes, con la apariencia de autoridad. Y se equivocó de un modo que le costó el caso, el tiempo y probablemente el dinero. Y no hablemos de una mancha en su nombre.

ChatGPT no sabe que el caso está cerrado en el mundo real. No conoce al juez. Muy posiblemente no leyó el expediente completo. No puede evaluar la credibilidad de los testigos ni la dinámica del tribunal. Sabe generar texto convincente sobre temas legales. Eso es muy distinto a ejercer la abogacía.

La pregunta que este caso pone sobre la mesa —y que los tribunales de Illinois van a tener que responder— es cuánta responsabilidad recae sobre OpenAI por haber construido algo que, inevitablemente, se iba a usar así. Hay muchas fuentes sobre la tendencia a ciertos modelos de IA que tienen prevalencia por complacer al usuario y no contradecirlo. Si los presionas lo suficiente, las IAs van a decir lo que vos querés que digan. Y eso me parece peligroso. ¿Y a vos qué te parece?


¿Querés seguir este caso o discutir cómo afecta al ejercicio profesional en Argentina? Escribime a nododelta@gmail.com.


Referencias