El abogado Greg Lake, de Omaha, Nebraska, se presentó el 20 de marzo de 2026 ante la Corte Suprema de su estado para defender un caso de divorcio en apelación. Llevaba un escrito con 63 citas legales. Los jueces lo interrumpieron a los 37 segundos de haber comenzado su alegato oral.
El problema: 57 de las 63 citas eran defectuosas. Veinte eran alucinaciones directas de inteligencia artificial —casos que nunca existieron, con nombres realistas, números de expediente verosímiles y citas de párrafos inventados—. Tres eran casos completamente fabricados de principio a fin.
Uno de ellos era "Kennedy v. Kennedy", un supuesto precedente de 2019 sobre custodia parental que Lake usó para respaldar su argumento. El caso nunca existió. Tampoco existían las citas que extrajo de él.
El 16 de abril de 2026, la Corte Suprema de Nebraska suspendió a Lake de manera indefinida. Es la primera suspensión completa de licencia en la historia de Estados Unidos por errores relacionados con inteligencia artificial en un escrito judicial.
El patrón del encubrimiento
Lo que agravó la situación de Lake no fue haber usado IA. Fue lo que hizo cuando lo descubrieron.
Cuando los jueces lo confrontaron durante el alegato oral, Lake respondió que había subido la versión incorrecta de su escrito. La explicación duró poco: la corte solicitó el escrito correcto, y Lake no pudo presentarlo porque no existía. Semanas después, en un affidavit presentado ante el tribunal disciplinario, admitió que había usado una herramienta de IA generativa para redactar el documento y que no verificó las citas antes de presentarlo.
Ese movimiento —negar primero, admitir después— fue central en la decisión de la corte. Los justices encontraron violaciones a las Reglas de Conducta Profesional de Nebraska, incluyendo "falta de deber de candor hacia el tribunal". En el lenguaje legal, eso significa mentirle al juez.
El cliente de Lake, además, quedó expuesto a pagar 52.000 dólares en honorarios al abogado de la parte contraria como consecuencia del desastre.
No es el primero ni el más caro
El caso Lake es el de consecuencias más drásticas hasta ahora, pero en 2026 se está configurando un patrón que los tribunales de todo Estados Unidos empezaron a llamar "el problema de las alucinaciones legales".
En Oregon, dos abogados —Stephen Brigandi y Tim Murphy— presentaron un escrito con 23 citas falsas y 8 casos completamente inventados en una disputa por una bodega. El Magistrado Mark D. Clarke los multó con 110.000 dólares, la sanción más alta en la historia legal estadounidense por este tipo de error. El juez señaló que fue "un notorio valor atípico en grado y volumen" y criticó que Brigandi intentó ocultar los errores eliminando referencias del escrito sin explicación antes de que la corte pudiera compararlos.
En Nueva Jersey, el abogado Raja Rajan usó un chatbot para escribir un escrito y luego le pidió a otro chatbot que verificara las citas —un proceso que los analistas describieron como "pedirle a la IA que corrija lo que la IA inventó"—. Se encontraron seis citas falsas. Lo multaron con 2.500 dólares. Reincidió. Lo multaron con 5.000 más. La jueza advirtió que el siguiente incidente sería referido a la junta disciplinaria estatal.
Una firma del ranking Am Law 71 —empresas de primer nivel del derecho corporativo estadounidense— cometió el mismo error dos veces, en octubre de 2025 y febrero de 2026, a pesar de haber actualizado sus políticas internas tras el primer incidente.
El problema técnico que la urgencia convierte en desastre
Las alucinaciones de los modelos de lenguaje no son errores aleatorios. Son una consecuencia estructural de cómo funcionan estos sistemas: generan texto estadísticamente probable, no texto verificablemente verdadero. En derecho, esto produce un tipo de error específicamente peligroso.
Los casos legales inventados por la IA tienen características que los hacen difíciles de detectar a primera vista: nombres plausibles, números de expediente con formato correcto, fechas que caen dentro de períodos razonables, jurisdicciones que existen. Un abogado que lea el escrito sin verificar cada cita puede asumir que está mirando investigación real, especialmente si confía en que la herramienta que usó "hace investigación legal".
Ninguna de las herramientas involucradas en estos casos fue diseñada para hacer investigación legal verificada. Algunas eran chatbots de propósito general. Otras eran plataformas legales comerciales —el caso del Quinto Circuito involucró a Thomson Reuters CoCounsel y vLex, herramientas de alto costo y buena reputación— que tampoco proveyeron protección contra errores de este tipo.
Lo que la barra de abogados está respondiendo
La velocidad a la que acumularon estos casos provocó respuestas institucionales en varios frentes. Algunos tribunales federales ya exigen que los abogados certifiquen explícitamente si usaron IA generativa en la preparación de sus escritos y, de haberla usado, que confirmen que verificaron todas las citas con fuentes primarias.
El problema de fondo es de incentivos. Un abogado que trabaja contra el reloj, con exceso de casos y clientes que no quieren pagar por horas de investigación, tiene razones prácticas para dejar que una herramienta de IA genere el borrador y confiar en que funciona. La mayoría de las veces, en escritos donde las citas no se verifican de manera sistemática, el error no se detecta. Los casos que llegaron a los titulares son los que llegaron a tribunales donde los jueces verifican.
Lake cometió el error en un caso de divorcio, donde la apuesta emocional es alta y el escrutinio judicial puede ser menor. La combinación —error técnico, negación inicial, admisión tardía— lo convirtió en el primero en perder la licencia. Probablemente no será el último.
Fuente original: Nebraska Public Media / ComplianceHub / Divorce.law