Jurisprudencia

Tribunal inglés establece por primera vez el régimen completo de sanciones por usar ChatGPT en litigación sin verificar

Tribunal inglés establece por primera vez el régimen completo de sanciones por usar ChatGPT en litigación sin verificar

Lo que el Divisional Court acaba de decirle a cada abogado que use IA para investigar jurisprudencia

ℹ Nota – Resumen (TL;DR): El High Court de Inglaterra y Gales ha dictado el 6 de junio de 2025 la sentencia más completa hasta la fecha sobre uso de IA sin verificación en litigación. En dos casos acumulados, el tribunal sistematiza todo el espectro de sanciones disponibles, desde costas hasta prisión. Confirma que el deber de verificar las citas de IA existe ya, sin necesidad de regulación específica. Y avisa a los líderes de los despachos: el próximo Hamid hearing los pondrá a ellos en el foco.

Los dos casos: lo que ocurrió

Caso 1 (Ayinde). Una barrister júnior redacta un escrito de revisión judicial sobre vivienda de emergencia. Incluye cinco sentencias que no existen. Cuando el demandado las detecta, en lugar de reconocer el error, el equipo legal responde por escrito minimizándolo como «cosmetic errors» y rechazando explicarlo. El Divisional Court llama a esto «una categorización groseramente no profesional». La barrister recibe una condena en costas de £2.000, es remitida al regulador, y se descubre que el mismo tipo de error se produjo también en otro caso ante el County Court.

Caso 2 (Al-Haroun). Un solicitor presenta ante la jueza Dias J un witness statement con citas jurisprudenciales. El judicial assistant del tribunal verifica las 45 citas: 18 no existen; la mayoría de las restantes no contienen los textos citados ni apoyan las proposiciones para las que se citan. Una de las citas falsas atribuye una decisión a la propia Dias J. El solicitor admite haber confiado en la investigación de su cliente sin verificar. El tribunal lo remite al regulador.

Las sanciones: de menor a mayor

El tribunal describe un espectro completo de respuestas posibles. La admonición pública en sentencia importa, pero el tribunal advierte que salvo en circunstancias excepcionales no es suficiente como única respuesta. El wasted costs order obliga al letrado a pagar las costas innecesarias causadas a la otra parte: en el caso Ayinde, £2.000 por cada responsable. El referral al regulador (Bar Standards Board para barristers; Solicitors Regulation Authority para solicitors) puede dar lugar a suspensión o inhabilitación. El strike out puede eliminarse un caso. El contempt of court puede suponer hasta dos años de prisión. Y en los casos más graves, deliberadamente colocar material falso ante el tribunal para interferir con la administración de justicia es perverting the course of justice, con pena máxima de cadena perpetua.

¿Qué significa esto para ti si eres abogado?

Primero: el deber de verificar el output de la IA no espera a que exista una regulación específica. Existe ya. El tribunal lo deriva de las normas deontológicas generales: no engañar al tribunal, prestar un servicio competente. Segundo: si usas IA para investigar, eres responsable. Igual que eres responsable del trabajo de un trainee que supervises. No hay diferencia. Tercero: las fuentes autorizadas para verificar son específicas: National Archives, BAILII, Law Reports oficiales del ICLR, bases de datos de editoriales reputadas. Google no es una fuente autorizada. Cuarto: si eres Head of Chambers o Managing Partner, el tribunal advierte que en futuros Hamid hearings examinará si cumpliste tus responsabilidades de liderazgo. Eso significa: ¿tienes un protocolo escrito? ¿Tu equipo está formado? ¿Supervisas adecuadamente a los júniores?

Lo que más importa del fallo: el aviso institucional

El Divisional Court no se limita a sancionar a los letrados implicados. Envía copia de la sentencia al Bar Council, la Law Society y el Council of the Inns of Court. Su mensaje es claro: publicar guidance no es suficiente. «Más necesita hacerse» para asegurar que los abogados cumplen. Y avisa: en futuros Hamid hearings, el tribunal preguntará si quienes tienen responsabilidades de liderazgo las han cumplido. La era de la autorregulación blanda en materia de IA en litigación ha terminado.

La regla de oro del fallo

El tribunal lo dice con una sola frase: «The critical safeguard is to check any output by reference to an authoritative source» (§ 87). No asking the AI if it's sure. Not asking it to explain its limitations. Accessing the source. Reading it. Verifying that it exists, that it says what you think it says, and that it supports the point you're making. Every time.

Artículos relacionados

Williams v. Wells Fargo: Opacidad algorítmica y responsabilidad en derecho de la igualdad crediticia

jurisprudencia

Análisis doctrinal de la demanda de discriminación hipotecaria contra Wells Fargo. Cómo la opacidad de algoritmos de crédito colisiona con la doctrina de impacto disparatado (disparate impact) del derecho estadounidense.

FTC v. Air AI: Medidas cautelares contra el fraude algorítmico y el AI-washing

jurisprudencia

Análisis de la acción coercitiva de la FTC contra Air AI Technologies por AI-washing. Cómo los tribunales federales aplican doctrinas equitativas tradicionales a la conducta algorítmica fraudulenta.

Algoritmos en el Banquillo: El Caso State of New Mexico v. Meta Platforms Inc. y la Reconstrucción de la Responsabilidad Civil en la Era Digital

jurisprudencia

Análisis completo del caso histórico contra Meta Platforms, la operación MetaPhile, y el cambio de paradigma en la responsabilidad de las plataformas digitales.

Inteligencia Artificial Generativa y Derechos de Autor en la Unión Europea: Análisis de la Resolución del Parlamento Europeo de 10 de marzo de 2026 a la luz del Informe de la Comisión de Asuntos Jurídicos

copyright

Análisis detallado de la Resolución del Parlamento Europeo de 10 de marzo de 2026 sobre derechos de autor e IA generativa, a la luz del Informe de la Comisión de Asuntos Jurídicos, con propuestas clave sobre transparencia, opt-out, licencias colectivas y reafirmación del principio de autoría humana.