Jurisprudencia

IMPLICACIONES JURÍDICAS DEL USO DE IA GENERATIVA EN LA PRAXIS PROCESAL

Análisis Jurídico: El Impacto de la Inteligencia Artificial en la Buena Fe Procesal (Auto 38/2024 TSJ Navarra)

  1. RESUMEN EJECUTIVO

El presente documento analiza el Auto 38/2024 del Tribunal Superior de Justicia de Navarra, dictado en el marco de una investigación por mala fe procesal tras la inclusión de citas legales inexistentes —generadas por IA— en una querella. El tribunal evalúa la responsabilidad deontológica del letrado en la supervisión de estas herramientas, resolviendo finalmente el archivo de la pieza sancionadora debido a la naturaleza novel de la tecnología y la inmediata rectificación del profesional.

  1. CONTEXTO Y ALCANCE DEL DOCUMENTO

La integración de la Inteligencia Artificial (IA) en la administración de justicia representa un cambio de paradigma que no puede comprometer la seguridad jurídica ni la probidad procesal. En este escenario, la modernización de la justicia exige que la supervisión humana sea un pilar innegociable; la automatización no exime al profesional del derecho de su deber de diligencia. El Auto objeto de estudio subraya que la intervención humana es la única garantía de veracidad en el foro judicial.

Los antecedentes del caso se sitúan en el Recurso 17/2024, relativo a un procedimiento de especial trascendencia: causas penales contra jueces, magistrados y fiscales. Tras la inadmisión de la querella, se acordó la apertura de una pieza separada bajo el amparo del Art. 247 de la Ley de Enjuiciamiento Civil (LEC) para investigar un posible abuso de derecho. La irregularidad detectada consistió en la mención de un precepto inexistente en el ordenamiento español: el Art. 454B del Código Penal de Colombia, el cual fue falsamente atribuido a la jurisprudencia de la Sala Segunda del Tribunal Supremo de España. Este hecho, calificado por la Sala como un "error material grosero", constituye la base de una investigación centrada en los principios fundamentales de lealtad y veracidad procesal.

  1. FUNDAMENTOS JURÍDICOS

El principio de probidad procesal actúa como una salvaguarda esencial del sistema judicial, facultando a los tribunales para corregir conductas que entorpezcan la administración de justicia. Este mandato legal positivo se articula principalmente a través del Artículo 247 de la Ley de Enjuiciamiento Civil (LEC):

  • Obligación de Buena Fe (Apdo. 1): Establece imperativamente que todos los intervinientes en los procesos deben ajustar sus actuaciones a las reglas de la buena fe.
  • Potestad Sancionadora (Apdo. 3): Faculta a los Tribunales para imponer, en pieza separada y mediante acuerdo motivado, multas que oscilan entre los 180 € y los 6.000 €.
  • Principio de Proporcionalidad: Para la fijación de la cuantía, el tribunal debe evaluar las circunstancias del hecho y los perjuicios causados. En este caso, la Sala pondera la "novedad de la materia" y la disposición del letrado para aplicar este principio de forma exculpatoria.

Estos fundamentos adquieren una dimensión crítica cuando el error no es una mera omisión, sino una "alucinación" técnica que suplanta la identidad de las más altas instituciones jurisprudenciales del Estado.

  1. CLAVES JURÍDICAS Y REGULATORIAS

La abogacía contemporánea exige marcos éticos que guíen la integración de la IA sin que la delegación de tareas se convierta en una dejación de funciones. El tribunal fundamenta su advertencia en referencias internacionales y técnicas de alto nivel:

  • Law Society (2023): Subraya que los abogados son plenamente responsables de los productos generados por soluciones tecnológicas, exigiendo una revisión exhaustiva para garantizar la exactitud.
  • Consejo de la Abogacía Europea (CCBE): Define la supervisión humana efectiva como una precondición indispensable del Estado de Derecho.
  • Estudio Matthew Dahl et. al. (2024): El Auto cita este análisis sobre las "alucinaciones jurídicas" en Modelos de Lenguaje de Gran Tamaño (LLM). Destaca que las tasas de error son alarmantes: 69% en ChatGPT 3.5 y 88% en Llama 2. Técnicamente, el estudio advierte que estos modelos fallan en la detección de preguntas contrafactuales (suposiciones jurídicas incorrectas del usuario), lo que imposibilita la confianza ciega en sus resultados.

Esta evidencia técnica justifica la exigencia de un control de calidad riguroso por parte del letrado, cuya ausencia puede derivar en graves implicaciones deontológicas.

  1. RIESGOS Y OBLIGACIONES EN LA PRÁCTICA

La delegación descuidada en herramientas como ChatGPT 3 (versión específicamente utilizada en el escrito rector de este caso) supone un riesgo sancionador y reputacional. El tribunal cita el precedente del caso Avianca (EE.UU., 2023) para recordar que los abogados tienen una "función de control" ineludible.

Riesgo Identificado Obligación Profesional Correlativa Alucinación normativa y jurisprudencial: Citar el CP de Colombia (Art. 454B) y atribuirlo falsamente a la Sala Segunda del Tribunal Supremo. Verificación de fuentes: El letrado debe validar personalmente la vigencia y la autoría de cada cita legal y jurisprudencial presentada. Mala fe procesal por descuido: Presentar como derecho positivo español normas extranjeras inexistentes en el foro nacional. Diligencia debida: Supervisión efectiva de los borradores generados por IA antes de su firma y presentación oficial. Infracción Deontológica: Delegación de la responsabilidad intelectual en un algoritmo. Función de control: Asegurar que la IA actúe como apoyo y no como sustituto del juicio crítico profesional.

El tribunal enfatiza que este tipo de errores no pueden pasar inadvertidos para ningún profesional del Derecho, independientemente de la herramienta utilizada.

  1. VALORACIÓN CRÍTICA Y CONCLUSIONES

La resolución del TSJ de Navarra se erige como un hito pedagógico y preventivo. El tribunal ha optado por un enfoque de advertencia hacia el conjunto de la profesión, señalando que el uso descuidado de la tecnología tiene implicaciones legales y éticas profundas.

No obstante, la Sala acordó el archivo de la pieza separada sin imposición de sanción pecuniaria por dos motivos fundamentales:

  1. La novedad tecnológica: El carácter emergente de la IA generativa justifica una ponderación inicial menos punitiva.
  2. La subsanación del error material grosero: El letrado, tras la detección de la Sala, presentó sus "más sinceras excusas" de forma inmediata, solicitando tener por no puesto el párrafo erróneo en el escrito rector de la querella.

Conclusión: Este Auto funciona como un aviso preventivo definitivo para la praxis procesal española. La IA es una herramienta de apoyo legítima, pero la responsabilidad última de la integridad del proceso descansa exclusivamente en el profesional. La buena fe procesal no permite la delegación de la veracidad en algoritmos sin una supervisión humana crítica y exhaustiva.