Firma Scarpa

Peritos judiciales inteligentes: el marco legal que falta

Los jueces prometieron transparencia. Entregaron cajas negras.

Los jueces prometen transparencia judicial, pero entregan decisiones fundamentadas en sistemas de caja negra que nadie puede auditar ni cuestionar. Un tribunal en Cartagena resolvió una disputa sobre derechos de un menor autista usando ChatGPT como fundamento de su ratio decidendi. Dos meses después, otro tribunal en los Países Bajos confió a una IA la determinación de hechos técnicos críticos. Ninguno de ellos tenía que hacerlo bajo un marco legal coherente. Y ambos casos lo demuestran: la integración global de la Inteligencia Artificial en los tribunales no ocurre bajo regulación robusta, sino en un vacío operativo donde el entusiasmo tecnológico del juez individual determina la legalidad de lo que hace.

Esta expansión algorítmica amenaza los cimientos del Estado de Derecho. No porque la IA sea mala en abstracto, sino porque el derecho no ha sabido poner en la mesa la pregunta correcta: ¿qué es realmente una IA cuando un juez la usa para tomar una decisión? Las respuestas que hemos visto hasta hoy son decepcionantes. Las instituciones supranacionales (CEPEJ, UNESCO) emiten cartas éticas. Los gobiernos publican directrices que exhortan a los jueces a ser "cautelosos". Pero nadie ha avanzado una solución normativa coherente. Y aquí es donde la tesis de este análisis gira en una dirección inesperada: la solución no requiere inventar nuevas categorías jurídicas desde cero. El derecho ya tiene el marco legal que necesita. Solo que no lo ve.

Los marcos legales existentes para los peritos judiciales ofrecen un modelo funcional y normativo superior para regular la IA en los tribunales. Los peritos humanos y los sistemas de IA cumplen la misma función epistémica: traducen conocimientos complejos o volúmenes masivos de datos en información útil para el juez. Si el derecho ya ha diseñado salvaguardas centenarias para controlar a los expertos humanos —asegurando su independencia, limitando su mandato y permitiendo que las partes contradigan sus informes—, estas mismas obligaciones pueden y deben transponerse a los "asesores mecánicos".

Cuando un perito era de carne y hueso: la arquitectura que el derecho olvidó

La regulación de la prueba pericial no es un detalle técnico del derecho procesal. Es un componente estructural del derecho a la tutela judicial efectiva. Durante siglos, el perito judicial actuó como puente epistemológico entre la complejidad técnica de la realidad y la función decisoria del juez. En el modelo continental (civil law), el perito no es un testigo de parte, sino un auxiliar de la justicia, una figura neutral cuya misión es asistir al tribunal en la comprensión de hechos que requieren conocimientos especializados fuera de la competencia ordinaria del juez.

Lo que resulta llamativo es que este marco procesal fue diseñado precisamente para evitar lo que hoy ocurre con la IA: que un juez que no entiende la lógica interna de una herramienta experta termine sometiéndose ciegamente a sus conclusiones. Para ello, el derecho construyó un conjunto de obligaciones que son, en esencia, obligaciones de sujetos expertos en contextos de asimetría de información. Veamos cuáles son:

Designación y control de acceso: La intervención de un perito no es automática. Bajo el derecho continental, la designación debe responder a criterios de utilidad (¿resuelve este perito la disputa?), necesidad estricta (¿carece el juez de la competencia técnica?) y proporcionalidad (¿es el coste del peritaje proporcional a la complejidad?). El tribunal retiene la discrecionalidad plena. Esto no es un detalle menor. La obsesión de los jueces por adoptar IA sin preguntarse si es necesaria viola el espíritu de esta obligación.

Registros nacionales y acreditación: Los peritos deben figurar en registros oficiales con requisitos rigurosos: formación académica superior, experiencia acreditada (frecuentemente un mínimo de cinco años), conocimiento probado de las reglas procesales, integridad moral intachable. El registro no es un directorio, es un mecanismo de control de calidad que confiere un "título protegido". En el mundo de la IA judicial, esto sencillamente no existe. Un juez puede usar ChatGPT, GPT-4, Gemini, sin que ninguna autoridad judicial haya verificado siquiera si el modelo fue entrenado con sesgos detectables o si sus respuestas sobre derecho son confiables.

Deber de imparcialidad e independencia: El perito debe actuar con estricta neutralidad. Su lealtad es al tribunal, no a quien lo contrató. Esta obligación protege contra la "batalla de peritos" donde cada parte presenta su experto con incentivos claros para abusar de su posición. Ahora bien, ¿cuál es la imparcialidad de un sistema de IA que fue entrenado con datos de jurisdicciones específicas, por empresas privadas con incentivos comerciales, con objetivos de minimizar costes computacionales que pueden afectar la calidad de la interpretación jurídica? La respuesta honesta es que no sabemos. Y sin transparencia, la imparcialidad es una ficción.

El derecho de contradicción: Aquí es donde el análisis toca el corazón del due process. Las partes tienen derecho a cuestionar el informe pericial, a presentar su propio perito, a someter al experto original al contraexamen. Este derecho, consagrado en el Art. 6 del CEDH, es lo que transforma una sentencia en un acto legítimo de justicia en lugar de una orden autoritaria. Pero cuando un juez funda su decisión en conclusiones de una IA que funciona como caja negra, el derecho de contradicción se evaporiza. ¿Cómo preguntas a ChatGPT cómo llegó a esa respuesta? ¿Cómo auditas los pesos neurales internos de un modelo con 70 mil millones de parámetros? El abogado que intenta contradecir una conclusión algorítmica no tiene técnicas procesales para hacerlo.

Lo que más me llama la atención es que muchos jueces argumentan que usar IA es "más eficiente" o "estandariza criterios". Pero esta es una lectura superficial del problema. La eficiencia sin garantías procedimentales no es justicia: es administración. Y la estandarización sin auditoría es automatización ciega. El peritaje judicial tradicional, aunque sea lento y costoso, incluye frenos y contrapesos. La IA judicial contemporánea incluye un solo mecanismo de control: la esperanza de que el juez sea lo suficientemente diligente como para dudar de sus propias máquinas.

El corazón del argumento: equivalencia funcional entre expertos humanos e IA

Este es el punto donde la tesis central del análisis se revela con claridad: cuando un juez recurre a la IA para obtener conocimiento especializado, el sistema actúa como un perito de facto. No existe diferencia funcional relevante entre "el juez consulta a un perito químico sobre la composición de una sustancia" y "el juez consulta a un modelo de IA sobre la interpretación de una norma contractual". En ambos casos, hay una asimetría de información: el juez no posee las competencias técnicas para validar la respuesta por sí mismo. En ambos casos, el resultado influye de manera determinante en la decisión final. Y en ambos casos, el derecho a un juicio justo exige que las partes puedan cuestionar el asesor experto.

Ahora bien, la equivalencia funcional no es evidente para todos. Algunos argumentan que la IA es "solo una herramienta", como un diccionario o un gestor de casos. Esta categorización es fundamentalmente equivocada. Un diccionario no interpreta: traduce. Una herramienta de gestión de casos no deduce: organiza. Un modelo de lenguaje grande, en cambio, genera razonamientos, hace inferencias, aplica patrones aprendidos en datos masivos para producir respuestas que el juez trata como si fueran análisis técnicos independientes. Esto no es uso de herramientas. Es delegación.

Dicho esto, la razón por la cual esta delegación se ha normalizado en tan poco tiempo tiene una explicación: los jueces contemporáneos están bajo presión. Congestión de casos, demandas de celeridad, sistemas judiciales que colapsan bajo su propio peso. La IA promete alivio. Y en ese contexto de urgencia, muchos jueces saltan sobre ella sin preguntarse si lo que están haciendo es legal o, más precisamente, si es compatible con sus deberes como guardianes del debido proceso. Es comprensible, pero no es defensible.

Conviene recordar que la jurisprudencia internacional ha sido extraordinariamente clara sobre esto. El Tribunal Europeo de Derechos Humanos, en casos como Mantovanelli v. France y Martins Silva v. Portugal, ha sostenido que el derecho a un juicio justo se erosiona cuando la decisión del juez descansa en un factor (en esos casos, un pericia) que el justiciable no pudo cuestionar de manera efectiva. Si aplicamos esta lógica a la IA, la conclusión es incómoda: muchas sentencias fundamentadas en IA serían vulnerables a recursos de amparo.

Lo que resulta paradójico es que los propios sistemas judiciales que adoptan IA son conscientes de este riesgo. En una primera oleada de adopción, algunos ordenamientos intentaron clasificar la IA como "solo información" o "ayuda de investigación", no como "prueba" o "fundamento de la decisión". Pero esta estrategia falla cuando el juez realmente se fía de la IA. Una cosa es consultar un motor de búsqueda para encontrar jurisprudencia (información). Otra es pedir a un LLM que interprete un concepto jurídico indeterminado y luego usar esa interpretación como base de la sentencia (delegación). No hay espacio legal en el medio para que ambos sean "solo herramientas".

Transposición de obligaciones: de la sala de peritos al código de máquina

Si aceptamos que la IA judicial es funcionalmente un perito, la pregunta que sigue es inevitable: ¿qué obligaciones deben transponerse? El análisis propone un esquema específico que merece examen punto por punto.

Primero: Designación basada en utilidad, necesidad y proporcionalidad. Esto significa que un tribunal no debería poder usar IA simplemente porque existe. La norma debería exigir que el juez justifique por qué es necesaria la IA en ese caso específico. ¿Es porque el volumen de datos excede la capacidad humana? ¿Es porque el análisis requiere patrones estadísticos que no pueden hacerse manualmente? ¿O es simplemente porque es "más rápido"? Las primeras respuestas tienen legitimidad procesal. La última no. Una regla de oro podría ser: la IA se designa solo cuando la complejidad técnica o volumétrica lo justifique, no cuando la congestión lo conviene.

Segundo: Registros nacionales de sistemas de IA certificados. Esto es revolucionario porque implica que cada sistema de IA destinado al uso judicial sería inscrito en un registro público con información específica: modelo utilizado, datos de entrenamiento, versión, sesgo documentado, auditorías realizadas, resultados de pruebas de confiabilidad. Esto no es ciencia ficción. Canadá y Australia ya han explorado modelos de este tipo en contextos de IA de riesgo alto. La Comisión Europea lo contempla en el AI Act. Pero la implementación en el sistema judicial ha sido lenta. Cada país debería tener su registro nacional de "sistemas judiciales certificados", con estándares que reflejen los marcos europeos pero adaptados a sus propias necesidades.

Tercero: Obligación de transparencia mediante informes estructurados. Aquí el análisis propone una técnica particularmente ingeniosa: el Retrieval Augmented Generation (RAG) como mecanismo de auditabilidad. En lugar de que una IA genere una respuesta de caja negra, se exigiría que emita un "informe estructurado" donde indique: (i) qué preguntas se le hicieron exactamente, (ii) qué fuentes (jurisprudencia, leyes, doctrina) recuperó para responder, (iii) qué razonamiento aplicó, y (iv) cuáles fueron las conclusiones. Esto transformaría la IA de oráculo opaco a experto cuestionable. Un abogado podría entonces decir: "El modelo citó la sentencia X, pero la interpretó erróneamente porque ignoró la jurisprudencia posterior del Tribunal Constitucional". Esto es contradicción real, no ficción procesal.

Cuarto: Derecho de contradicción mediante pre-informes algorítmicos. La idea es que antes de que el juez adopte una conclusión de IA como base de su decisión, ambas partes tendrían acceso al informe generado por el sistema y un derecho a presentar objeciones técnicas. Esto crearía lo que el análisis denomina un "pre-informe algorítmico", un documento que las partes podrían cuestionar antes de que se solidifique en la sentencia final. Es un mecanismo de bloqueo que protege el debido proceso.

Quinto: Código de conducta digital y técnicas de auditabilidad. Los peritos humanos tienen códigos deontológicos: deberes de honestidad, de no conflicto de intereses, de preparación técnica continua. Los sistemas de IA deberían tener equivalentes. Pero ¿cómo se fuerza a una máquina a ser ética? El análisis propone que no se puede. Lo que sí se puede es exigir auditabilidad: mecanismos técnicos que permitan a terceros (autoridades judiciales, expertos independientes) verificar que el sistema no ha sido entrenado sesgadamente, que sus respuestas son consistentes, que no ha sufrido manipulaciones. Esto requiere acceso al código, a los datos de entrenamiento (o sus metadatos), a los resultados de las pruebas de confiabilidad.

Lo que resulta complicado aquí es la realidad comercial. Las empresas de IA no quieren revelar sus modelos. El argumento de la "propiedad intelectual" aparece. Pero conviene ser claro: si una empresa quiere que su IA sea usada para fundamentar decisiones que afectan derechos fundamentales, debe aceptar el precio de la transparencia. No es un pedido irrazonable. Es el costo de actuar en un espacio que toca el monopolio estatal de la jurisdicción. O el sistema judicial exige transparencia, o rechaza la IA. No hay tercera opción compatible con el Estado de Derecho.

Responsabilidad distribuida: ¿quién paga por los errores de la máquina?

Aquí el análisis toca uno de sus puntos más delicados. La IA carece de personalidad moral. No puede ser culpada, no puede ser encarcelada, no puede ser sancionada éticamente. Pero sus errores tienen consecuencias reales para las personas. Cuando una IA se equivoca en el análisis de un contrato y el juez funda su decisión en ese error, alguien tiene que ser responsable.

El esquema de responsabilidad distribuida propuesto incluye tres vectores: el desarrollador (si el error proviene de diseño defectuoso), el usuario (si el error proviene de aplicación negligente), y el Estado (si falla en su deber de supervisión). En algunos casos, pueden concurrir responsabilidades. Un ejemplo: una IA fue entrenada mal (responsabilidad del desarrollador), fue usada en un caso para el cual no era apropiada (responsabilidad del juez), y nadie supervisó el proceso (responsabilidad estatal). El resultado es una sentencia defectuosa que lesiona derechos. Entonces, la pregunta es: ¿a quién demanda la parte dañada?

La Directiva de Responsabilidad por Inteligencia Artificial propuesta por la Comisión Europea en 2022 (y revisada en 2024) intenta responder esto. Establece que el proveedor de IA de "alto riesgo" (y la IA judicial lo es claramente) es responsable por defectos de diseño o información. Pero delega la responsabilidad por el uso negligente al operador (el tribunal). Esto crea un sistema donde: (i) si el fallo es del modelo, demandas al proveedor, (ii) si el fallo es de la aplicación judicial negligente, demandas al Estado, (iii) si ambos concurrieron, ambos pueden ser condenados a indemnizar. Es un sistema sensato, pero requiere que exista prueba de qué causó el error. Y aquí volvemos al problema inicial: sin transparencia, sin auditoría, ¿cómo se prueba que el error fue del modelo y no del juez?

Esta es la razón por la cual la transposición de obligaciones de los peritos a la IA no es solo una cuestión de principios. Es una cuestión de viabilidad del sistema de responsabilidad civil. Si la IA debe estar sometida a auditoría, si debe emitir informes estructurados, si debe dejar un rastro de su razonamiento, entonces y solo entonces es posible determinar responsabilidades cuando las cosas salen mal.

Ahora bien, hay un problema adicional que el análisis no desarrolla completamente pero que merece mención: la escala. Un perito humano puede ser responsable de unos cien casos en su carrera. Un modelo de IA puede influir en miles de sentencias en días. Si cada una de ellas contiene un error sistemático derivado de un defecto en el entrenamiento, entonces la responsabilidad civil del desarrollador podría ser astronómica. Esto crea incentivos extraños: los desarrolladores podrían simplemente rehusarse a vender IA judicial si el riesgo de responsabilidad es ilimitado. La solución probablemente requiera caps de responsabilidad (límites máximos), seguros obligatorios, fondos de indemnización estatal, o combinaciones de todo esto. Pero sin regulación, simplemente no hay mecanismo para que una parte dañada por un error de IA sea compensada.

Las preguntas que ningún reglamento ha respondido todavía

El análisis propone un marco coherente, pero es honesto sobre los límites. Hay preguntas para las cuales la transposición del marco de peritos es insuficiente.

Primera: ¿Cuándo una conclusión de IA deja de ser "asesoramiento técnico" y se convierte en "función jurisdiccional delegada"? Un juez que consulta un LLM para entender la balística de un arma está pidiendo información. Pero un juez que pregunta: "¿Esta interpretación del contrato es correcta conforme a la jurisprudencia mercantil española?" está pidiendo interpretación legal. Y la interpretación legal es función del juez, no puede ser delegada, ni siquiera a un experto humano. ¿Dónde está la línea?

Segunda: ¿Pueden los derechos humanos de una persona ser fundamentados en una máquina sin identidad? El caso de Cartagena tocó exactamente esto: un tribunal usando IA para resolver derechos fundamentales de un menor. Pero un menor no puede apelar a la "integridad moral" de la máquina. No puede cuestionar su "independencia" en el sentido que exige el CEDH. Los derechos humanos fueron construidos como relaciones entre seres morales (personas, jueces). ¿Que ocurre cuando uno de los extremos es un algoritmo?

Tercera: ¿Es compatible el secreto comercial de los proveedores de IA con el derecho a conocer los fundamentos de una decisión que afecta derechos? En teoría, sí: se puede diseñar sistemas donde la IA es opaca para el mercado, pero transparent para la justicia. Pero ¿quién fuerza al proveedor a aceptar esto? El análisis implícitamente asume que el Estado tiene poder de negociación o imposición. Pero cuando una tecnología es monopolio de Silicon Valley, ese supuesto falla.

Cuarta: ¿Qué ocurre con la IA en órdenes jurisdiccionales donde no existe tradición de peritos judiciales independientes? El marco propuesto asume que existe una estructura previa de registros, acreditación, códigos deontológicos. En muchos países del sur global, eso simplemente no existe para los peritos humanos. ¿Cómo transponer un marco que presupone institucionalidad débil en contextos donde la institucionalidad es aún más débil?

Estas preguntas no tienen respuestas definitivas. Y eso es, en cierto sentido, honestidad intelectual. Un análisis que pretendiera resolverlas estaría simplemente fingiendo. Pero su existencia no invalida la utilidad de la tesis general: organizar la regulación de la IA judicial alrededor del marco de los peritos es superior a la alternativa actual, que es no tener marco alguno.

La hoja de ruta: hacia una armonización supranacional

La conclusión del análisis propone que los sistemas de justicia pasen de la adopción pasiva de la IA a una gobernanza activa basada en transparencia y rendición de cuentas. Esto requiere movilización en tres niveles:

A nivel nacional: Cada Estado debería crear un registro de sistemas de IA certificados para uso judicial. Esto implica estándares técnicos mínimos, auditorías obligatorias, publicación de resultados, y actualización periódica conforme avanza la tecnología. Implicaría también que los tribunales justifiquen por escrito por qué recurren a IA en cada caso específico, y que las partes tengan derecho a cuestionar la elección.

A nivel europeo: La Unión Europea está en posición de liderar. El AI Act ya existe. Lo que falta es que el Consejo de Europa (CEPEJ) traduzca esos principios en estándares operacionales específicos para tribunales. Esto requiere diálogos con desarrolladores, jueces, abogados y expertos en IA. No es trivial, pero es urgente.

A nivel de soft law: Las instituciones internacionales deben transitar desde "principios éticos" a "estándares técnicos operacionales". "La IA debe ser transparente" es un principio. "Toda IA judicial debe emitir un informe con estructura X, indicando fuentes, razonamiento y conclusiones" es un estándar operacional. Las cartas éticas actuales son insuficientes porque no hay manera de verificar su cumplimiento.

Lo que resulta crucial es que esta hoja de ruta no es una propuesta de los tecnólogos a los juristas. Es una propuesta de los juristas a los tecnólogos: "Si queremos que vuestros sistemas fundamenten decisiones que afecten derechos humanos, debéis aceptar estas reglas". Eso invierte la dinámica actual, donde la tecnología marca el paso y el derecho corre detrás intentando no quedarse atrás.

Conclusiones operacionales para abogados

¿Qué debería saber y qué debería hacer un abogado en la práctica después de leer este análisis?

  • Presume que cualquier conclusión en una sentencia que provenga de IA está sujeta a contradicción técnica. Incluso si el tribunal la presentó como "investigación de oficio" o "información auxiliar", tienes derecho a cuestionar su validez mediante un perito de tu parte.

  • Solicita siempre un "informe algorítmico" cuando sospechas que una decisión se fundó en IA. No pidas que el tribunal revele el código de OpenAI. Pide que identifique qué preguntas hizo al sistema, qué respuestas obtuvo, qué fuentes el sistema citó, y qué conclusiones extrajeron. Si el tribunal se niega, eso es síntoma de que la IA está siendo usada ilegítimamente.

  • Prepara argumentos de defensa en dos niveles: (i) cuestiona la conclusión sustantiva de la IA (es decir, que está equivocada), pero también (ii) cuestiona la legalidad de usarla (es decir, que violaría el derecho a la contradicción, al debido proceso, a la motivación de sentencias). El segundo argumento es mucho más fuerte.

  • Recurre a la jurisprudencia del TEDH. Los casos Mantovanelli, Cottin, Martins Silva establecen que el derecho a un juicio justo se erosiona cuando la sentencia depende de un factor que no pudiste cuestionar. Usa esos precedentes.

  • Exige responsabilidad por errores de IA. Si una decisión se fundó en una respuesta errónea de un LLM, demanda tanto al tribunal como al proveedor. Si es posible, propón un experto que audite el sistema para determinar si el error fue del modelo.

  • En la práctica legislativa o regulatoria, aboga por que tu país transponga las obligaciones de los peritos a los sistemas de IA judicial. No es un lujo académico. Es defensa de tus derechos procesales.


Lo que más importa: El Estado de Derecho no es eficiencia. Es garantía de que tus derechos serán decididos por un procedimiento en el que tienes voz. Una IA sin rostro, sin identidad moral, sin capacidad de ser cuestionada, es incompatible con eso. La solución no es prohibir la IA. Es exigirle que cumpla con los mismos estándares que le imponemos a un perito humano. Nada menos. Nada más.