Diligencia verificadora y responsabilidad personal: análisis doctrinal de la Circular 3/2026 del Consejo General de la Abogacía
DILIGENCIA VERIFICADORA Y RESPONSABILIDAD PERSONAL: LA CIRCULAR 3/2026 Y LA REINTERPRETACIÓN DEONTOLÓGICA DE LA IA EN LA ABOGACÍA ESPAÑOLA
RESUMEN EJECUTIVO
La Circular Interpretativa 3/2026 del Consejo General de la Abogacía Española marca un giro conceptual en la comprensión de la diligencia profesional frente a sistemas de inteligencia artificial generativa. Su contribución doctrinal no es prohibir el uso de IA, sino reinterpretar la responsabilidad personal del abogado bajo un modelo de "supervisión verificadora obligatoria": la firma de un documento implica el deber ineludible de control post-hoc del contenido, independientemente de cómo haya sido generado. Esta reinterpretación desplaza el foco de la «autoría creativa» al «control verificador» como esencia de la responsabilidad.
La Circular fundamenta este giro en la doctrina de la actio libera in causa —la decisión libre inicial de usar la IA sin supervisarla constituye el acto negligente—, estableciendo un régimen sancionador de proporcionalidad variable que puede modular infracciones graves, e incluso calificarlas como muy graves en supuestos de abandono funcional de la defensa. El resultado es una reconfiguración de la profesión que, aunque tecnológicamente neutra en forma, es sustancialmente exigente: la IA no exime, sino que intensifica, la obligación de diligencia verificadora.
I. GENEALOGÍA DEL CONCEPTO: LA DILIGENCIA PROFESIONAL ANTES DE LA IA
La diligencia como núcleo irrenunciable de la profesión
El deber de diligencia profesional constituye uno de los pilares sobre los que se edificó históricamente la responsabilidad del abogado en el ordenamiento español. Su formulación normativa, consolidada en el artículo 4.1 del Código Deontológico de la Abogacía Española (CDAE), establece que el profesional debe actuar «con el máximo celo y profesionalidad».
Históricamente, este deber se ha entendido como exigencia de: (1) competencia técnica, esto es, dominio de la materia jurídica en que se actúa; (2) cuidado en la ejecución, atención rigurosa a los detalles, plazos y fundamentos legales; (3) independencia de criterio, evaluación autónoma de las posiciones sostenidas; (4) responsabilidad personal, asunción plena del contenido de lo que se firma. Esta arquitectura descansa en una premisa fundamental: la persona física del abogado es el origen, centro y responsable último de todo acto profesional. Incluso cuando delega tareas (investigación de hechos, redacción de borradores), la delegación nunca ha sido liberatoria de responsabilidad. El abogado que confía un borrador a un pasante, a un colega o a un despacho asociado sigue siendo personalmente responsable del resultado.
Los esquemas tradicionales de negligencia
En el régimen anterior a la IA generativa, la negligencia profesional podía clasificarse en categorías bien delimitadas: (1) negligencia por comisión, cuando el abogado actúa incorrectamente (asesoramiento erróneo, demanda defectuosa, incumplimiento de plazos); (2) negligencia por omisión, cuando el abogado falla en algo que debería haber hecho (no citar norma aplicable, no verificar un hecho relevante); (3) negligencia culposa, cuando la conducta es imputable al abogado mismo; es suya la decisión negligente.
Lo característico de estos esquemas es que la fuente del error era identificable y atribuible: error de criterio del abogado, desconocimiento de la norma, falta de diligencia en la lectura de autos, omisión de estudio. La culpa era siempre, en última instancia, de naturaleza epistémica o volitiva: el abogado no supo o no quiso. La responsabilidad era modular: si un error menor era culpa leve, una demanda mal fundamentada era culpa grave. Pero siempre quedaba clara la cadena de imputación: el acto negligente era obra del abogado.
II. CRISIS DEL CONCEPTO: LA IA GENERATIVA COMO RUPTURA CUALITATIVA
A. Características intrínsecas de la IA generativa relevantes para la deontología
La Circular identifica una ruptura cualitativa. No se trata de una herramienta que mejora o acelera tareas conocidas (un procesador de textos, una base de datos jurídica). Se trata de un sistema que exhibe propiedades que desestabilizan las categorías clásicas.
1. La apariencia de excelencia técnica sin respaldo epistémico
Un modelo de lenguaje generativo (GPT, Claude, Gemini) produce textos con características estilísticas y formales indistinguibles de un texto redactado por un abogado competente. La presentación es impecable. El contenido puede ser completamente erróneo. La Circular lo denomina «contenidos incorrectos con apariencia de excelencia técnica». Esta característica es cualitativamente distinta de otros errores profesionales. Un abogado que comete un error cognitivo al menos cree (equivocadamente) que lo que escribe es correcto. La IA generativa produce textos plausibles sin relación con la verdad o la corrección jurídica.
2. Las fabulaciones intrínsecas al diseño ("hallucinations")
La IA generativa no «busca» información; genera secuencias estadísticas. Cuando se le pide que cite una sentencia de un tribunal, puede inventar el número de resolución, la fecha, incluso la existencia de una sentencia inexistente, todo con la misma confianza con que citaría una sentencia real. Esta no es una «equivocación» sino una propiedad estructural del modelo. Los desarrolladores de IA lo saben. El profesional que usa la IA sin verificación está, en cierto sentido, delegando en un sistema cuya propensión al error es conocida y predecible.
3. El «olvido catastrófico» y la obsolescencia cognitiva
Un modelo entrenado con datos hasta 2024 puede desconocer completamente cambios normativos de 2025. Pero el usuario final no tiene forma de saber cuál es la fecha de corte del modelo sin información expresa. La IA no avisa de su ignorancia; simplemente genera respuestas plausibles sobre temas que desconoce.
4. Los sesgos no transparentes
Un modelo de lenguaje puede haber absorbido sesgos del corpus de entrenamiento que lo hacen sistemáticamente inclinado hacia ciertas interpretaciones jurídicas, sin que estos sesgos sean evidentes ni documentados.
B. La inadecuación de los esquemas tradicionales de responsabilidad
Estas características erosionan el esquema clásico de negligencia. Primer problema: la opacidad epistémica. Bajo el modelo clásico, un abogado es responsable de lo que sabe o debería saber. Pero ¿qué «sabe» un abogado que delega una tarea a un sistema cuyas propiedades desconoce? ¿Cómo puede «controlar» algo cuyas características intrínsecas incluyen la propensión al error invisible?
Segundo problema: la ilusión de competencia. El modelo de lenguaje produce un texto que parece competentemente redactado. Un abogado ordinariamente diligente podría (sin negligencia grave) confundir la apariencia de calidad con la calidad real, especialmente en materias en que no sea experto.
Tercer problema: el desplazamiento de la imputación. Si un abogado pudiera escudarse diciendo «fue culpa del modelo de IA, no mía», la responsabilidad se diluiría. Pero eso entraría en contradicción radical con el principio de responsabilidad personal que sostiene la profesión legal.
III. REINTERPRETACIÓN DOCTRINAL: HACIA UNA «DILIGENCIA VERIFICADORA»
A. El desplazamiento: de la autoría al control post-hoc
La Circular opera una reinterpretación conceptual decisiva. No dice que el uso de IA sea prohibido ni que el abogado deba «autentificar» todo línea por línea (aunque el control debe ser exhaustivo). Lo que hace es redefinir dónde reside la diligencia profesional cuando se utiliza IA.
En el esquema clásico: diligencia = competencia + cuidado en el proceso de decisión.
En el esquema reinterpretado por la Circular: diligencia = supervisión verificadora post-hoc del resultado, sea cual sea su origen.
Esta reinterpretación es radical porque desvincula la diligencia de la «autoría creativa» del acto. Un abogado que redacta un documento desde cero, sin asistencia de IA, es responsable por su contenido como acto de autoría. Un abogado que usa IA sigue siendo responsable, pero el contenido de la responsabilidad cambia: no por ser autor, sino por ser verificador.
B. La "actio libera in causa" como fundamento de la responsabilidad
La Circular articula un fundamento normativo explícito: la doctrina de la actio libera in causa (la acción que es libre en su causa). Esta doctrina, de raigambre penal, establece que la responsabilidad se imputa no al acto negligente final, sino a la decisión libre inicial que lo causó.
En términos de la Circular: (1) decidir usar IA constituye un acto libre, responsable; (2) decidir no verificar el resultado es el acto negligente que fluye de (1); (3) el resultado es un documento defectuoso. La responsabilidad se imputa al momento (1)-(2), no al momento (3). Por eso el fallo técnico del modelo no «exime» —de hecho, evidencia que la supervisión fue insuficiente.
C. La trazabilidad como nuevo deber deontológico implícito
Aunque la Circular lo enuncia como «recomendación», la exigencia de trazabilidad interna del uso de IA es en realidad un deber implícito que emerge del régimen de responsabilidad. ¿Por qué? Porque el abogado debe poder justificar que realizó el control. Si no hay trazabilidad interna, ¿cómo puede demostrar que verificó? La trazabilidad (documentación de cuándo, para qué y cómo se usó la IA) se convierte en el correlato de la responsabilidad: si el control fue realizado, debe ser documentable.
IV. DIMENSIÓN SANCIONADORA: GRADUACIÓN DE LA INFRACCIÓN
A. Por qué es «grave» y no meramente «negligencia ordinaria»
La Circular tipifica la conducta como infracción grave conforme al artículo 125.u) del Estatuto General de la Abogacía Española. Esto requiere justificación dogmática: ¿por qué no es una infracción leve o media? La respuesta está en la especialidad de la conducta: la gravedad no procede del contenido del error (aunque puede ser grave), sino del incumplimiento reflexivo de un deber de supervisión sobre una herramienta de riesgo conocido.
Un abogado que redacta mal por ignorancia comete un error. Un abogado que delega en una IA generativa sin verificar, conociendo los riesgos de la IA, comete una renuncia de deberes profesionales. Eso es cualitativamente peor: no es ignorancia sino abdicación. Esta graduación es conceptualmente coherente con la reinterpretación de la diligencia verificadora. Si la diligencia en la era de la IA consiste en verificación rigurosa, entonces omitir la verificación conociendo su necesidad no es un error procedural sino un incumplimiento radical del deber profesional.
B. Criterios de proporcionalidad y modulación
La Circular establece un sistema de graduación fundado en dos variables: (1) entidad de la negligencia, ¿cuánto de negligente fue el uso de la herramienta?; (2) resultado lesivo, ¿qué daño se produjo? Esta matriz permite modular la sanción incluso por debajo del mínimo de infracciones graves (si la negligencia fue muy leve y el daño mínimo) o elevar a muy grave (si fue grave y el daño fue indefensión del cliente o abandono funcional).
C. Casos límite: entre grave y muy grave
La Circular abre la puerta a tipificación como infracción muy grave en supuestos de «extrema gravedad» donde la conducta sea «especialmente grosera o reiterada» y cause «indefensión o abandono funcional de la defensa». Esto es significativo porque establece un régimen de escalada: la conducta de negligencia verificadora no es un techo fijo, sino un espectro que puede ascender hasta la renuncia funcional. Si un abogado usa IA para redactar toda una defensa sin verificación, con errores que dejan al cliente sin defensa efectiva, eso no es meramente «falta de verificación» sino abandono del deber de defensa. Es un salto cualitativo que justifica sanciones más graves.
V. IMPLICACIONES SISTÉMICAS: DEONTOLOGÍA Y ECOSISTEMA JURÍDICO
A. Tensión entre innovación tecnológica y certeza jurídica
La Circular no prohíbe la IA. Dice explícitamente que es «lícita y admisible». Pero al mismo tiempo impone exigencias de supervisión verificadora que pueden desalentar su uso ligero o experimental. Esta tensión refleja un dilema más profundo: ¿cómo modernizar la profesión legal sin comprometer la confianza que los ciudadanos depositan en ella? La respuesta de la Circular es: mantener la supervisión humana como inamovible, incluso si ello ralentiza la adopción de tecnología. Esto tiene implicaciones económicas (un abogado que usa IA pero debe verificar exhaustivamente no ahorra tanto tiempo como podría esperar) y competitivas (despachos con mejores procesos de verificación tienen ventaja sobre aquellos que confían en la IA sin crítica).
B. Efectos en la confianza en la profesión
Un argumento institucional subyace en la Circular: la confianza en la abogacía depende de que los ciudadanos crean que sus abogados son responsables de lo que hacen. Si la IA se convierte en un comodín para eludir responsabilidad («la máquina cometió el error»), esa confianza se erosiona. La Circular previene esto estableciendo que la tecnología no traslada responsabilidad: la intensifica. El abogado sigue siendo el responsable último; solo que ahora también debe documentar que verificó.
C. Relación con otros deberes (confidencialidad, conflicto de intereses)
La Circular nota explícitamente que hay otras infracciones relacionadas con IA que no trata en profundidad. Esto sugiere que el régimen deontológico de la IA es modular. La Circular 3/2026 aborda verificación y diligencia. Habrá otras que aborden: deber de confidencialidad (¿puedo introducir datos de cliente en una IA en la nube?); deber de independencia (¿qué sesgos incorporados en la IA comprenderían mi independencia?); deber de información al cliente (¿debo revelar que uso IA?). Esta modularidad revela que el Consejo está articulando un marco completo de gobernanza de la IA en la profesión. La Circular 3/2026 es el primer paso.
VI. CONCLUSIÓN: UNA PROFESIÓN BAJO SUPERVISIÓN HUMANA IRRENUNCIABLE
La síntesis doctrinal
La Circular Interpretativa 3/2026 ejecuta una reinterpretación coherente de la responsabilidad deontológica a la luz de la IA generativa. Su tesis central es: la profesión legal no es un espacio de excepción digital. La responsabilidad personal del abogado no se mitiga por el uso de herramientas tecnológicas; se redefine. La IA es una herramienta auxiliar sujeta a supervisión humana verificadora obligatoria. La firma de un documento implica respuesta completa de su contenido, sin que importe quién lo produjo. El control post-hoc no es una opción sino un deber integrado en la misma noción de diligencia profesional.
Esta reinterpretación es conceptualmente rigurosa porque: (1) preserva la responsabilidad personal sin dilución ni traslado; (2) adapta el concepto de diligencia de «competencia creativa» a «supervisión verificadora»; (3) identifica el locus de la responsabilidad en la decisión libre inicial de usar la IA sin supervisión (actio libera in causa); (4) establece un régimen proporcional que gradúa las sanciones según negligencia y daño; (5) abre el camino a futuras precisiones mediante otras circulares que desarrollen confidencialidad, sesgos, y otros deberes.
Implicaciones para la profesión
La Circular impone una exigencia sustancial: intensifica el deber de diligencia en lugar de aligerarlo. Un abogado que no usa IA puede tener un nivel de cuidado tradicional. Un abogado que sí la usa debe añadir una capa completa de verificación crítica, incluyendo contraste con fuentes externas, análisis de coherencia y comprobación jurídica exhaustiva. Ello implica que la IA, en la abogacía española post-Circular, no es un atajo sino un instrumento que requiere supervisión adicional. Para que sea económicamente viable, debe usarse en tareas donde el tiempo ahorrado en generación inicial supere el tiempo requerido para verificación. Típicamente: borradores de escritos, investigación preliminar de jurisprudencia, estructuración de argumentación. Pero no en decisiones estratégicas, recomendaciones finales o documentos de alto riesgo sin verificación exhaustiva.
Cuestiones abiertas para la doctrina futura
La Circular abre interrogantes que requerirán posterior desarrollo: (1) estándares de verificación concretos, ¿qué nivel de verificación es «suficiente»?; (2) variabilidad según especialidad, ¿varía el estándar de diligencia según si el abogado es especialista o generalista?; (3) certificación de herramientas, ¿exigirá el futuro que la IA usada cumpla ciertos estándares de trazabilidad o auditabilidad?; (4) responsabilidad de proveedores, ¿puede un desarrollador de IA ser responsable subsidiario si un abogado usa su herramienta negligentemente?; (5) deber de información al cliente, ¿debe el abogado informar que ha usado IA?
La Circular 3/2026 no responde estas cuestiones. Pero las anticipa: al reinterpretar la diligencia como supervisión verificadora, abre el espacio para que futuras regulaciones especifiquen cómo verificar y qué estándares son exigibles.
Un sistema de responsabilidad robusto
En última instancia, la Circular cumple su función: articular un sistema de responsabilidad que preserve la confianza en la profesión mientras permite la modernización tecnológica. Lo hace sin prohibir, pero tampoco sin ceder. La profesión de la abogacía se redefine bajo un principio fundamental: la máquina aumenta, pero no sustituye; asiste, pero no exime; acelera, pero no alivia de responsabilidad. Eso es, en rigor, lo que la profesión necesitaba: claridad sobre dónde termina la innovación permitida y dónde comienza la renuncia de deberes. La Circular lo establece con precisión. Ahora queda a la jurisprudencia deontológica y disciplinaria consolidar esa línea.
Artículos relacionados
La IA no erosiona el razonamiento legal: evidencia empírica de un ensayo controlado
Estudio con 91 estudiantes de derecho revela que la IA en síntesis mejora 50-70% la productividad sin degradar la comprensión posterior. El riesgo real: la revisión asistida homogeniza expertos. Qué significa para tu práctica.
IA abierta: por qué tu modelo tiene 7 capas cerradas
Cómo la regulación de IA quedó atrapada en un falso binario abierto/cerrado. Análisis del paper 'Untangling AI Openness': 8 componentes, trade-offs irreversibles, y por qué Meta liberó Llama para entrencharse.
El Asalto Federal a los Algoritmos: El Gran Preemption de Trump y el Futuro de la IA en Estados Unidos
Análisis de la Propuesta de Marco Legislativo Nacional de Inteligencia Artificial de 2026: la pugna por la supremacía normativa entre la innovación centralizada y las salvaguardas de los estados.
Neuroderechos en el trabajo: la nueva frontera de la privacidad mental (marzo 2026)
Análisis de la Recomendación de la UNESCO sobre Neurotecnología y su impacto en el Derecho Laboral. El consentimiento, la desconexión neuronal y los límites a la vigilancia cognitiva.