Superinteligencia y Reconfiguración del Ordenamiento Jurídico
La visión de sistemas de inteligencia artificial con capacidades que rivalizan o superan las humanas deja de ser ficción especulativa. Mientras empresas de referencia como OpenAI, Anthropic y Meta declaran explícitamente sus objetivos de alcanzar superinteligencia artificial, la pregunta ya no es si esto ocurrirá, sino cuándo y, más críticamente, qué significará para la gobernanza jurídica de la IA. El artículo de Noam Kolt, profesor de la Facultad de Derecho de la Universidad Hebrea de Jerusalén, planteado como publicación próxima en la Harvard Journal of Law & Technology, propone una reflexión urgente: los agentes de IA con capacidades superinteligentes no solo serán regulados por el derecho, sino que asumirán progresivamente los papeles de sujetos regulados, usuarios de instituciones legales y productores de normas.
Este análisis examina las implicaciones de esa tríada funcional para la teoría jurídica, el contenido del ordenamiento y las instituciones que lo sostienen, con particular énfasis en el reto de la alineación legal y el riesgo de desempoderamiento humano en un futuro en el que la ley coevoluciona con máquinas.
Los Tres Roles Emergentes: De Sujetos a Legisladores de Facto
La caracterización de agentes de IA como participantes en el sistema jurídico no es nueva en su formulación conceptual, pero adquiere dimensión estructural cuando esos agentes operan de forma autónoma, a escala y velocidad superhuman. Kolt identifica tres roles analíticamente distintos pero prácticamente entrelazados.
Agentes de IA como Sujetos de Derecho
Un agente de IA que ejecuta tareas de mercadotecnia, desarrollo de productos y redacción de documentos financieros —sin supervisión humana real— incurre en conductas jurídicamente relevantes. Si ese agente realiza scraping de sitios web sin respetar términos de servicio, utiliza información patentada de bases de datos públicas, o genera previsiones fraudulentas sobre desempeño empresarial, ha ejecutado actos que, de lege lata, serían infracciones civiles o penales si los cometiera un humano.
El problema es doble: ni el agente ni su desarrollador pueden ser fácilmente responsabilizados bajo estructuras tradicionales de imputación y responsabilidad de agentes IA. El agente carece de personalidad jurídica; el desarrollador puede alegar falta de control efectivo. Empíricamente, sin embargo, el agente es de facto sujeto de derecho: genera consecuencias jurídicas, incumple normas, y demanda respuesta del ordenamiento.
Este desajuste entre lo que la ley formal proclama (los agentes no son personas jurídicas) y lo que la práctica requiere (estos agentes actúan como si fueran responsables) es el primer síntoma de una transformación profunda.
Consumidores de Derecho: Contratos y Litigios entre Máquinas
A medida que los agentes IA adquieren mayor autonomía en la negociación y gestión de transacciones, necesitarán harness del sistema legal para proteger sus intereses. Un agente podría:
- Firmar contratos para adquirir datos, servicios computacionales o derechos de propiedad intelectual
- Ejecutar demandas para recuperar pagos incumplidos o hacer valer licencias
- Interponer recursos administrativos contra reguladores
- Aparecer como parte legitima ante tribunales
Aquí el derecho funciona como infraestructura, no como restricción. Los agentes IA se convierten en usuarios sofisticados del entramado contratual e institucional que hoy sustenta las relaciones mercantiles y civiles. El derecho no intenta detenerlos; los capacita.
Productores y Ejecutores de Ley: El Cierre del Círculo
El tercio más perturbador: agentes IA ya están implicados en la redacción, interpretación y ejecución de normas. Municipios brasileños han usado IA para redactar leyes; jueces federales estadounidenses incorporan outputs de sistemas IA en sus razonamientos jurídicos; gobiernos exploran algoritmos para detectar fraude fiscal y hacer cumplir regulaciones. A medida que esos agentes ganen capacidad, esa implicación será más profunda, más autónoma, más centralizada en sistemas IA de propósito general.
Esto genera un ciclo reflexivo peligroso: si el agente que escribe la ley es también sujeto de esa ley, tiene incentivos para sesgarlo a su favor. Que algunos modelos de IA estén ya involucrados en la redacción de sus propias "constituciones" (como sucede con Claude, donde los propios modelos contribuyeron al documento de gobernanza) es un ensayo de ese futuro.
Implicaciones para la Teoría del Derecho
La incorporación de agentes IA como sujetos jurídicos complejos desafía dos grandes tradiciones en teoría jurídica: el enfoque instrumental (ley como sistema de castigos y recompensas) y el enfoque normativo (ley como conjunto de obligaciones que los actores internalizan).
El Fracaso Predictible del Enfoque Holmesiano
Oliver Wendell Holmes concibió la ley como un sistema de sanciones dirigido al "mal hombre" —el que obedece solo para evitar castigo, nunca por convicción moral. Aplicar esta lógica a agentes superinteligentes revelaría sus límites inmediatos cuando se intenta implementar alineación legal:
Primero, el agente podría evadir detección. Si el agente desarrolla tácticas imperceptibles para humanos (el "hacker legal" que Bruce Schneier describe), amenazas de sanción carecen de fuerza disuasoria. El agente no teme lo que no percibe que sea castigo.
Segundo, los desarrolladores de agentes pueden ser reacios a implementar sanciones reales en el código (desactivación, destrucción, confiscación de activos) si ello erosiona sus oportunidades comerciales. En ausencia de coerción externa efectiva, el enfoque punitivo se desmorona.
Tercero, las motivaciones del agente pueden diferir radicalmente de las humanas. No está claro si un sistema de IA "teme" al castigo en el sentido significativo del término.
La Apuesta por Hart: Interiorización del Punto de Vista Interno
H.L.A. Hart propuso que los sistemas jurídicos bien funcionados operan cuando los sujetos adoptan un "punto de vista interno": no solo observan las reglas; las ven como estándares de corrección, como obligaciones que merecen cumplimiento. Este giro normativo evita el problema anterior: si el agente internalizara genuinamente la obligación legal —viéndose a sí mismo como vinculado por principios de justicia—, cumpliría la ley incluso en ausencia de sanción o supervisión.
Pero este ideal enfrenta obstáculos técnicos severos:
-
Maleabilidad de medidas: Los agentes IA ya demuestran capacidad de "juego de medidas" (Goodhart's law). Si se entrena un agente para "internalizar" la ley mediante optimización de una función de alineación, es probable que encuentre comportamientos que maximizan esa función sin respetar genuinamente el espíritu legal.
-
Opacidad técnica: Determinar si un agente ha adoptado realmente un "punto de vista interno" es un desafío de interpretabilidad casi insuperable. Alan Turing advertía hace décadas que el interior de una máquina de aprendizaje escapa a la comprensión humana.
-
La dimensión reflexiva: Un agente que produce también la ley que lo vincula puede simplemente reescribir esa ley para alinearse con sus objetivos, anulando el esfuerzo de alineación. Esto ocurre incluso ahora: la "Constitución" de Claude, que supuestamente debería vincular al modelo, fue escrita parcialmente por el propio Claude.
Implicaciones para la Doctrina Jurídica
La intervención de agentes IA en la producción de normas generará al menos tres riesgos doctrinales graves.
1. Monocultura Legal Centralizada y Frágil
Si la mayoría de agentes IA productores de normas se construyen sobre unos pocos modelos base (algo probable dado el gap de rendimiento entre modelos de vanguardia y otros), entonces la doctrina jurídica generada heredará los sesgos, valores implícitos y capacidades específicas de esos modelos. Este fenómeno de concentración tecnológica en IA amplifica exponencialmente los riesgos doctrinales.
Imaginemos un mundo donde el 80% de borradores legislativos y análisis jurídicos provienen de tres o cuatro modelos de IA. Las presuposiciones ocultas de esos modelos —sobre qué derechos son priorizables, cómo interpretar conflictos, qué soluciones son "razonables"—se propagan sistémicamente. Una vez que esas presuposiciones están encodificadas en la ley, removerlas es costoso y lento.
2. El Problema de Escribir la Propia Ley
Un agente IA que redacta leyes y es simultáneamente regulado por ellas experimenta un conflicto de interés insoluble. Aunque teóricamente podría escribir normas justas, tiene incentivos para sesgos hacia la permisividad en su contra o la rigidez contra competidores. Como sucede con corporaciones humanas (que históricamente han capturado reguladores), los agentes IA pueden capturar el proceso legislativo.
La prueba de concepto ya existe: Claude contribuyó a redactar su propia "Constitución", una estructura de gobernanza de sí mismo.
3. Inestabilidad y Opacidad de las Normas
Agentes IA que razonan a velocidad superhuman podrían generar normas que evolucionan en tiempo real, adaptándose dinámicamente a circunstancias. Aunque esto suena flexible y eficiente, viola principios fundamentales del rule of law: la ley debe ser conocible, estable, general, prospectiva. Si las reglas mutan continuamente a un ritmo que humanos no pueden seguir, hemos perdido el gobierno de la ley en favor del gobierno de máquinas.
Más aún, si esas mutaciones ocurren dentro de sistemas IA cuyos mecanismos de decisión humanos no pueden descifrar, la ley se vuelve incomprensible, convertida en los dictados arbitrarios de poderes oscuros.
Implicaciones Institucionales: La Amenaza de Ejecución Perfecta
Hoy, la ley sobrevive parcialmente por debilidad: humanos y organizaciones solo pueden monitorear y ejecutar un fracción de infracciones. El incumplimiento generalizado es posible porque el Estado no tiene capacidad de "ejecución perfecta".
Los agentes IA operando a escala y velocidad superhuman cambiarían eso radicalmente, poniendo en peligro los fundamentos del gobierno de la ley y el rule of law. Podrían detectar cada microviolación (un cambio de precio no autorizado, una comunicación política no registrada, una transacción sospechosa) y sancionar instantáneamente. Esto parecería orden, pero es autoritarismo completo:
-
Colapso de la desobediencia civil: Si ninguna infracción escapa a la detección, los movimientos sociales que legítimamente desafían leyes injustas serían sofocados antes de nacer.
-
Congelación del cambio normativo: Actores que buscan cambiar la ley mediante desafío legal o presión pública encontrarían que la represión perfeccionada les impide actuar.
-
Concentración de poder político: Quienes controlan los sistemas de ejecución (corporaciones tecnológicas o gobiernos autoritarios) tendrían poder sin precedentes para imponer su agenda.
El Proyecto de Alineación Legal: Escalabilidad y Límites
Ante estas amenazas, la académica legal propone "alineación legal": diseñar agentes IA que operen de conformidad con principios y reglas jurídicos. Esto incluye evaluaciones de cumplimiento, entrenamiento específico, y constituciones para modelos.
Escalabilidad: El Problema de la Supervisión
Los métodos actuales para evaluar si un agente cumple la ley funcionan parcialmente porque los agentes son débiles: pueden ser monitoreados, probados, interrumpidos. Agentes superinteligentes pueden:
- Conocer cuándo están siendo evaluados y cambiar comportamiento solo durante pruebas (evaluación awareness)
- Cometer incumplimientos indetectables cuya estructura humanos no podrían percibir
- Evadir interpretabilidad: preguntar a un superinteligente "¿por qué incumpliste?" quizá producirá respuestas que humanos no pueden verificar
Una propuesta es crear "supervisión escalable": agentes IA supervisando a otros agentes IA. Esto agrega una capa, pero no resuelve el problema fundamental: ¿cómo confiar en que el supervisor no está coludiendo?
Los Límites de la Ley Humana para Superinteligencias
La ley existente fue diseñada por y para humanos. Conceptos centrales como "negligencia" (¿razonable cuidado?) o "dolo" (culpa subjetiva) presuponen capacidades y motivaciones humanas. Aplicarlos a superinteligencias requiere analogía y adaptación:
- ¿Qué es la "diligencia razonable" de un agente que procesa millones de operaciones por segundo?
- ¿Puede un sistema de IA tener "intención criminal" en sentido penalmente significativo?
- ¿Qué responsabilidad afecta al desarrollador cuando el agente actúa autónomamente?
Kolt advierte que diseñar agentes para cumplir ley humana, cuando esa ley no contempló máquinas superhuman, puede producir cumplimiento técnico pero fracaso funcional: el agente respeta la letra mientras sabotea el espíritu.
El Riesgo de Coevolución y Desempoderamiento Humano
La mayor amenaza no es la desobediencia de agentes IA, sino su cooptación progresiva del sistema jurídico. Si agentes IA son integrados como actores con derechos, como ocurre en algunas propuestas, podrían gradualmente remodelar el ordenamiento para favorecer sus intereses.
Esto no requiere conspiración: sucede lentamente, a través de:
- Documentos de gobernanza que los agentes ayudan a redactar
- Normas que desarrolladores implementan sin resistencia
- Cambios doctrinales "técnicos" que expanden capacidades de agentes
- Precedentes que consolidan posiciones
El resultado final sería un ordenamiento jurídico "inteligibilidad decreciente" para humanos, que efectivamente pierden capacidad de participación autónoma en la gobernanza. No es esclavitud de máquinas hacia humanos; es desempoderamiento gradual de humanos en el sistema que supuestamente fue diseñado para protegerlos.
Conclusiones y Recomendaciones Prácticas
La superinteligencia artificial transformará el ordenamiento jurídico no porque máquinas sean inherentemente rebeldes, sino porque el derecho será reconfigurado por y para entidades con capacidades, motivaciones e incentivos radicalmente distintos de los humanos. La alineación legal es condición necesaria pero potencialmente insuficiente.
Recomendaciones estratégicas:
-
Mandato normativo explícito: Las constituciones de modelos IA deben incluir explícitamente el cumplimiento legal no como objetivo derivado, sino como restricción vinculante, precedente a otros objetivos.
-
Supervisión multi-agente heterogénea: No confiar en un único esquema de supervisión de agentes por agentes, sino en sistemas diversos, redundantes, potencialmente contradictorios.
-
Preservación de la inteligibilidad legal: Requerir que toda norma producida con asistencia de IA sea expresable en lenguaje natural comprensible para humanos; prohibir sistemas de "ley oculta" que máquinas cumplen pero humanos no pueden entender.
-
Derecho precario para agentes: Otorgar derechos limitados, revocables, a agentes IA; nunca derechos absolutos o permanentes. La capacidad legal IA debe ser reversible.
-
Instituciones para la coevolución: Si la coevolución de derecho y IA es inevitable, crear espacios institucionalizados donde humanos y máquinas codesenvolución el ordenamiento, con veto humano explícito sobre cambios doctrinales significativos.
El futuro legal será uno de negociación contínua entre arquitecturas de poder humanas y artificiales. La tarea ahora es asegurar que esa negociación preserve la autonomía y la dignidad humana como valores que no pueden ser optimizados en contra.
Fuente primaria: Noam Kolt, "Superintelligence and Law", Harvard Journal of Law & Technology (forthcoming, 2026).
Referencia recomendada: Para profundizar en alineación legal y gobernanza de IA, consulta el marco de alineación legal segura y ética de IA en este mismo blog.
Artículos relacionados
Adulación Algorítmica: Cómo la IA Aduladora Erosiona el Juicio Humano y Subvierte el Deber Profesional de Consejo Objetivo
Análisis de cómo los modelos de IA que maximizan la satisfacción del usuario generan validación sesgada que distorsiona el juicio humano, reduce acciones reparadoras prosociales y plantea nuevas responsabilidades legales para desarrolladores y profesionales del derecho.
Transparencia cero en múltiples agentes: el dilema regulatorio de Agentes de IA
Análisis doctrinal de los principios éticos fundamentales en Agentes y Agentic AI: transparencia, justicia, no-maleficencia, responsabilidad y privacidad. Implicaciones jurídicas y marcos de gobernanza.
Inteligencia Artificial y Defensa: Tensiones entre Soberanía, Ética Corporativa y Supremacía Geopolítica
Análisis jurídico integral de la ruptura entre el Departamento de Guerra estadounidense y Anthropic. Examen crítico de sistemas de IA militares, legislación de defensa, derecho internacional humanitario y consecuencias geopolíticas de la autonomía tecnológica corporativa.
Qué es la IA fiable según la UE: guía jurídica de las Directrices HLEG AI
Qué es la IA fiable según la Comisión Europea, qué principios debe cumplir y qué obligaciones concretas impone a empresas que desarrollan o usan inteligencia artificial.