Recursos · Diccionario Jurídico

Glosario de IA Legal

Definiciones técnicas y jurídicas para comprender el marco regulatorio y doctrinal de la inteligencia artificial en Europa.

GLOSARIO DE TÉRMINOS IA SECTOR LEGAL - Derecho Artificial

GLOSARIO DE TÉRMINOS IA SECTOR LEGAL

Enfoque UE – España | Actualizado: febrero 2026

Autor: Ricardo Scarpa | Derecho Artificial

Balanza con cerebro humano y cerebro artificial

Índice alfabético:
A | B | C | D | E | F | G | H | I | L | M | O | P | R | S | T | V | X

A

Acta de Inteligencia Artificial (AI Act)
Reglamento (UE) 2024/1689 que establece el primer marco jurídico integral para la IA en la Unión Europea. Clasifica los sistemas según niveles de riesgo (inaceptable, alto, limitado, mínimo), prohíbe prácticas inaceptables e impone obligaciones de transparencia, supervisión y evaluación de conformidad. Es el eje normativo central del Derecho europeo de la IA.
Referencia oficial: Reglamento (UE) 2024/1689
Notas prácticas 2026: Prohibiciones vigentes desde 02.02.2025; obligaciones para modelos de propósito general desde 02.08.2025; obligaciones principales para sistemas de alto riesgo desde 02.08.2026.
Acto administrativo automatizado / Actuación administrativa automatizada
Decisión dictada por una Administración Pública mediante sistema automatizado sin intervención humana directa en cada caso concreto.
En España: Regulado explícitamente en el art. 41 de la Ley 40/2015. Requiere identificación del órgano responsable, determinación del sistema y garantías de control humano y revisión.
Punto crítico: Compatibilidad con el derecho a la tutela judicial efectiva (art. 24 CE).
Referencia oficial: Ley 40/2015, art. 41.
Algoritmo
Conjunto de instrucciones lógicas o matemáticas para procesar datos y producir resultados. En el ámbito jurídico, relevante como fuente de decisiones con efectos legales, especialmente cuando es opaco o automatizado.
Algoritmo decisorio público
Algoritmo utilizado por la Administración para adoptar decisiones con efectos sobre la ciudadanía. Existe debate doctrinal sobre si debe considerarse acto técnico o "norma encubierta" sujeta a publicidad normativa y control jurisdiccional pleno.
Auditoría algorítmica
Procedimiento técnico-jurídico para evaluar el funcionamiento, sesgos, riesgos y cumplimiento de un sistema de IA. Exigida para sistemas de alto riesgo por el AI Act. En España, vinculada al buen gobierno, control interno y responsabilidad patrimonial.
Referencia oficial: Reglamento (UE) 2024/1689, arts. 19 y ss.
Automatización de decisiones
Proceso donde una decisión se adopta sin intervención humana significativa. Vinculada al art. 22 del RGPD y a los principios de supervisión humana del AI Act.
Referencia oficial: RGPD, art. 22; Reglamento (UE) 2024/1689, art. 14.
AESIA (Agencia Española de Supervisión de la Inteligencia Artificial)
Organismo público español encargado de supervisar el desarrollo y uso de la IA, garantizar su aplicación ética, segura e inclusiva, y coordinar la aplicación del AI Act en España. Sede en A Coruña; funciones incluyen supervisión normativa, atención a la sociedad, formación y colaboración institucional.
Referencia oficial: Sitio oficial AESIA; Reglamento (UE) 2024/1689, art. 70.
Notas 2026: Plena operativa con guías publicadas y liderazgo en entornos sandbox.

B

Bias (sesgo algorítmico)
Desviación sistemática en los resultados de la IA que genera efectos discriminatorios. Se conecta directamente con el derecho antidiscriminatorio, la igualdad ante la ley (art. 14 CE) y la protección de derechos fundamentales (art. 21 Carta de Derechos Fundamentales UE).
Referencia oficial: Reglamento (UE) 2024/1689, art. 10; RGPD, art. 5.
Buen gobierno algorítmico
Aplicación de los principios de legalidad, eficacia, transparencia y objetividad al uso de IA por poderes públicos. Tiene su base constitucional en el art. 103 CE (objetividad y sometimiento pleno a la ley).

C

Carta de Derechos Digitales (España)
Documento de 2021 que reconoce derechos en el entorno digital. Aunque no tiene rango de ley, posee valor interpretativo e influye en políticas públicas. Incluye el derecho a la transparencia algorítmica y a no ser objeto de decisiones exclusivamente automatizadas sin garantías.
Referencia oficial: Texto oficial.
Carga de la prueba algorítmica
Problema procesal sobre quién debe probar el funcionamiento del sistema o la ausencia de sesgos, fundamental en litigios por discriminación.
Constitucionalismo digital
Corriente doctrinal que defiende la reinterpretación de principios clásicos (dignidad, separación de poderes) para gobernar tecnologías como la IA. Considera la IA como un problema constitucional y no meramente regulatorio.
Control jurisdiccional de la IA
Capacidad de los tribunales (civil, social o contencioso-administrativo) para revisar decisiones basadas en IA. Se enfrenta a la dificultad de la opacidad técnica y la asimetría informativa.
Cumplimiento normativo (compliance algorítmico)
Mecanismos técnicos y organizativos para asegurar que la IA cumple con el AI Act, RGPD y la Carta de Derechos Fundamentales de la UE. Incluye auditorías y evaluación de riesgos.

D

Datos de entrenamiento
Conjunto de datos usados para entrenar modelos de IA. Son críticos jurídicamente por la protección de datos personales, la propiedad intelectual y los sesgos estructurales que puedan contener.
Debido proceso algorítmico
Extensión de las garantías procedimentales a las decisiones automatizadas, incluyendo el derecho a la explicación, impugnación y garantías frente a sistemas opacos.
Derecho a la explicación
Derecho del afectado a recibir información significativa sobre la lógica, significado y consecuencias de un sistema automatizado.
Fuentes: RGPD, art. 22. En España vinculado a los arts. 24 CE (tutela efectiva) y 105 CE (acceso a archivos).
Discrecionalidad técnica algorítmica
Uso de IA para apoyar decisiones discrecionales administrativas, planteando si reduce la motivación exigible o sustituye la voluntad humana.

E

Evaluación de impacto algorítmico / en derechos fundamentales (FRIA)
Análisis previo para identificar efectos sobre derechos fundamentales en sistemas de alto riesgo. Tipos: DPIA (datos personales) y FRIA (derechos fundamentales). En España asociada al principio de precaución.
Referencia: Reglamento (UE) 2024/1689, Capítulo III (sistemas de alto riesgo).
Explicabilidad / Explainability
Capacidad de un sistema para ofrecer una explicación comprensible, relacionada con la transparencia y legitimidad.
Explicabilidad jurídica
Capacidad de ofrecer una explicación que permita impugnar, defender y controlar judicialmente una decisión, más allá de la explicación técnica del ingeniero.

F

Fairness (equidad algorítmica)
Principio que exige que la IA trate a las personas de forma justa y no discriminatoria. Se basa en la Carta de Derechos Fundamentales de la UE (art. 21) y el art. 14 CE.
Referencia oficial: Carta de Derechos Fundamentales de la UE, art. 21; Reglamento (UE) 2024/1689, art. 10.
Fallo algorítmico
Resultado ilícito o incorrecto de la IA que genera responsabilidad civil objetiva o responsabilidad patrimonial de la Administración (art. 106.2 CE).

G

Gobernanza de la IA
Normas, instituciones (autoridades de supervisión) y soft law que regulan el ciclo de vida de la IA.
Gobernanza multinivel de la IA
Coordinación entre la UE, Estados miembros y autoridades locales para aplicar regulaciones como el AI Act. Crea la AI Office para este fin.
Referencia oficial: Reglamento (UE) 2024/1689, art. 64 (AI Office).

H

High-Risk AI System (Sistema de IA de alto riesgo)
Sistemas que afectan ámbitos como justicia, empleo, educación o seguridad y están sujetos a obligaciones reforzadas (evaluación de conformidad, registro, etc.).
Referencia oficial: Reglamento (UE) 2024/1689, Anexo III.
Human-in-the-loop / Supervisión humana
Capacidad real de control y corrección de un sistema por parte de un humano, no una intervención meramente simbólica.
Referencia oficial: Reglamento (UE) 2024/1689, art. 14.

I

IA confiable (Trustworthy AI)
Concepto de la UE que exige una IA legal, ética y robusta. Se fundamenta en el respeto a los derechos fundamentales y la seguridad.
Referencia oficial: Reglamento (UE) 2024/1689, art. 1.
IA generativa
Sistemas que producen contenidos (texto, imágenes, etc.), planteando retos en propiedad intelectual, responsabilidad y desinformación.
IA en la Administración Pública
Uso de IA para gestión, ayudas e inspección; el límite es que no puede sustituir la responsabilidad del órgano administrativo.
Impacto en derechos fundamentales
Afectación de la IA a la igualdad, intimidad, protección de datos y tutela judicial efectiva.

L

Legal Tech
Aplicación de tecnología al Derecho (análisis de jurisprudencia, redacción automática, etc.). No toda Legal Tech es IA de alto riesgo.
Legalidad algorítmica
Principio de que ninguna decisión automatizada puede carecer de base legal y garantías procesales.
Referencia: Constitución Española, arts. 9.3, 14 y 24.
Legitimidad democrática de la IA
Necesidad de control parlamentario y transparencia en el uso público de la IA.

M

Modelo de lenguaje (LLM)
Sistemas entrenados con grandes volúmenes de datos que presentan riesgos de "alucinaciones" y falta de trazabilidad.
Motivación del acto algorítmico
Obligación de justificar decisiones apoyadas en IA según la Ley 39/2015.
Referencia oficial: Ley 39/2015.

O

Opacidad algorítmica / estructural
Dificultad para comprender cómo la IA llega a un resultado ("caja negra"), lo que afecta la transparencia, la prueba y el control judicial.

P

Prácticas prohibidas
Prácticas de IA de riesgo inaceptable vedadas por incompatibles con valores UE (ej. social scoring, manipulación subliminal). Vigentes desde 02.02.2025.
Referencia oficial: Reglamento (UE) 2024/1689, art. 5.
Principio de proporcionalidad
Exige que el uso de IA sea necesario y equilibrado respecto a los fines perseguidos.
Principio de precaución tecnológica
Aplicación de la precaución ante riesgos inciertos en IA predictiva o policial.
Proveedor vs Deployer / Usuario
Proveedor: desarrolla y pone en mercado el sistema. Deployer/Usuario: lo utiliza bajo su responsabilidad. Obligaciones diferenciadas.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3.
Sandbox regulatorio
Entorno controlado para probar IA innovadora con exenciones temporales y supervisión. En España impulsado por AESIA.
Referencia oficial: Reglamento (UE) 2024/1689, art. 57.
Sistema de IA
Sistema basado en máquina que opera con autonomía, genera outputs (predicciones, recomendaciones, decisiones) y puede adaptarse tras despliegue.
Referencia oficial: Reglamento (UE) 2024/1689, art. 3(1).

R

Reserva de humanidad
Doctrina que establece que decisiones sensibles (sanciones, justicia penal) deben ser tomadas exclusivamente por personas. Vinculada al RGPD y al AI Act.
Responsabilidad algorítmica
Debate sobre quién responde por los daños causados por la IA (modelos objetivos o compartidos).
Responsabilidad patrimonial por IA
Régimen de responsabilidad objetiva de la Administración por daños causados por sistemas automatizados (art. 106.2 CE).

S

Soberanía digital
Capacidad del Estado y la UE para controlar tecnologías críticas y desarrollar IA pública internamente.
Soft law
Instrumentos no vinculantes (códigos de conducta, guías) esenciales en la gobernanza de la IA.

T

Transparencia algorítmica
Obligación de informar sobre el uso y finalidad de la IA para permitir el control y la rendición de cuentas.
Tutela judicial efectiva frente a la IA
Derecho (art. 24 CE) a que un juez pueda revisar y anular una decisión automatizada ilegal con las mismas garantías que una decisión humana.

V

Valores de la Unión Europea
Marco axiológico (art. 2 TUE) que guía la regulación: dignidad, libertad, democracia e igualdad.
Vigilancia algorítmica
Uso de IA para monitorizar o predecir comportamientos, siendo un ámbito de alto riesgo para los derechos fundamentales.

X

XAI (Explainable Artificial Intelligence)
Campo técnico orientado a desarrollar sistemas explicables para cumplir con obligaciones legales de transparencia y control.