Entradas

Ilustración de un despacho jurídico con libros de Derecho, mazo judicial y una tablet mostrando la propuesta COM(2025) 836 del Digital Omnibus on AI, simbolizando la reforma del Reglamento de Inteligencia Artificial en la Unión Europea.

Apuntes de emergencia sobre el Digital Omnibus on AI

I. Introducción

Imaginen construir un puente mientras se cruza el río. Esa imagen, tan gráfica como incómoda, describe con precisión la situación en la que se encontraba la política europea de inteligencia artificial a finales de 2025. Es exactamente lo que la Comisión Europea propuso el 19 de noviembre de ese año con el llamado Digital Omnibus sobre inteligencia artificial: revisar parcialmente un marco regulatorio ambicioso cuando aún no había terminado de desplegarse. Apenas quince meses después de la entrada en vigor del Reglamento de Inteligencia Artificial, y justo cuando las primeras obligaciones comenzaban a perfilarse en el horizonte operativo de las empresas, Bruselas reconocía algo que pocas instituciones admiten con semejante franqueza: el calendario original corría el riesgo real de convertirse en una trampa para la innovación europea.

Este reconocimiento no es menor. Supone aceptar que una regulación concebida para proteger derechos fundamentales, seguridad y confianza pública podía, en determinadas condiciones, producir efectos contrarios a sus propios fines. El problema no residía en la ambición del Reglamento ni en su arquitectura conceptual basada en el riesgo, sino en la tensión entre ese diseño normativo y la capacidad real de cumplimiento de los operadores económicos llamados a aplicarlo.

La propuesta legislativa —identificada técnicamente como COM(2025) 836 final— no surge de la improvisación ni de un giro político repentino. Es el resultado de una constatación empírica incómoda, acumulada durante meses de diálogo con el mercado. Las empresas estaban bloqueadas. No por falta de voluntad de cumplimiento ni por resistencia ideológica a la regulación, sino porque se les exigía demostrar conformidad con normas técnicas que aún no existían o no estaban plenamente definidas. Es como si un profesor exigiera un examen perfecto sin haber entregado el temario completo, ni aclarado los criterios de evaluación. Ante ese escenario, la Comisión, en un ejercicio de pragmatismo poco habitual en la burocracia comunitaria, optó por corregir el rumbo antes de que el daño económico, tecnológico y reputacional resultara irreversible.

Este trabajo pretende desentrañar esa propuesta con una mirada crítica pero constructiva. No se trata de celebrarla acríticamente ni de condenarla por principio, sino de comprender qué problemas reales detectaron los técnicos de Bruselas, cómo pretenden resolverlos desde el punto de vista jurídico e institucional y qué consecuencias prácticas tendrá todo ello para quienes desarrollan o despliegan sistemas de inteligencia artificial en Europa en los próximos años.

II. El diagnóstico desde dentro: cuando la regulación amenaza con ahogar lo que pretende proteger

Para comprender el alcance de la propuesta resulta imprescindible entender el diagnóstico que la precede. Durante meses, en foros sectoriales, grupos de expertos y consultas públicas celebradas entre abril y octubre de 2025, los operadores económicos lanzaron señales de alarma cada vez más consistentes que la Comisión terminó por escuchar. No se trataba de quejas genéricas contra la regulación, sino de advertencias muy concretas sobre disfunciones operativas: ausencia de normas armonizadas, retrasos en la designación de organismos de evaluación de la conformidad, falta de orientaciones prácticas claras y divergencias interpretativas incipientes entre Estados miembros.

En conjunto, estos factores estaban transformando el Reglamento de Inteligencia Artificial en un lastre competitivo, especialmente para empresas innovadoras de tamaño pequeño y medio. Pensemos en una startup de treinta empleados que ha desarrollado un sistema destinado a optimizar diagnósticos médicos mediante aprendizaje automático. Dispone de la tecnología, del talento humano y de un mercado potencial claro. Sin embargo, se enfrenta a preguntas fundamentales sin respuesta: qué documentación técnica debe preparar, qué organismo evaluará su conformidad, bajo qué estándar y, quizá lo más decisivo, si su sistema será finalmente considerado de alto riesgo.

Ante tal nivel de incertidumbre regulatoria, los inversores —de manera perfectamente racional— se retraen. El capital riesgo busca previsibilidad jurídica, no entornos normativos en construcción permanente. El proyecto se congela, se retrasa o se traslada. Europa pierde así oportunidades concretas de innovación, empleo cualificado y liderazgo tecnológico, mientras otras jurisdicciones con marcos más ágiles avanzan sin esperar.

Este escenario no era anecdótico. Se reproducía por cientos en todo el continente. La Comisión lo ha descrito sin ambages como la existencia de “retrasos significativos” que incrementaban injustificadamente los costes de cumplimiento. Pero tras esa formulación institucional se esconde algo más profundo: la comprensión progresiva de que regular tecnologías emergentes exige equilibrar ambición protectora y viabilidad operativa. No basta con diseñar un marco normativo conceptualmente impecable si luego resulta impracticable en la realidad cotidiana de las empresas que deben aplicarlo.

La inteligencia artificial añade, además, una dificultad estructural frente a otras tecnologías reguladas en el pasado: su vertiginosa velocidad de evolución. Mientras que el Reglamento General de Protección de Datos o la Directiva de Servicios de Medios Audiovisuales permitían un ajuste progresivo, los sistemas basados en aprendizaje automático evolucionan semana a semana, tanto en capacidades como en riesgos. El Digital Omnibus aspira, precisamente, a introducir la agilidad mínima necesaria para que el marco regulatorio no quede obsoleto antes incluso de desplegarse plenamente.

III. La filosofía del ajuste: cirugía regulatoria sin anestesia general

Lo más llamativo del enfoque adoptado por la Comisión es su prudencia metodológica deliberada. No estamos ante una desregulación encubierta ni ante una cesión a presiones corporativas. Tampoco ante un cuestionamiento de los objetivos fundamentales del Reglamento. Se trata, más bien, de hacer viable lo ya regulado, ajustando calendarios, procedimientos y cargas administrativas sin alterar en lo más mínimo los fines esenciales de protección de derechos fundamentales, salud pública y seguridad.

Aquí se percibe claramente una lección aprendida, no sin costes, de experiencias regulatorias anteriores. Basta recordar mayo de 2018, cuando el Reglamento General de Protección de Datos entró en vigor y miles de empresas europeas se vieron desbordadas intentando implementar simultáneamente registros de actividades, análisis de riesgos, evaluaciones de impacto, políticas internas y designaciones de delegados, todo ello sin suficientes profesionales cualificados ni criterios interpretativos consolidados. El resultado fue un cumplimiento formal apresurado, costoso y, en muchos casos, poco eficaz.

Esta vez, la Comisión parece haber decidido anticiparse. El momento elegido resulta particularmente acertado. Reformar demasiado pronto habría proyectado una imagen de improvisación legislativa y debilidad normativa. Hacerlo demasiado tarde habría permitido la acumulación de costes empresariales innecesarios y la deslocalización silenciosa de proyectos estratégicos hacia jurisdicciones más permisivas. Noviembre de 2025 representa ese punto de equilibrio: lo suficientemente temprano para prevenir daños estructurales, y lo bastante tardío para apoyarse en datos empíricos derivados de las primeras experiencias de aplicación.

La distinción entre rigor sustantivo y rigidez procedimental contraproducente resulta aquí crucial. No asistimos a una claudicación regulatoria, sino a un ejercicio de racionalización consciente que reconoce que determinados elementos del diseño original podían generar efectos perversos no deseados: desincentivar la innovación europea, favorecer indirectamente a operadores de terceros países y levantar barreras de entrada desproporcionadas para pequeñas y medianas empresas innovadoras.

Ilustración de un despacho jurídico con libros de Derecho, mazo judicial y una tablet mostrando la propuesta COM(2025) 836 del Digital Omnibus on AI, simbolizando la reforma del Reglamento de Inteligencia Artificial en la Unión Europea.

IV. Las cinco medidas que cambian el juego

La propuesta introduce modificaciones de calado que merecen un análisis detallado por su impacto directo en la planificación del cumplimiento normativo de miles de empresas europeas.

En primer lugar —y quizá la medida técnicamente más relevante— se vincula explícitamente el calendario de aplicación de los requisitos para sistemas de alto riesgo a la disponibilidad efectiva de normas armonizadas. Ya no será, en todo caso, el 2 de agosto de 2026, sino el momento en que existan presunciones de conformidad formalmente publicadas en el Diario Oficial. Esta solución, ya ensayada con éxito en el Reglamento de Maquinaria, introduce una racionalidad elemental: no tiene sentido exigir el cumplimiento de requisitos técnicos detallados cuando no existen aún las especificaciones que permiten acreditarlo de manera objetiva.

Esta modificación transforma de forma profunda la planificación empresarial. Los proveedores podrán ajustar sus inversiones en procedimientos de conformidad a la publicación real de las normas, en lugar de trabajar anticipadamente con criterios provisionales que luego podrían resultar incorrectos o incompletos. Se reduce así el riesgo de invertir recursos en compliance que posteriormente deba rehacerse, con el consiguiente ahorro económico y organizativo.

En segundo lugar, la extensión del régimen simplificado a las denominadas small mid-caps —empresas de hasta 250 trabajadores y 50 millones de euros de facturación o 43 millones de balance— reconoce una realidad económica largamente ignorada. Muchas scale-ups tecnológicas europeas superan con rapidez los umbrales tradicionales de pequeñas y medianas empresas, pero siguen careciendo de la estructura organizativa y los recursos internos de compliance propios de las grandes multinacionales. Exigirles el mismo nivel de formalización documental que a corporaciones de decenas de miles de empleados resulta, en la práctica, desproporcionado y disuasorio.

Naturalmente, la fijación de umbrales numéricos genera situaciones frontera inevitables. Una empresa con 260 trabajadores quedará ligeramente fuera; otra que alcance los 52 millones de euros superará el límite. Sin embargo, resulta preferible una cierta arbitrariedad cuantitativa clara a un régimen único e inflexible aplicado indiscriminadamente a operadores con capacidades radicalmente distintas.

En tercer lugar, la transformación de la obligación genérica de alfabetización en inteligencia artificial en una obligación de fomento institucional constituye una solución jurídicamente equilibrada. Se mantiene la exigencia de formación específica para quienes despliegan sistemas de alto riesgo, pero desaparece la obligación genérica que recaía sobre cualquier proveedor con independencia del nivel de riesgo. La alfabetización es importante, pero convertirla en una obligación jurídica directa, sin criterios claros de contenido y acreditación, añadía presión normativa innecesaria.

El nuevo enfoque permite que Estados miembros y Comisión desarrollen programas formativos estructurados y coherentes, sin generar cargas individualizadas de difícil verificación. Al mismo tiempo, quienes operen sistemas de alto riesgo deberán acreditar que su personal dispone de formación técnica adecuada, lo que resulta plenamente coherente con una gestión responsable de riesgos.

En cuarto lugar, la supresión de la obligación de registro en la base de datos europea para sistemas que realizan tareas meramente preparatorias o auxiliares en ámbitos del Anexo III eliminará miles de registros administrativos innecesarios. Pensemos en un sistema que se limita a extraer datos estructurados de documentos digitales para alimentar un proceso decisional posterior. Aunque formalmente vinculado a un ámbito de alto riesgo, carece materialmente de riesgos significativos. Su registro habría generado ruido informativo y dificultado la supervisión efectiva de los sistemas verdaderamente problemáticos.

En quinto lugar, la centralización en la Oficina de Inteligencia Artificial de la supervisión de modelos de propósito general integrados en plataformas en línea de muy gran tamaño responde a un criterio elemental de eficiencia institucional. La supervisión fragmentada por veintisiete autoridades nacionales habría generado inconsistencias interpretativas, duplicidades costosas y una carga administrativa innecesaria tanto para autoridades como para operadores.

V. El artículo 4 bis del Reglamento de Inteligencia Artificial: resolviendo la paradoja de los sesgos ocultos

La propuesta introduce una novedad procedimental de enorme relevancia sistémica: la incorporación de un nuevo artículo 4 bis que permite expresamente el tratamiento de categorías especiales de datos personales con la finalidad exclusiva de detectar y corregir sesgos discriminatorios en sistemas de inteligencia artificial. Se trata de una modificación técnicamente precisa, pero con efectos potencialmente transformadores en la práctica del desarrollo y auditoría algorítmica en Europa.

Esta disposición responde a una paradoja regulatoria que venía paralizando a numerosos equipos técnicos y jurídicos. El artículo 10.5 del Reglamento original exigía identificar, evaluar y mitigar sesgos discriminatorios, mientras que el Reglamento General de Protección de Datos dificultaba de forma extrema —cuando no directamente impedía— el uso de los datos sensibles que resultan imprescindibles para esa identificación. ¿Cómo detectar un sesgo por origen racial sin procesar datos que revelen origen racial? ¿Cómo evaluar discriminaciones indirectas por género sin información relativa al sexo? La exigencia normativa era clara; el camino jurídico para cumplirla, no.

Durante meses, esta contradicción generó un efecto disuasorio significativo. Muchas empresas optaron por enfoques de auditoría incompletos o puramente teóricos, basados en proxies estadísticos de dudosa fiabilidad, por temor a infringir la normativa de protección de datos. Otras simplemente postergaron auditorías profundas, asumiendo un riesgo regulatorio latente. El resultado fue un ecosistema en el que la lucha contra la discriminación algorítmica quedaba debilitada por una colisión mal resuelta entre dos marcos normativos legítimos.

El nuevo artículo 4 bis introduce un marco jurídico claro para ese tratamiento excepcional, sometiéndolo a salvaguardias técnicas y organizativas estrictas. Entre ellas destacan la minimización rigurosa de datos, la anonimización o seudonimización robusta cuando sea técnicamente viable, la limitación estricta de finalidad a la detección y corrección de sesgos, garantías reforzadas de seguridad y una prohibición expresa de usos secundarios o incompatibles. No se trata de una carta blanca, sino de una excepción cuidadosamente acotada.

El impacto práctico será considerable. Los equipos técnicos y de data science podrán llevar a cabo auditorías sistemáticas de sesgo con respaldo normativo sólido. Será posible, por ejemplo, analizar empíricamente si un sistema automatizado de selección de personal presenta sesgos de género procesando datos relativos al sexo de los candidatos, siempre bajo controles estrictos y exclusivamente con fines correctivos. Lo mismo ocurrirá en ámbitos como la concesión de crédito, la detección de fraude o la priorización de pacientes en sistemas sanitarios.

Más allá de su utilidad inmediata, la introducción de este artículo evidencia una comprensión más madura de las tensiones internas del derecho digital contemporáneo. La protección estricta de la privacidad de datos sensibles y la lucha eficaz contra la discriminación algorítmica no son objetivos incompatibles, pero sí requieren mecanismos de ponderación explícitos. Ignorar el conflicto o resolverlo mediante silencios normativos solo conduce a la inacción. El artículo 4 bis representa, en este sentido, un avance metodológico relevante en la regulación de sistemas complejos.

VI. Innovar con seguridad: la expansión de los sandboxes regulatorios

La propuesta amplía de forma significativa las posibilidades de prueba en entornos reales para sistemas de alto riesgo, incluidos aquellos integrados en productos regulados por legislación sectorial armonizada, como vehículos de motor, dispositivos médicos o aeronaves civiles. Además, se crea expresamente un sandbox regulatorio europeo centralizado, gestionado por la Oficina de Inteligencia Artificial a partir de 2028, lo que supone un salto cualitativo en la arquitectura institucional del marco regulatorio.

Esta ampliación responde a una necesidad técnica difícilmente discutible. Los sistemas basados en aprendizaje automático no alcanzan niveles aceptables de fiabilidad únicamente mediante pruebas en entornos controlados. Su rendimiento depende de la exposición a datos del mundo real, con toda su complejidad, ruido estadístico y variabilidad contextual. Limitar en exceso las pruebas a escenarios de laboratorio puede dar lugar a sistemas formalmente conformes, pero operativamente frágiles o incluso peligrosos.

Un sistema de asistencia a la conducción autónoma puede funcionar de manera impecable en un circuito cerrado y fallar estrepitosamente en tráfico urbano denso, con peatones impredecibles, ciclistas que incumplen normas, meteorología cambiante y señalización ambigua. Esa brecha entre rendimiento simulado y comportamiento real es precisamente lo que los sandboxes permiten identificar y corregir de forma temprana, antes de un despliegue comercial a gran escala.

La creación de un sandbox europeo centralizado constituye, además, una innovación organizativa de primer orden. Hasta ahora, los sandboxes dependían de iniciativas nacionales fragmentadas, con criterios heterogéneos de acceso, metodologías dispares y niveles variables de exigencia técnica. Un sandbox europeo permitirá establecer estándares comunes de calidad, compartir aprendizajes metodológicos entre Estados miembros, facilitar el acceso a empresas que operan en múltiples jurisdicciones y concentrar recursos técnicos altamente especializados.

Desde una perspectiva estratégica, este enfoque también refuerza la competitividad europea. Ofrecer un entorno regulatorio que permita experimentar de forma controlada, pero realista, reduce incentivos a trasladar proyectos de investigación y desarrollo a jurisdicciones menos exigentes. Innovar con seguridad no es un eslogan, sino una condición para que la regulación no se convierta en un factor de deslocalización tecnológica.

Naturalmente, las pruebas en entornos reales plantean cuestiones delicadas de responsabilidad civil, protección de derechos fundamentales y gestión de riesgos. ¿Qué ocurre si, durante una prueba controlada, un sistema experimental causa daños a terceros? La propuesta mantiene salvaguardias robustas: consentimiento informado cuando proceda, supervisión continua por autoridades competentes, capacidad de intervención inmediata ante anomalías y exigencia de seguros de responsabilidad civil adecuados. El equilibrio alcanzado parece razonable y coherente con experiencias previas en sectores regulados.

VII. Lo que esto cambia en el día a día de las empresas

Para las empresas europeas que preparan sus estrategias de cumplimiento para 2026 y 2027, la propuesta implica cambios sustanciales tanto en la planificación estratégica como en la operativa cotidiana. No se trata de ajustes marginales, sino de modificaciones que afectan directamente a la asignación de recursos, a la organización interna y a la toma de decisiones de inversión.

La documentación técnica y los sistemas de gestión de calidad podrán ser sensiblemente más ligeros para aquellas empresas que califiquen como small mid-caps. Una empresa de 200 empleados que había previsto contratar varios perfiles especializados adicionales para gestionar el compliance podrá reducir esa necesidad, liberando recursos financieros y humanos para inversión directa en desarrollo tecnológico, pruebas de producto o captación de talento.

Los sistemas que realicen tareas meramente preparatorias o auxiliares en ámbitos del Anexo III podrán excluirse del registro obligatorio en la base de datos europea. Esta exclusión no solo reduce carga administrativa, sino que clarifica prioridades internas: los equipos podrán concentrar esfuerzos en la evaluación de riesgos reales, en lugar de dedicar tiempo a trámites formales de escaso valor protector.

La centralización de la supervisión de modelos de propósito general integrados en grandes plataformas en la Oficina de Inteligencia Artificial simplifica de forma notable la interlocución institucional. En lugar de coordinar comunicaciones paralelas con múltiples autoridades nacionales, las empresas dispondrán de un canal único de diálogo técnico, reduciendo riesgos de interpretaciones divergentes y duplicidades costosas.

La habilitación expresa para tratar datos sensibles con fines de detección de sesgos elimina una de las principales trabas que afrontaban los equipos técnicos. El nuevo artículo 4 bis permite diseñar procesos de auditoría de equidad más rigurosos, integrados desde fases tempranas del ciclo de vida del sistema, en lugar de como ejercicios defensivos posteriores.

Desde una perspectiva organizativa, las empresas deberán revisar sus hojas de ruta regulatorias. Los calendarios de inversión en procedimientos de conformidad podrán ajustarse con mayor racionalidad, especialmente en sistemas de alto riesgo vinculados a la publicación efectiva de normas armonizadas. Los departamentos jurídicos actualizarán matrices de riesgo, mientras que los equipos técnicos explorarán posibilidades de prueba antes inviables.

VIII. Una valoración que atiende no solo al texto, sino también a su espíritu

La propuesta del Digital Omnibus demuestra que es posible corregir el rumbo regulatorio sin traicionar los objetivos originales del Reglamento de Inteligencia Artificial. Se mantiene intacta la arquitectura conceptual basada en el riesgo —sistemas prohibidos, de alto riesgo, de transparencia y de riesgo mínimo—, pero se introduce flexibilidad procedimental allí donde la rigidez amenazaba con convertirse en un obstáculo estructural.

Resulta especialmente acertada la decisión de actuar mediante modificación legislativa formal y no limitarse a orientaciones interpretativas. Las guías pueden aclarar conceptos, pero no pueden modificar calendarios legalmente fijados, crear excepciones explícitas al tratamiento de datos personales ni redefinir competencias supervisoras. Aquí era necesaria una intervención normativa plena, y la Comisión la ha propuesto con rapidez poco habitual.

Queda por ver la reacción del Parlamento Europeo y del Consejo. La tramitación urgente parece justificada: cada mes adicional de incertidumbre regulatoria implica costes reales para empresas que toman decisiones estratégicas en tiempo real sobre dónde localizar proyectos de investigación y desarrollo.

Algunos críticos sostendrán que modificar un Reglamento apenas quince meses después de su entrada en vigor transmite una imagen de precipitación inicial. Esa lectura ignora la naturaleza dinámica de las tecnologías reguladas. La alternativa —persistir en un diseño disfuncional por coherencia formal— habría sido mucho más dañina. La capacidad de rectificación basada en datos empíricos es, en este contexto, una virtud institucional.

Tampoco puede sostenerse seriamente que las modificaciones diluyan la ambición protectora original. Las obligaciones sustantivas permanecen intactas. Lo que se ajusta son calendarios, procedimientos y cargas documentales. No se reduce la supervisión; se hace practicable.

IX. Conclusiones

Nos encontramos, en definitiva, ante un ejercicio de corrección normativa que refuerza, y no debilita, la credibilidad del modelo regulatorio europeo en materia de inteligencia artificial. El Reglamento no es perfecto —ningún marco que aborde tecnologías en rápida evolución puede serlo—, pero la propuesta corrige sus principales rigideces prácticas sin comprometer su ambición protectora.

La intervención responde de forma proporcionada a problemas empíricos concretos: la ausencia de normas armonizadas, los retrasos en la designación de organismos de evaluación y las tensiones no resueltas con otros marcos normativos, en particular la protección de datos. Su filosofía es clara: simplificación procedimental sin desprotección sustantiva.

La vinculación del calendario a la disponibilidad de normas armonizadas introduce racionalidad regulatoria. La extensión del régimen simplificado a las small mid-caps reconoce la realidad de empresas innovadoras sin estructuras complejas de compliance. El nuevo artículo 4 bis resuelve una paradoja que bloqueaba auditorías de sesgo, la centralización supervisora evita fragmentación y la ampliación de los sandboxes responde a necesidades técnicas ineludibles.

Las implicaciones prácticas para los operadores son significativas en términos de planificación, inversión y demostración de conformidad. La propuesta merece apoyo decidido, sin perjuicio de un seguimiento atento durante su tramitación legislativa para asegurar que el equilibrio alcanzado entre innovación y protección se mantenga. En un ámbito tan dinámico como la inteligencia artificial, regular bien no significa regular más, sino regular mejor.

Resumen:

La propuesta COM(2025) 836 final de la Comisión Europea, conocida como Digital Omnibus on AI, constituye la primera modificación sustancial del Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, apenas quince meses después de su entrada en vigor. Este trabajo analiza el diagnóstico que subyace a la propuesta, centrado en los retrasos en la publicación de normas armonizadas y en la designación de organismos de evaluación, y examina las principales medidas de flexibilización introducidas: vinculación de calendarios a la disponibilidad de normas, extensión del régimen simplificado a small mid-caps, transformación de la obligación de alfabetización, supresión de registros innecesarios, centralización de la supervisión de modelos de propósito general y creación del nuevo artículo 4 bis sobre tratamiento de datos sensibles para detección de sesgos. Se valoran críticamente las implicaciones prácticas para los operadores y se concluye que la propuesta logra el difícil equilibrio entre mantener la ambición protectora del Reglamento original y corregir rigideces que amenazaban con frenar la innovación europea en inteligencia artificial.


X. Referencias normativas y bibliográficas

1) Normativa de la Unión Europea

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial).

Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (Reglamento General de Protección de Datos).

Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo, de 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil.

Reglamento (CE) número 2006/42/CE del Parlamento Europeo y del Consejo, de 17 de mayo de 2006, relativo a las máquinas (Reglamento de Maquinaria).

Recomendación 2003/361/CE de la Comisión, de 6 de mayo de 2003, sobre la definición de microempresas, pequeñas y medianas empresas.

2) Documentos institucionales

Comisión Europea, Propuesta de Reglamento del Parlamento Europeo y del Consejo que modifica los Reglamentos (UE) 2024/1689 y (UE) 2018/1139 en lo que respecta a la simplificación de determinadas disposiciones (Digital Omnibus on AI), COM(2025) 836 final, Bruselas, 19 de noviembre de 2025.

Comisión Europea, Documento de trabajo de los servicios de la Comisión que acompaña la propuesta COM(2025) 836 final, evaluación de impacto, Bruselas, 19 de noviembre de 2025.

Sobre el autor

Diego Fierro Rodríguez es Letrado de la Administración de Justicia en ejercicio, Codirector de la Revista Acta Judicial y Doctorando en Derecho. Desarrolla su actividad profesional en el ámbito de la Administración de Justicia española, siendo actualmente el Jefe del Área penal del Servicio Común de Ejecución del Tribunal de Instancia de Málaga.

Sobre la publicación

Se han utilizado Google Gemini para la imagen y Google Gemini y Perplexity para recabar y contrastar toda la información disponible.

Diego Fierro Rodríguez
Letrado de la Administración de Justicia
Codirector de la Revista Acta Judicial
Doctorando en Derecho

Cartel del Privacy Day de ENATIC con el texto “Datos personales en la era de la IA”, anunciando el webinar sobre protección de datos e inteligencia artificial celebrado el 27 de enero de 2026.

Privacy Day: Datos personales en la era de la IA

Con motivo del Día Internacional de la Protección de Datos, ENATIC celebra una nueva edición de su Privacy Day, que centraremos este año en el análisis de la protección de los datos personales en la era de la inteligencia artificial, en un contexto de profunda transformación tecnológica y regulatoria.

Hemos planteado una sesión concebida como espacio de reflexión, orientada a compartir criterio experto, contrastar posiciones y anticipar el impacto que los últimos avances tecnológicos están teniendo y tendrán sobre el derecho fundamental a la protección de datos.

¿Por qué asistir?

Consideramos esencial abrir un debate en un contexto de revisión y ajuste del marco regulatorio europeo, en el que se está buscando un encaje coherente del RGPD con el resto del paquete normativo digital. En este escenario, resulta necesario reflexionar sobre el papel de la protección de datos en el desarrollo y uso de sistemas de inteligencia artificial, desde una perspectiva centrada en la persona y en los derechos fundamentales.

Programa

18:00 – 18:10 | Apertura

18:00 – 18:05
Inauguración
Belén Arribas Sánchez. Presidenta de ENATIC

18:05 – 18:10
Introducción
Rodolfo Tesone Mendizabal. Presidente emérito de ENATIC


Primera mesa redonda (18:10 – 18:40)

Moderación: Belén Arribas. Presidenta de ENATIC

HoraPonenciaPonente
18:10 – 18:25¿Es reconciliable el ejercicio del Derecho al Olvido con los LLMs de IA Generativa?José Leandro Núñez García.
Secretario General de ENATIC
18:25 – 18:40Privacidad y Derechos Digitales: Tendencias internacionales y retos 2026Eduardo López-Román.
Vicepresidente de ENATIC

Segunda mesa redonda (18:40 – 19:10)

Moderación: Belén Arribas. Presidenta de ENATIC

HoraPonenciaPonente
18:40 – 18:55Cuestiones de privacidad en el escándalo de los deepfakes en GROK ImaginePablo Sáez Hurtado.
Presidente de la Comisión Joven de ENATIC
18:55 – 19:10Digital Omnibus on AIJosé Manuel Muñoz Vela
Vocal de ENATIC

19:10 – 19:25 | Presentación de la Comisión Joven ENATIC


Debate moderado (19:25 – 19:55)

Moderación: Patricia Frade Ortea. Comisión Joven de ENATIC

Título: La importancia de la calidad de los datos para la confianza y seguridad de las soluciones legal tech de inteligencia artificial especializadas. Claves prácticas y jurídicas

  • Ana Belén Barbero Castejón. Comisión Joven de ENATIC
  • José María del Río Garay. Comisión Joven de ENATIC
  • María Aguiriano López. Comisión Joven de ENATIC

Mesa redonda final: IA en el ámbito sanitario (19:55 – 20:20)

HoraPonenciaPonente
19:55 – 20:05El uso secundario de datos de salud en el EEDS, una revolución médico-tecnológica inminente para la gestión de los datos y la investigaciónMaría Sánchez Besga.
Vicepresidenta de la Comisión Joven de ENATIC
20:05 – 20:20Cuestiones éticas y jurídicas acerca de ChatGPT SaludÍñigo de Miguel Beriain.
Vocal del Comité de Bioética de España, Vocal de la Asociación Española de Derecho Sanitario y Presidente del CEIm de Euskadi
20:15 – 20:20Iberoamérica ante ChatGPT Salud, ya disponible y desplegado: implicaciones en la privacidad, la ciberseguridad y la gobernanza de la IARodolfo Guerrero Martínez.
Comisión Joven de ENATIC

20:25 – 20:30 | Clausura


Un webinar estructurado en mesas de debate y ponencias, que reunirá a miembros de la junta de ENATIC y de su Comisión Joven para abordar, desde distintas perspectivas jurídicas, cuestiones clave en la intersección entre protección de datos e inteligencia artificial.

La sesión, que se celebrará el 27 de enero de 2026, coincidiendo con el 14º aniversario de la Asociación, servirá además como primer acto público del nuevo Consejo de la Comisión Joven de ENATIC, elegido en diciembre, y como punto de partida para una nueva etapa de participación activa en los debates jurídicos que están marcando la agenda digital europea.

No te lo pierdas, ¡ya puedes inscribirte!

Ómnibus: El Futuro de la Gobernanza Digital

El próximo 18 de diciembre se celebrará una nueva sesión del Foro ENATIC, un espacio de análisis y debate jurídico orientado, en esta ocasión, a examinar la propuesta Ómnibus de la Comisión Europea y su impacto en el actual marco de gobernanza digital, con especial atención a ámbitos como el Derecho Digital, la inteligencia artificial, la privacidad y la ciberseguridad.

La jornada, que tendrá lugar en formato online, reunirá a profesionales de referencia del ámbito jurídico y tecnológico para compartir primeras reflexiones jurídicas y estratégicas sobre esta iniciativa normativa, así como para contrastar posiciones en torno a su posible incidencia en el ordenamiento jurídico europeo y en la configuración futura del ecosistema regulatorio digital de la Unión.

Durante el foro se abordarán cuestiones relativas a la coherencia y articulación del conjunto de normas que integran el Digital Rulebook de la Unión Europea, analizando los retos que plantea la convivencia entre los nuevos instrumentos regulatorios y los marcos ya consolidados en materia de inteligencia artificial, protección de datos, ciberseguridad y servicios digitales.

La mesa redonda contará con las intervenciones de Carlos Alberto Saiz Peña, José Manuel Muñoz Vela, José Leandro Núñez García y Rodolfo Tesone Mendizábal, y estará moderada por Belén Arribas Sánchez, todos ellos miembros de la junta de ENATIC y profesionales con una amplia trayectoria en el ámbito del Derecho Digital. El encuentro se concibe como un espacio para profundizar, contrastar enfoques y anticipar escenarios relevantes para profesionales, organizaciones e instituciones ante el nuevo contexto regulatorio europeo.

Ya puedes inscribirte.

Automatización jurídica no-code

ENATIC organiza un nuevo taller formativo TIClawyers, centrado en la automatización jurídica y el uso de herramientas no-code y low-code en el ejercicio profesional: una sesión orientada a ofrecer una visión práctica y aplicada sobre cómo estas tecnologías están transformando la forma de prestar servicios legales.

La jornada, que se celebrará el próximo 10 de diciembre a las 17:00h en formato webinar, se enmarca en el compromiso de ENATIC con la digitalización de la abogacía y el desarrollo de competencias directamente aplicables al día a día profesional, especialmente en un contexto en el que la inteligencia artificial se está convirtiendo en un pilar esencial del sector jurídico.

El taller será impartido por Karol Valencia, abogada especializada en innovación legal, legal tech y adopción práctica de inteligencia artificial en despachos y departamentos jurídicos. Actualmente, Karol desarrolla su actividad como AI Adoption & Change Management en Saga, plataforma europea de inteligencia artificial legal; y es cofundadora y CEO de WOW Legal Experience, consultora enfocada en la transformación digital del sector legal en Europa y Latinoamérica.

Durante la sesión se abordarán, entre otras cuestiones, qué se entiende por no-code y low-code en el contexto jurídico y cómo estas herramientas están impactando en el sector legal, así como casos reales de automatización aplicados en despachos y asesorías jurídicas.

El taller incluirá un recorrido práctico por la construcción de un flujo jurídico automatizado paso a paso, desde el intake de la información y su validación, hasta la generación de documentos y la notificación correspondiente, analizando además los errores más habituales en este tipo de proyectos y cómo evitarlos. Asimismo, se compartirán plantillas y herramientas prácticas orientadas a facilitar la aplicación inmediata de estos enfoques en el trabajo diario de los profesionales del derecho.

El encuentro se concibe como un espacio eminentemente práctico, orientado a demostrar que la automatización jurídica no es una tendencia reservada a grandes organizaciones ni requiere conocimientos avanzados de programación, sino que constituye una capacidad accesible y cada vez más relevante para ofrecer servicios legales eficientes, escalables y alineados con las exigencias actuales del mercado.

Ya puedes inscribirte.

Cine y televisión a la carta con IA

La inteligencia artificial cada vez abre más interrogantes legales en el campo del derecho digital y del entretenimiento. Un caso concreto es el de los derechos que se derivan de las creaciones conjuntas entre hombre e inteligencia artificial.

Cada día salen nuevas plataformas donde los usuarios pueden co-crear contenidos con sistemas de inteligencia artificial generativa. Plataformas como Midjourney o Stability AI, o Sora, ofrecen a los usuarios la posibilidad de crear imágenes y videos de manera conjunta. Cabe resaltar la reciente demanda que Disney y NBC Universal han presentado contra la compañía de servicios de inteligencia artificial, Midjourney, por haber creado imágenes a partir de sus películas. Alegan que la startup de IA generativa permite a los suscriptores generar imágenes que violan los derechos de autor al usar personajes como Deadpool, Lobezno, Spider-Man, los Minions, la sirenita, Homer Simpson o Shrek como base esencial para sus creaciones.

Pero una nueva ventana se abre en el campo del entretenimiento: la posibilidad de que usuarios/espectadores participen y desarrollen junto aplataformas como Netflix, Disney o Amazon, cortos, series o películas con la ayuda de la IA. En este caso, resulta importante reflexionar sobre la necesidad de regular este tipo de contenidos en las que el espectador se converiría en creador de su propia historia. Obras audiovisuales que permiten a los espectadores tomar decisiones en la trama para construir su “propia aventura” (véase por ejemplo el episodio Bandersnatch de la serie “Black Mirror” en la cual el espectador puede decidir el rumbo de la historia). En un futuro cada vez más próximo, el espectador no sólo podrá elegir la trama y el desenlace. También podrá escoger el género de la historia o incluso los actores que participarán en dichas películas mediante interpretaciones generadas por IA.

¿Podrán dar una respuesta adecuada los regímenes jurídicos vigentes a este nuevo contexto? ¿Cómo se deberá regular a futuro estas nuevas propuestas audiovisuales? ¿Estarán protegidos todos los derechos que entrañan estas nuevas formas de consumo, producción o distribución del contenido audiovisual?

No sería utópico pensar en un futuro mediato pensar que las plataformas negociaran con los productores o actores nuevos tipos de cesiones o licencias para poder ofertar por separado tramas, imágenes, voces, expresiones corporales o composiciones musicales y que sea el espectador quien orqueste y construya su propia trama y producto.

A partir de este escenario surgen un nuevo mercado, derechos y fuertes condicionantes objeto de negociación y contratación. A modo de ejemplo, si el rostro de los actores y su voz son procesadas para formar parte del futuro contenido creado por el espectador, la plataforma deberá contar con un consentimiento explícito y una cesión de derechos de imagen por parte del actor conforme a lo dispuesto en las distintas normativas internacionales en materia de protección de la imagen y datos, pues este tipo de procesamiento afectaría la imagen del actor, al igual que ocurriría con la voz, con las correlativas limitaciones y condiciones asociadas para evitar su inclusión en contextos y contenidos no deseados.

Se precisarán autorizaciones previas por parte de los artistas para que la utilización de su imagen como base para la creación de las llamadas “réplicas digitales” y para usos y contextos expresamente autorizados por el titular de los derechos, con las correlativas exclusiones y limitaciones -No son previsibles autorizaciones generales que puedan comportar elecciones del usuario en las que coloque al personaje réplica de la persona autorizante en cualquier situación, contexto o escena en el marco del contenido, por ejemplo, escenas de alto contenido sexual o cualquier otra que pueda afectar a la imagen y reputación del actor en el futuro (especialmente sin hubiera ya fallecido). En estos casos, a partir de la imagen y voz del actor, se produciría un contenido sintético, una actuación instruccionada por el usuario y creada por un algoritmo que tomará como base la imagen del actor. El guion podría ser susceptible de protección, en caso de reunir los requisitos para ello, por propiedad intelectual. Si bien, por lo que se refiere a la interpretación, como la música y otros contenidos, si éstos son generados por IA, se debe tener en cuenta que no serían susceptibles de registro, en tanto se considerarían un producto generado únicamente por IA y por ello no susceptible de protección por este cauce, ya que no se puede proteger por derechos de autor ninguna creación en la que no haya intervención humana significativa, conforme lo establece las normativas vigentes de derechos de autor.

En Estados Unidos el Right of publicity otorga a las personas, especialmente a las figuras públicas, el control exclusivo sobre el uso comercial de su nombre, imagen, voz y otros aspectos identificativos, aunque la regulación debe proteger no sólo a actores famosos y políticos, para lo que disponemos de las normativas de protección de datos, al igual que las proteccionistas de la imagen.

El uso de la imagen y voz en este contexto abre nuevos mercados donde no todo titular está conforme con participar en los mismos, conforme se está evidenciando ya en la actualidad. Los actores pueden ya obtener importantes beneficios licenciando su imagen y voz para crear contenido sintético, como ya se está negociando en la actualidad, mediante los contratos de cesión que se están promoviendo por la industria. Y no olvidemos el carácter de algunos de estos derechos, en función de la jurisdicción, como personalísimos, con el impacto que el marco jurídico aplicable puede tener en su cesión y explotación.

En mi opinión, necesitamos la revisión de los marcos jurídicos actuales para poder disponer de una regulación que abarque y dé una cobertura adecuada a está explotación de nuevos productos y nuevas formas de consumir los servicios ofertados por la industria. Es necesario que se proporcione seguridad jurídica y normas capaces de abarcar las nuevas formas de consumo, producción y comercialización del entretenimiento. Se avecina un mundo lleno de herramientas para el consumidor, en el marco de la inteligencia artificial y las nuevas tecnologías que de ella se derivan. Si avanzamos sin orden jurídico incurriremos en incertidumbre e inseguridad jurídica.

Luis Villamil Mendoza
Abogado especialista en Derecho audiovisual, tecnología y entretenimiento en Proyectil
Miembro ENATIC

Entrenamiento de modelos de IA con contenidos protegidos por derechos de autor: Novedades judiciales sobre la doctrina del fair use.

Los debates jurídicos alrededor del entrenamiento de modelos de IA con contenidos protegidos por derechos de autor se están intensificando, especialmente en relación con la aplicación de las excepciones o limitaciones de los mismos, en particular respecto de la minería de textos y de datos (TDM) en la UE y el fair use en EE.UU., esgrimidas por la industria de la IA.

Mi opinión y posicionamiento desde hace años, expresada en diversas monografías, artículos de investigación y conferencias, ha sido muy contraria a la aplicación automática de estas excepciones, especialmente en el caso de la primera en el ámbito de la UE, en la medida que no fue concebida para legitimar la reproducción (en su caso) y uso de obras protegidas por derechos de autor para el entrenamiento de modelos de IA con finalidad comercial, sin autorización ni compensación de sus titulares.

En relación con la excepción de minería de textos y de datos, durante este último año se han ido sumando nuevas voces críticas en relación con su aplicación en este contexto, por ejemplo, expertos como Tim W. Dornis. Asimismo, esta cuestión protagonizó la tardía transposición de la Directiva (UE) 2019/790 sobre los derechos de autor y derechos afines en el mercado único digital por parte de Polonia, que analizó en su Proyecto de Ley de transposición la excepción de minería de textos y de datos previstos en la misma, concluyendo que “la reproducción de obras para minería de textos y datos no puede utilizarse para crear modelos generativos de inteligencia artificial”. Por último, el reciente borrador de informe sobre Copyright and generative artificial intelligence-opportunities and challenges, del Comité de Asuntos Jurídicos del Parlamento Europeo, de 27 de junio de 2025, en relación con la Propuesta de Resolución del Parlamento Europeo sobre los derechos de autor y la inteligencia artificial generativa – oportunidades y retos (2025/2058(INI)), abordó esta excepción, recomendando a la Comisión, con independencia de la revisión prevista del marco jurídico de los derechos de autor y de la Directiva de Derechos de Autor, que lleve a cabo urgentemente una evaluación exhaustiva de si el acervo existente de la UE en materia de derechos de autor aborda adecuadamente la inseguridad jurídica y los efectos sobre la competencia asociados al uso de obras protegidas y otras materias para el entrenamiento de sistemas de IA generativa. Del mismo modo, recomienda además que dicha evaluación tenga como objetivo apostar por un marco en el que los mecanismos de remuneración equitativa permitan generar los recursos necesarios para que la producción artística y creativa europea prospere en el contexto de la transformación mundial impulsada por la IA.

En relación con la doctrina del fair use estadounidense, durante los últimos meses se han sucedido las primeras resoluciones judiciales en EE.UU. sobre su aplicación al entrenamiento de modelos de IA en función del contexto, y que me permito analizar a continuación de manera sucinta dada la extensión limitada de este tipo de artículo, en colaboración con Mª José Montañana Bartual, quien ha profundizado en estas cuestiones y su análisis en un reciente y brillante trabajo de investigación elaborado en el marco académico de la Universidad de Valencia.

Resolución del Tribunal del Distrito de Delaware, dictada en el Caso Thomson Reuters Enterprise Centre GmbH vs. Ross Intelligence Inc. (No. 1:20-cv-613-SB). 11 de febrero de 2025 (1).

La resolución dictada por el Juez Stephanos Bibas, del Tribunal de Distrito de Delaware, representó un precedente fundamental en el derecho de autor estadounidense respecto al uso de obras protegidas por derechos de autor para el entrenamiento de modelos de IA. Se trata de la primera ocasión en la que un tribunal federal determinó que el uso de contenido protegido por derecho de autor para entrenar tecnología de IA no constituye un uso legítimo bajo la doctrina del fair use, sin perjuicio del precedente dictado en el asunto White v. West (2014), al que nos referiremos con posterioridad.

La demanda se interpuso por Thomson Reuters Enterprise Centre GmbH y West Publishing Corp contra Ross Intelligence Inc.

El objeto del litigio se sustentaba en la reproducción y uso de headnotes (2) protegidos por derechos de autor y pertenecientes a la herramienta Westlaw – una de las bases jurídicas más importantes de mundo titularidad de la parte demandante-, como datos de entrenamiento para un motor de búsqueda legal basado en IA comercializado por Ross Intelligence, un competidor emergente de Westlaw, para lo que contrató a un tercero (LegalEase), tras la negativa previa de Thomson Reuters a licenciarle su contenido para entrenar su sistema.

Westlaw contiene bases de datos legales organizadas mediante un sistema propietario llamado “Key Number System” e incluye «headnotes» o sumarios que identifican los aspectos clave de la resolución a la que van asociados.

La parte demandante argumentó que Ross había infringido sus derechos de autor sobre sus headnotes como obras individuales, sobre el sistema Key Number System como compilación protegida y sobre las decisiones editoriales incorporadas en 500 valoraciones judiciales.

Para la parte demandante los headnotes constituían obras originales protegibles por derechos de autor, ya que representaban una síntesis creativa de opiniones judiciales extensas, requiriendo juicio editorial para identificar los puntos de derecho más relevantes.

La parte demandada basó su defensa en el fair use argumentando, entre otros aspectos, de un lado, que su uso era transformativo al crear una nueva herramienta de investigación legal con propósito diferente al original, de otro, la falta de originalidad de los headnotes y, de otro, su uso intermedio para el entrenamiento de modelos de IA, como los que se vienen haciendo en la ingeniería inversa respecto del software.

El Juez consideró que los headnotes están protegidos por derechos de autor, considerando que son producto del trabajo intelectual de los redactores y que contienen explicaciones originales, habiéndose copiado más 2.200 headnotes de forma textual y casi idéntica.

El Juez estimó la mayor parte de las peticiones de la parte demandante, rechazando la aplicación del fair use esgrimido como argumento de defensa por Ross Intelligence para el entrenamiento de su modelo de IA, y declarando la infracción directa de los derechos de autor de la parte demandante por parte de la demandada.

La resolución judicial abordó la ponderación de los distintos factores a considerar para considerar concurrente la excepción de fair use, conforme a la disposición 17 U.S.C. § 107, esto es, la finalidad y carácter del uso (uso comercial y no transformador por parte de Ross, distinguiéndolo de casos anteriores como Google LLC v. Oracle Am., Inc., 593 U.S. 1 -2021-), la naturaleza de la obra protegida (aunque sea considerada de un nivel creativo medio o limitado y con originalidad), la cantidad y sustancialidad del uso de las obras protegidas (las headnotes no fueron incluidas por Ross en el producto final, solo fueron utilizadas para el entrenamiento del modelo) y el efecto en el mercado (con afectación del mercado existente y potencial de Westlaw y a su negocio, estando además entre los planes de Ross competir directamente con Westlaw). Este último factor fue considerado el más importante, conforme recoge en otros pronunciamientos judiciales anteriores referenciados en la resolución judicial, como en el asunto Harper & Row, Publishers, Inc. v. Nation Enterprises, 471 U.S. 539 (1985).

Una vez ponderados estos factores, el Juez consideró que la doctrina del fair use es inaplicable en el supuesto analizado, concluyendo que el uso de los headnotes para el entrenamiento de modelos de IA no era transformador y competía directamente con el producto original, afectando su mercado, por lo que dictó sentencia a favor de la parte demandante por infracción directa de los derechos de autor sobre los headnotes, rechazando la concurrencia de fair use.

Significar algunas de sus conclusiones: “No basta con decir que el uso fue ‘para entrenar una IA’ o que ‘nadie verá directamente los textos copiados’. Si estás usando algo protegido por derechos de autor con fines comerciales, y sin transformarlo realmente, no puedes escudarte en el fair use”. “No todo uso de obras protegidas para entrenar inteligencia artificial está amparado por el fair use”, especialmente cuando el uso no es realmente transformador y compite con el creador original.

El Juez Bibas introdujo una analogía innovadora comparando la creación de headnotes con el trabajo escultórico. Esta metáfora legal establece que, así como un escultor crea una obra protegible al extraer una forma de un bloque de mármol, los editores legales crean obras protegibles al extraer aspectos jurídicos clave de opiniones judiciales extensas.

Del mismo modo, la resolución establece una distinción entre el copying intermedio en casos de software y el entrenamiento de IA. Mientras que en casos precedentes como el indicado anteriormente entre Google vs Oracle permitieron el copying intermedio cuando era necesario para acceder a elementos funcionales no protegidos, el Juez determinó que esta justificación no se aplica al entrenamiento de IA con contenido no funcional.

El Juez también rechazó el argumento de que el entrenamiento de IA es inherentemente transformativo, estableciendo que el carácter transformativo debe evaluarse según el propósito específico del uso, no según la tecnología empleada. El caso sigue abierto donde deberá también dilucidarse sobre el uso del sistema de organización “Key Number”.

La decisión estableció un precedente restrictivo para compañías de IA que buscan utilizar contenido protegido por derechos de autor para entrenamiento, especialmente cuando a) exista competencia directa con el titular de derechos de autor; b) el uso sea comercial y sin transformación significativa y; c) afecte a mercados existentes o potenciales en relación con las obras originales.

No obstante, este pronunciamiento contrasta relativamente con otros posteriores dictados en casos recientes, como el de Anthropic o Meta, que se abordarán a continuación, en la medida que en estos últimos se determinó que el entrenamiento de IA con obras protegidas podría considerarse fair use «con transformación significativa». Estas discrepancias judiciales y la falta de una delimitación clara de la doctrina del fair use en el marco del entrenamiento de modelos de IA sugieren que la cuestión llegará a la Corte Suprema.

Resolución del Tribunal de Distrito del Norte de California (Caso C24- 05417 WHA) sobre el uso de obras protegidas por derechos de autor por parte de Anthropic PBC en el entrenamiento de modelos de IA (Claude). 23 de junio de 2025 (3).

La resolución constituye otro precedente fundamental en la aplicación de la doctrina del fair use al entrenamiento de modelos de IA con obras protegidas por derechos de autor. La decisión judicial establece criterios diferenciados para evaluar distintos usos de obras protegidas por derechos de autor en el desarrollo de IA, marcando límites claros entre usos legítimos e infracciones de los derechos de autor.

La demanda fue interpuesta por Andrea Bartz, Charles Graeber y Kirk Wallace Johnson como autores, junto con sus entidades titulares de derechos, frente a Anthropic PBC, empresa de IA desarrolladora del modelo Claude, por infracción de derechos de autor por la entidad demandada al supuestamente entrenar su modelo de IA utilizando libros protegidos por derechos de autor, algunos obtenidos de fuentes ilícitas (piratas) y otros adquiridos legítimamente por Anthropic.

La parte demandante alegó la infracción de sus derechos de autor por la reproducción no autorizada de sus obras para crear una biblioteca central de libros y entrenar los modelos de IA con sus obras, la retención en los modelos de copias comprimidas de sus obras, la obtención de sus obras de fuentes ilícitas -piratas-, la no aplicación del fair use como causa legitimadora para el entrenamiento de modelos de IA con sus obras y la emulación de su estilo y expresión narrativa por parte del sistema generativo de la demandada. Y todo ello significando la naturaleza comercial lucrativa del negocio de Anthropic y el daño en el mercado, dado que el uso desplazaba ventas potenciales y mercados de licenciamiento emergentes.

Por su parte, la parte demandada reconoció el uso y copia masiva de obras y argumentó, entre otros aspectos, de un lado, que lo hizo con finalidad y uso transformativo de entrenamiento de sus modelos de IA y para la construcción de una biblioteca de investigación interna, de otro, que sus modelos no reproducen directamente las obras y, por último, que la transformación mediante la digitalización de libros físicos comprados en tiendas y plataformas para su conversión en PDF para uso interno era un uso razonable y legítimo (fair use). Adicionalmente, argumentó la analogía con el aprendizaje humano, comparando el entrenamiento de IA con el proceso de lectura y aprendizaje humano, de modo que no debería haber diferencias en el tratamiento legal, junto con el beneficio público para la sociedad de todo ello y la necesidad técnica de utilizar grandes volúmenes de datos para entrenar los modelos de IA.

Según recoge la resolución, Anthropic descargó millones de copias pirateadas de libros desde sitios como Books3, LibGen y PiLiMi entre 2021-2022. Posteriormente compró millones de libros físicos, los destruyó y los digitalizó para crear una «biblioteca de investigación central», utilizó subconjuntos de estas obras para entrenar diversos modelos de lenguaje que alimentan a Claude y generó más de mil millones de dólares en ingresos anuales.

El Juez William Alsup, a diferencia de la resolución anteriormente analizada, admitió el fair use para el entrenamiento de los modelos de la parte demandada con obras protegidas adquiridas en el mercado por la misma y su digitalización, si bien, rechazó el fair use respecto de obras obtenidas de fuentes ilícitas, considerando su uso una infracción.

El Juez tomó como referencia normativa para su resolución la disposición 17 U.S.C. § 107 – Fair Use Doctrine, así como casos precedentes como: Google v. Oracle (593 U.S. 1, 2021), que admite el fair use incluso en uso comercial si el fin es suficientemente transformador; Campbell v. Acuff-Rose (510 U.S. 569, 1994), que aborda el uso paródico como fair use; Authors Guild v. Google (804 F.3d 202, 2d Cir. 2015), que establece que escaneo masivo de libros puede ser fair use; Andy Warhol Foundation v. Goldsmith (2023); Thomson Reuters v. Ross (D. Del. 2025), que establece que el uso de textos jurídicos para IA no fue transformativo o; White v. West Pub. (S.D.N.Y. 2014), que consideró que constituye fair use usar textos jurídicos y justificado convertir y reutilizar material público de manera transformativa en bases de datos comerciales.

De este modo, el Juez admitió el fair use esgrimido por la parte demandada, tanto para el entrenamiento de sus modelos -considerando que sus modelos fueron entrenados con los libros, sin reproducción de los textos (aprenden patrones y estructura de lenguaje), sin generación de resultados de salida literales de las obras a los usuarios y con un uso transformativo, equiparando el proceso a cómo una persona aprende a escribir leyendo libros-, como para la conversión de libros comprados de formato físico a digital con finalidades de almacenamiento y búsqueda. Sin embargo, se rechazó la aplicación del fair use en relación con la descarga de libros por la parte demandada desde sitios piratas como Books3, LibGen o PiLiMi para conformar una biblioteca centralizada.

En definitiva, la doctrina sobre la que se sustenta esta resolución es que “el uso de libros adquiridos legalmente para entrenamiento de IA sería fair use”, considerando dicho uso transformativo a los efectos de la aplicación de la excepción. La creación de copias digitales a partir de libros comprados también lo es. Pero la piratería masiva para construir una biblioteca permanente no lo es y constituye una infracción. Significar, entre otros aspectos criticables de la resolución, que las obras protegidas fueron adquiridas en el mercado por la parte demandada con esa particular finalidad comercial pero no fueron puestas en el mercado y comercializadas por los titulares de los derechos sobre las mismas con dicha finalidad para sus usuarios, sino para un uso privado no comercial.

La resolución abre la vía para una demanda de responsabilidad multimillonaria contra Anthropic que podría impactar en negocio e incluso en su continuidad, por lo que acaba de reforzar su defensa con la contratación de varios abogados expertos para afrontar la misma.

Resolución del Tribunal de Distrito del Norte de California (caso No. 3:23- cv-03417, VC) en la demanda por infracción de derechos de autor contra Meta Platforms, Inc. por el uso de libros protegidos en el entrenamiento de modelos de IA (LLaMA). 25 de junio de 2025 (4).

La demanda fue interpuesta por distintos autores como Sarah Silverman, Christopher Golden y Richard Kadrey frente a Meta Platforms, Inc., por el entrenamiento por parte de ésta de sus modelos de IA LLMs (LLaMA 1 y LLaMA 2) con libros protegidos por derechos de autor sin autorización ni compensación, y desde fuentes ilícitas (piratas).

La parte demandante alegó una infracción masiva por entrenamiento de modelos de IA con obras protegidas, Según la misma, Meta obtuvo libros desde fuentes ilícitas (piratas), copiando y procesando íntegramente sus obras sin autorización ni compensación para entrenamiento de sus modelos, argumentando que dichos modelos podrían reproducir fragmentos protegidos y contenidos que compiten con los suyos, y que ello perjudica su capacidad de licenciar sus obras.

La parte demandada reconoció haber utilizado materiales pirateados, pero argumentó que dicho uso constituye fair use conforme a la disposición 17 U.S.C. § 107, invocando la naturaleza transformadora del entrenamiento de sus modelos y sosteniendo que los mismos no reproducen ni distribuyen directamente las obras protegidas o fragmentos de ellas, conforme la parte demandante no demostró, sino que se convierten en patrones estadísticos.

Para la parte demandada, entrenar sus modelos LLMs era un uso transformativo distinto al de lectura o entretenimiento, equiparable a cómo aprender de una obra para producir algo diferente.

El Juez tomó como referencia normativa para su resolución la disposición 17 U.S.C. § 107 – Fair Use Doctrine, así como los siguientes casos: Twentieth Century Music Corp. v. Aiken, 422 U.S. 151, 156 (1975); Harper & Row Publishers, Inc. v. Nation Enterprises, 471 U.S. 539, 566 (1985); Campbell v. Acuff-Rose Music, Inc., 510 U.S. 569, 590 (1994); Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417, 430 (1984); Google LLC v. Oracle America, Inc., 593 U.S. 1, 18 (2021), que admite el fair use incluso en uso comercial si el fin es suficientemente transformador; Andy Warhol Foundation for the Visual Arts, Inc. v. Goldsmith, 598 U.S. 508, 526 (2023); Authors Guild v. Google (804 F.3d 202, 2d Cir. 2015), que establece que escaneo masivo de libros puede ser fair use; Thomson Reuters v. Ross (D. Del. 2025), que establece que el uso de textos jurídicos para IA no fue transformativo y; White v. West Pub. (S.D.N.Y. 2014).

La doctrina sobre la que el Juez sustentó esta resolución es que el uso de libros para entrenamiento de modelos de IA sería fair use, en defecto de alegaciones y pruebas que motiven determinar su no concurrencia, considerando el carácter transformador de dicho entrenamiento y no considerando la concurrencia de daños al mercado.

A diferencia del pronunciamiento judicial analizado en el caso Claude, C24- 05417 WHA, junio 2025, el Juez, Vince Chhabria, desestimó la petición contra Meta, argumentando que el entrenamiento de los modelos de IA era altamente transformador y que los demandantes no demostraron un daño real ni impacto en el mercado, aplicando la doctrina del fair use.

El juez reconoció que el uso de obras protegidas sin autorización para entrenar IA podría ser ilegal en muchos contextos, pero en este caso concreto la demanda fue desestimada por falta de pruebas y por la argumentación incorrecta de los demandantes según el juzgador. La decisión enfatizó que el fallo no implica que cualquier uso de obras protegidas por Meta sea legal, sino que los demandantes no lograron fundamentar adecuadamente su reclamación en instancia. El fallo no pretende avalar automáticamente toda práctica de la parte demandada.

Al igual que en el caso Bartz contra Anthropic, el juzgador consideró que el fair use eximía de responsabilidad a la parte demandada por supuesta infracción de derechos de autor. Ambos tribunales llegaron a la misma conclusión, si bien, sus razonamientos sobre la aplicación de la prueba de los cuatro factores de la doctrina del fair use (finalidad y carácter, naturaleza de la obra, cantidad usada y efecto en el mercado) fueron diferentes y con importantes salvedades.

El juez Chhabria, en el caso Meta, abordó con profundidad un posible argumento que los demandantes podrían haber esgrimido, pero que no presentaron de forma adecuada, esto es, que Meta había “copiado sus obras para crear un producto que probablemente inundaría el mercado con obras similares, provocando una dilución del mercado”. La teoría de la dilución es novedosa en el ámbito de los derechos de autor y se base en la expectativa de que los usuarios de sistemas generativos puedan producir volúmenes tan grandes de obras generadas por IA que los mercados ser verán inundados de obras generadas por IA que competirán con obras creadas por autores humanos, de modo que se desincentivarán éstos para crear obras nuevas y no
podrán vivir de la creación y explotación de sus obras.

Según el juez, si la parte demandante hubiera presentado alguna prueba que un jurado pudiera haber utilizado para determinar que los demandantes se  enfrentaban a tal dilución del mercado, la demanda interpuesta habría tenido que ser sometida a un jurado (no sumario), por lo que considera que el tribunal “no tenía más remedio” que dictar una resolución sumaria. El Juez considera en su resolución que la parte demandante presentó argumentos erróneos.

En definitiva, la resolución dictada constituye una decisión limitada al caso concreto y evidencia, a nuestro juicio, que el debate jurídico sobre la doctrina del fair use sigue abierto, en la medida que la aplicación de misma no está claramente delimitada y el posicionamiento de expertos no es pacífico, de modo que es previsible la intensificación del debate doctrinal y litigioso en EE.UU. Actualmente hay más de 40 procedimientos judiciales en tramitación sobre estos aspectos y habrá que esperar a la firmeza de sus resoluciones para conformar la doctrina del uso legítimo.

José Manuel Muñoz Vela
Abogado especialista en Derecho Digital e IA
Doctor en Derecho (IA)
Director Jurídico Adequa Corporación

Mª José Montañana Bartual
Graduada en Derecho y Criminología
Universidad de Valencia


(1) Thomson Reuters v. ROSS Intelligence, 1:20‑cv‑613‑SB (D. Del., feb‑2025)
(2) Son resúmenes breves que Westlaw crea para cada sentencia judicial
(3) Recuperado de https://regmedia.co.uk/2025/06/24/anthropic.pdf. Consultado el 28 de junio de 2025.
(4) Recuperado de https://cdn.arstechnica.net/wp-content/uploads/2025/03/Kadrey-v-Meta-Motion-for-Summary-Judgment-3-10-25.pdf. Consultado el 28.06.2025

El tablero fantasma: Cómo la lA está forjando el nuevo orden mundial

El motor que impulsa esta nueva era es la colosal rivalidad tecno-estratégica entre Estados Unidos y China. No se trata de una simple competencia comercial, sino de una lucha existencial por imponer un modelo de futuro. El AI Index 2025 de la Universidad de Stanford revela el pulso de esta batalla: Washington mantiene una formidable ventaja en la inversión privada, pero Pekín, con un esfuerzo estatal titánico, ha logrado una «casi paridad» en la calidad de sus modelos y ostenta el liderazgo en patentes e investigación. Esta competición, como la define el Center for a New American Security (CNAS), es una «Rivalidad Prometeica» cuyo premio es determinar si la tecnología más poderosa de la historia se regirá por principios democráticos o por la lógica del control autoritario.

La estrategia de Estados Unidos ha sido la de un «estrangulamiento» selectivo, usando controles de exportación y alianzas como la «Chip 4» entre Estados Unidos, Japón, Taiwán y Corea del Sur para cortar el acceso de China al eslabón más avanzado de la cadena. La respuesta de Pekín ha sido una ofensiva total por la autosuficiencia, una cruzada nacional para dominar una tecnología que considera vital para su seguridad y su destino. Este pulso por el silicio no es un fin en sí mismo; es la logística que alimenta los otros dos grandes frentes de la nueva guerra.

El primer frente que se nutre de este poder de cómputo es el de la guerra moderna. La IA está inyectando una velocidad vertiginosa en el arte del conflicto, persiguiendo la llamada «ventaja decisional». Sistemas como los probados por el Pentágono pueden procesar información y ofrecer opciones a los comandantes a un ritmo que la mente humana es incapaz de igualar. Esto conduce inevitablemente hacia un horizonte de autonomía, donde enjambres de drones y sistemas de armas navales o terrestres podrían ejecutar misiones complejas, tomando decisiones tácticas en milisegundos. La promesa es una eficiencia letal; el riesgo es un campo de batalla deshumanizado, donde el error de un algoritmo podría desencadenar una escalada catastrófica.

Pero quizás el frente más insidioso de esta guerra del siglo XXI no es el que se libra con hardware, sino el que se combate dentro de nuestras mentes. La IA generativa ha democratizado la capacidad de fabricar mentiras a una escala industrial. El conflicto en Ucrania ha sido un laboratorio para estas tácticas. Informes de la OTAN han detallado el uso por parte de Rusia de herramientas como «Meliorator», diseñadas para crear y operar ejércitos de perfiles falsos que inundan las redes con desinformación, polarizando el debate y socavando la confianza. Los deepfakes de líderes políticos, como los que suplantaron al presidente Zelenski, ya no son una anécdota de ciencia ficción, sino un arma de guerra psicológica real. El objetivo estratégico es claro: no solo ganar una discusión, sino erosionar el concepto mismo de verdad, desestabilizando las democracias desde sus cimientos al hacer imposible el consenso basado en una realidad compartida.

Esta militarización implacable de la tecnología obliga a la humanidad a asomarse a un profundo abismo ético. A medida que delegamos decisiones críticas en las máquinas, la cuestión de la responsabilidad se vuelve borrosa y urgente. Informes de instituciones como SIPRI alertan sobre el peligro fundamental del «sesgo algorítmico»: sistemas entrenados con datos del pasado que reflejan nuestros propios prejuicios, y que podrían llevar a una máquina a discriminar en el campo de batalla, violando el derecho internacional humanitario. En respuesta, la comunidad internacional busca a tientas un marco de gobernanza. Se celebran cumbres como REAIM (Responsible AI in theMilitaryDomain) y se aprueban resoluciones en la ONU, pero la misma rivalidad geoestratégica que impulsa la carrera armamentística impide alcanzar un tratado vinculante.

En medio de esta polarización, la Unión Europea intenta labrar un tercer camino. Con su Reglamento de IA, busca erigirse en una «potencia normativa», estableciendo un estándar global para una inteligencia artificial fiable y centrada en el ser humano que, sin embargo, está frenando la innovación en este territorio. En cualquier caso y aunque el Reglamento excluye los sistemas puramente militares, su regulación de las tecnologías de doble uso es un intento deliberado de proyectar sus valores, ofreciendo un modelo que no se somete ni a la lógica del mercado sin restricciones ni al control estatal absoluto.

Así, el tablero fantasma de la IA nos muestra que la contienda por el futuro es total. Es una guerra económica por los chips, una carrera militar por la autonomía letal, una batalla cognitiva por la verdad y una lucha filosófica por el alma de la nueva tecnología. El vencedor no será solo quien desarrolle los algoritmos más potentes, sino quien logre imponer su visión del mundo a través del código, definiendo para las generaciones futuras el equilibrio entre la libertad, la seguridad y el control en la era de las máquinas inteligentes.

En definitiva, las conclusiones que se desprenden de este tablero fantasma son inequívocas. No estamos asistiendo a carreras tecnológicas separadas, sino a un único y gran conflicto por el control del sistema operativo del siglo XXI. La soberanía sobre el silicio, la automatización del poder letal y la erosión de la realidad son facetas interdependientes de una misma pugna existencial por definir si el futuro se escribirá con un código de principios abiertos y democráticos o con uno de control centralizado y autoritario. Cada avance en este campo es una jugada estratégica con consecuencias profundas, y las decisiones que se tomen hoy —en los laboratorios, en los parlamentos y en los cuarteles generales— están configurando ya los cimientos de un nuevo orden mundial en el que la línea entre el progreso humano y el control maquinal es más fina y peligrosa que nunca.

Antonio Serrano Acitores
Abogado. Profesor Titular de Derecho Mercantil de la Universidad Rey Juan Carlos

Regulación de la IA: situación actual y tendencias

El Reglamento de Inteligencia Artificial ha culminado su tramitación legislativa en Europa, marcando un punto de inflexión en la gobernanza de la IA. Sin embargo, la aprobación formal no cierra los debates: persisten incógnitas sobre su aplicación práctica, su interacción con otras normas (en especial el RGPD) y su encaje en un escenario internacional donde la IA es también un eje de poder geoestratégico.

Para abordar estas cuestiones, ENATIC organiza un nuevo webinar gratuito, el próximo jueves, 12 de junio a las 17 horas, que reunirá a juristas especializados que han seguido de cerca el proceso regulatorio y sus implicaciones.

Presentará la sesión Rodolfo Tesone, con la moderación de Pablo Sáez Hurtado.

Intervendrán:

  • José Manuel Muñoz Vela, con una visión panorámica del posicionamiento internacional y el estado actual del Reglamento de IA y otros instrumentos jurídicos europeos.
  • Antonio Serrano Acitores, que analizará la dimensión geoestratégica de la IA en la pugna entre Estados Unidos y China, y el rol de Europa.

Una cita imprescindible para comprender los retos de la Inteligencia Artificial desde una perspectiva jurídica y global.

Ya puedes inscribirte.

IA, sanciones y sector público: un debate necesario

El próximo 9 de abril, a las 18 horas, nuestro secretario general, Leandro Núñez, participará en representación de ENATIC en una mesa redonda sobre el anteproyecto de Ley para el buen uso y la gobernanza de la inteligencia artificial, organizada en el Consejo General de la Abogacía Española.

Uno de los aspectos más controvertidos del texto es la exclusión de las Administraciones Públicas del régimen sancionador de la norma. Frente a las cuantiosas multas previstas para las empresas (hasta 35 millones de euros o el 7 % de su facturación), el sector público solo podrá ser apercibido, incluso en casos de infracción muy grave. Esta diferencia de trato ha generado críticas por parte de asociaciones profesionales, expertos y entidades del ámbito digital, como la Asociación de Internautas, OdiseIA o APEP, entre otras.

ENATIC considera que esta exclusión plantea interrogantes jurídicos relevantes, especialmente si se tiene en cuenta que el propio Reglamento prevé la posibilidad de multar a los propios órganos y organismos de la Unión Europea, y permite a los Estados miembros establecer sanciones económicas para el sector público. Entendemos que el debate es necesario, máximo cuando nuestro ordenamiento ya contempla regímenes sancionadores aplicables a las Administraciones, por ejemplo, en materia de aguas o de competencia.

Por eso, ENATIC ha presentado alegaciones en el marco de la consulta pública actualmente abierta, proponiendo una revisión del modelo planteado. Nuestra participación en este tipo de iniciativas busca contribuir a una legislación más equilibrada, coherente y garantista, que promueva un uso responsable de la inteligencia artificial tanto en el sector privado como en el público.

Puedes seguirlo por streaming.