Ómnibus: El Futuro de la Gobernanza Digital

El próximo 18 de diciembre se celebrará una nueva sesión del Foro ENATIC, un espacio de análisis y debate jurídico orientado, en esta ocasión, a examinar la propuesta Ómnibus de la Comisión Europea y su impacto en el actual marco de gobernanza digital, con especial atención a ámbitos como el Derecho Digital, la inteligencia artificial, la privacidad y la ciberseguridad.

La jornada, que tendrá lugar en formato online, reunirá a profesionales de referencia del ámbito jurídico y tecnológico para compartir primeras reflexiones jurídicas y estratégicas sobre esta iniciativa normativa, así como para contrastar posiciones en torno a su posible incidencia en el ordenamiento jurídico europeo y en la configuración futura del ecosistema regulatorio digital de la Unión.

Durante el foro se abordarán cuestiones relativas a la coherencia y articulación del conjunto de normas que integran el Digital Rulebook de la Unión Europea, analizando los retos que plantea la convivencia entre los nuevos instrumentos regulatorios y los marcos ya consolidados en materia de inteligencia artificial, protección de datos, ciberseguridad y servicios digitales.

La mesa redonda contará con las intervenciones de Carlos Alberto Saiz Peña, José Manuel Muñoz Vela, José Leandro Núñez García y Rodolfo Tesone Mendizábal, y estará moderada por Belén Arribas Sánchez, todos ellos miembros de la junta de ENATIC y profesionales con una amplia trayectoria en el ámbito del Derecho Digital. El encuentro se concibe como un espacio para profundizar, contrastar enfoques y anticipar escenarios relevantes para profesionales, organizaciones e instituciones ante el nuevo contexto regulatorio europeo.

Ya puedes inscribirte.

Automatización jurídica no-code

ENATIC organiza un nuevo taller formativo TIClawyers, centrado en la automatización jurídica y el uso de herramientas no-code y low-code en el ejercicio profesional: una sesión orientada a ofrecer una visión práctica y aplicada sobre cómo estas tecnologías están transformando la forma de prestar servicios legales.

La jornada, que se celebrará el próximo 10 de diciembre a las 17:00h en formato webinar, se enmarca en el compromiso de ENATIC con la digitalización de la abogacía y el desarrollo de competencias directamente aplicables al día a día profesional, especialmente en un contexto en el que la inteligencia artificial se está convirtiendo en un pilar esencial del sector jurídico.

El taller será impartido por Karol Valencia, abogada especializada en innovación legal, legal tech y adopción práctica de inteligencia artificial en despachos y departamentos jurídicos. Actualmente, Karol desarrolla su actividad como AI Adoption & Change Management en Saga, plataforma europea de inteligencia artificial legal; y es cofundadora y CEO de WOW Legal Experience, consultora enfocada en la transformación digital del sector legal en Europa y Latinoamérica.

Durante la sesión se abordarán, entre otras cuestiones, qué se entiende por no-code y low-code en el contexto jurídico y cómo estas herramientas están impactando en el sector legal, así como casos reales de automatización aplicados en despachos y asesorías jurídicas.

El taller incluirá un recorrido práctico por la construcción de un flujo jurídico automatizado paso a paso, desde el intake de la información y su validación, hasta la generación de documentos y la notificación correspondiente, analizando además los errores más habituales en este tipo de proyectos y cómo evitarlos. Asimismo, se compartirán plantillas y herramientas prácticas orientadas a facilitar la aplicación inmediata de estos enfoques en el trabajo diario de los profesionales del derecho.

El encuentro se concibe como un espacio eminentemente práctico, orientado a demostrar que la automatización jurídica no es una tendencia reservada a grandes organizaciones ni requiere conocimientos avanzados de programación, sino que constituye una capacidad accesible y cada vez más relevante para ofrecer servicios legales eficientes, escalables y alineados con las exigencias actuales del mercado.

Ya puedes inscribirte.

Impacto geopolítico de la IA y ciberseguridad

ENATIC organiza un nuevo Foro ENATIC orientado a analizar el impacto geopolítico de la inteligencia artificial y la ciberseguridad, en un contexto en el que la tecnología se ha consolidado como un elemento central en la configuración del poder global.

La creciente relevancia de los datos, los algoritmos y las infraestructuras digitales está transformando las relaciones internacionales y planteando desafíos que trascienden el ámbito técnico, afectando directamente al Derecho, la soberanía y la gobernanza global.

En este foro se abordarán estas cuestiones desde una perspectiva jurídica, estratégica y ética, con el objetivo de ofrecer claves que permitan comprender cómo estos cambios inciden en el ejercicio profesional y en la toma de decisiones en entornos cada vez más interconectados y complejos.

La sesión contará con la participación de Antonio Serrano Acitores, profesor universitario y vocal de ENATIC, y Carlos Alberto Saiz Peña, abogado experto en privacidad y vicepresidente de ENATIC.

La moderación correrá a cargo de Belén Arribas Sánchez, presidenta de ENATIC, quien conducirá el diálogo y el intercambio de perspectivas entre los ponentes.

El encuentro se celebrará el próximo 24 de noviembre de 2025, en horario de 16:30 a 18:00 horas, en formato online, y estará dirigido exclusivamente a socios de ENATIC.

 La cirugía robótica en los seguros

¿Se cubre la cirugía robótica en las actuales pólizas de los seguros de salud?

Actualmente la doctrina no ofrece una respuesta unánime a este interrogante, haciendo depender la misma de diversos factores, como la compañía aseguradora de que se trate o el tipo de cobertura que se contrate. Algunos autores han revisado las condiciones generales, las notas informativas, así como los documentos de información sobre los productos de seguro de salud, encontrando que en alguno de ellos se cita expresamente la cirugía robótica, junto a la cirugía bariátrica, a la radiocirugía y la cirugía de párkinson, entre las cirugías no cubiertas. Ahora bien, en la documentación de otras compañías, a diferencia de los antedicho, se halla incluida expresamente la cirugía robótica, pero solo para determinados tratamientos quirúrgicos de cáncer y bajo ciertas condiciones e indicaciones. De otro lado, también depende de los diferentes tipos de contratos de seguros de salud que ofertan las compañías de seguros que sí la cubren, con una cobertura básica de bajo coste, o con otra más amplia de coste, y con copago o sin copago. La doctrina señala que, aunque estos factores sean realmente determinantes, el mercado de los seguros de salud se está encaminando a una oferta de seguros adaptada a las avanzadas técnicas quirúrgicas, como es la robótica.

Parte de la doctrina autorizada en la materia, como Marta García Mandaloniz y Félix Benito Osma, señalan que, aunque estos factores sean realmente determinantes, el mercado de los seguros de salud se está encaminando a una oferta de seguros adaptada a las avanzadas técnicas quirúrgicas, como es la robótica. También reiteran que es especialmente importante, a la hora de acceder a la prestación, la autorización previa de la compañía aseguradora, la prescripción del cuadro médico y, en ocasiones, también se precisa el pago de una franquicia. De esta forma, habiendo quedado incluido el tratamiento quirúrgico mediante la cirugía robótica, con los criterios que se indiquen en la póliza, podría solicitarse el reembolso, normalmente de forma limitada, cuando la intervención se realice por un facultativo ajeno al cuadro médico de la aseguradora con la que se ha contratado un seguro de reembolso.

Como ejemplos actuales, destacan diferentes entidades aseguradoras, bastante populares, que cubren la cirugía con asistencia robótica, como son Adeslas, desde el año 2024, y Seguros DKV, pero únicamente para el tratamiento quirúrgico de dos tipos de cánceres, como son el de próstata, mediante prostatectomía radical, y el carcinoma renal mediante nefrectomía parcial, y deben cumplirse determinadas condiciones de tamaño o estadio del tumor. En este sentido, cumpliéndose las condiciones, y si nos encontramos ante tratamientos quirúrgicos de cáncer, la cirugía robótica se incluye en la cobertura “plena extra o integral” si se realiza en los centros concertados, previa inscripción de un facultativo especialista del cuadro médico y con autorización de la aseguradora, además de con el pago de una franquicia del asegurado al asegurador.

En caso de que el paciente asegurado se someta a una cirugía robótica en los términos incluidos en las condiciones generales o particulares de la póliza, pero tal cirugía sea llevada a cabo por personal especialista que no esté dentro del cuadro médico de la entidad aseguradora, podrá solicitad el reembolso de los gastos sanitarios causados por la intervención hasta una cantidad máxima anual. Para poder solicitar el reembolso, habrá de acompañar a la solicitud el informe original emitido por el facultativo, donde quede acreditado el cumplimiento de los criterios exigidos.

Como último ejemplo, en las condiciones generales del seguro de enfermedad y asistencia sanitaria de MAPFRE Salud se contiene la cobertura de la cirugía robótica para un mayor número de tipo de cirugías oncológicas (la cirugía urológica, para el cáncer de próstata y el carcinoma renal; la cirugía ginecológica para el cáncer de endometrio, la cirugía del aparato digestivo, la colorrectal y la torácica) es estadios localizados y “exclusivamente mediante el robot da Vinci”, en el tenor literal de sus condiciones generales.

En este sentido, autoras como la citada Marta García Mandaloniz, consideran que lo ideal sería que la legislación no permitiese excluir de cobertura en aquellos seguros de enfermedad y asistencia sanitaria que incluyan la cirugía y la hospitalización la utilización del equipamiento robótico cuando esté disponible en los centros del cuadro médico y haya facultativos formados en el manejo de este instrumento. Sin embargo, la realidad es que la exclusión se permite y varía en función del tipo de póliza que se haya contratado, o de cuáles sean las condiciones e indicaciones e indicaciones específicas para unos u otros tratamientos

De haber una inclusión implícita de la cirugía robótica autónoma, en la hipótesis de que esa exclusión no se contuviere de forma expresa y particularizada, sino de un modo amplio y general, con alusión a algún término como el de “las nuevas tecnologías quirúrgicas”, o las “técnicas de uso no habitual”, para ser eficaz dicha exclusión, la aseguradora habría de probar la novedad o la inseguridad alegada de la técnica autónoma. Por tanto, de ni probar la aseguradora la novedad o inseguridad, no estaría excluida de cobertura cuando la exclusión fuese recogida en la póliza en esos términos. Todo ello en virtud de lo establecido en los artículos 1288 y 1289 del CC, de los que se deriva el conocido principio de interpretación in dubio contra proferenten. Esto se traduce en que, la oscuridad u opacidad del clausulado no puede perjudicar al paciente asegurado, en alusión también a la buena fe contractual, prevista en los artículos 1258 del CC, así como el artículo 57 del Código de Comercio.

BIBLIOGRAFÍA

ATIENZA NAVARRO, M.L., “Seguro de responsabilidad civil y daños causados por sistemas de inteligencia artificial”, Revista de Derecho del Sistema Financiero, núm. 6, septiembre 2023.

BENITO OSMA, F., «El riesgo, el interés y la prima del seguro de salud en un entorno digital y tecnológico», en GIRGADO PERANDONES, P. (Dir.), El contrato de seguro y su distribución en la encrucijada, ed. Thomson Reuters Aranzadi, Navarra, 2018.

Documento Adeslas “Novedades para seguir cuidando de ti. Queremos dar más valor a tu seguro. Por eso, en 2024 ampliamos coberturas y servicios”. Consultado en: https://www.segurvaixaadeslas.es/en/node/3320. Última fecha de consulta: 24 de octubre de 2024.

Documento Condiciones Generales Maphre Salud. Consultado en: https://www.mapfreventas.com/condiciones/cg-asistencia-sanitaria.pdf. Última fecha de consulta: 24 de octubre de 2025.

Documento DKV. Fuente: https://dkv.es/particulares/intervencion-quirurgica. Última fecha de consulta: 24 de octubre de 2024.

GARCÍA MANDALONIZ, M., “¿Cubren las pólizas de salud la cirugía robótica?”, Publicación doctrinal de Derecho y Economía de los seguros privados, SEAIDA, 2024.

TAPIA HERMIDA A.J., “El seguro de responsabilidad civil profesional de los operadores de sistemas de inteligencia artificial”, en MORENO MARTÍNEZ, J.A. FEMENÍA LÓPEZ, P.J. (coords.), Inteligencia artificial y derecho de daños: cuestiones actuales. Acorde al Reglamento (UE) 2024/1689, ed. Dykinson, Madrid, 2024.

Blanca Aparicio Araque
Contrata Predoctoral FPU Departamento Civil UCLM
Investigadora colaboradora del Centro de Estudios de Consumo 

LegalTech 2026: 10 tendencias que transformarán tu despacho

ENATIC organiza el webinar “LegalTech 2026: 10 tendencias que transformarán tu despacho”, una sesión orientada a analizar los principales vectores de cambio que están redefiniendo el ejercicio de la abogacía en un contexto de acelerada transformación tecnológica.

La irrupción de la inteligencia artificial, la automatización de procesos y la consolidación de nuevas herramientas digitales están modificando de forma sustancial la organización de los despachos, su relación con los clientes y los modelos de generación de valor en el sector legal.

En esta sesión se abordarán las diez tendencias clave que marcarán el corto plazo de la abogacía digital, con un enfoque práctico centrado en cómo integrar la tecnología de forma estratégica y alineada con las necesidades reales del ejercicio profesional.

El webinar contará con la intervención de Sara Molina Pérez-Tomé, vocal de ENATIC. Es consultora en innovación y transformación digital en el sector legal, con amplia experiencia internacional en proyectos de LegalTech, gestión contractual e implantación de inteligencia artificial en despachos y asesorías jurídicas.

La sesión será moderada por José Manuel Muñoz Vela, también vocal de la Asociación. Es abogado especializado en Derecho tecnológico e inteligencia artificial, doctor en Derecho y director jurídico de Adequa Corporación.

El encuentro se celebrará el próximo 11 de noviembre a las 17:00 horas (España), en formato online.

Acceso gratuito previa inscripción.

Gira de Derechos Digitales: Zaragoza

El próximo miércoles 5 de noviembre, a las 17:00h, el Real e Ilustre Colegio de Abogados de Zaragoza (REICAZ) acogerá una nueva sesión de la Gira de Derechos Digitales, iniciativa coorganizada por el Consejo General de la Abogacía Española y ENATIC. La jornada tendrá lugar en formato presencial y online, con carácter gratuito.

El programa se estructurará en tres bloques. Tras la presentación institucional, a cargo de Javier Prenafeta Rodríguez, diputado 6º del REICAZ y responsable de la Comisión de Tecnologías, se ofrecerá una introducción sobre el estado de los derechos digitales en el contexto europeo e internacional, de la mano de Berta Álvarez Ciordia, coordinadora de la Fundación Abogacía y Derechos Humanos.

El núcleo de la sesión estará dedicado al análisis de la Carta española de Derechos Digitales, con la intervención de Belén Arribas Sánchez, presidenta de ENATIC, quien abordará su alcance, su evolución y las cuestiones que plantea desde la perspectiva de su aplicación práctica.

La jornada se cerrará con un espacio de debate y preguntas, concebido como un foro para contrastar enfoques y trasladar el análisis al ejercicio profesional de la abogacía.

La actividad se enmarca en el Convenio suscrito entre Red.es, ENATIC y el Consejo General de la Abogacía Española, orientado a impulsar la implementación de la Carta de Derechos Digitales en los ámbitos de libertad, protección y seguridad en el entorno digital, con financiación del Plan de Recuperación, Transformación y Resiliencia a través de los fondos NextGenerationEU.

Puedes consultar el programa e inscribirte.

La Gira de Derechos Digitales llega a Cartagena y Murcia

Los próximos días 16 y 17 de octubre se celebrarán en los Colegios de la Abogacía de Cartagena y Murcia dos nuevas sesiones del ciclo formativo de ponencias sobre derechos humanos digitales, impulsado por el Consejo General de la Abogacía Española en colaboración con ENATIC.

La Gira de Derechos Digitales busca acercar a la profesión jurídica los principales retos que plantea la protección de los derechos fundamentales en el entorno digital, así como promover la capacitación en competencias específicas y la concienciación sobre la relevancia de estas garantías.

En ambas jornadas, que podrán seguirse de forma presencial y online, se abordará la Carta española de Derechos Digitales, analizando su génesis, desarrollo y desafíos como instrumento pionero en este ámbito, y se expondrá también la propuesta europea de Carta de Derechos Digitales, situando estos derechos como auténticos derechos humanos de cuarta generación.

Las sesiones contarán con la apertura institucional de los respectivos decanos de Cartagena y Murcia, y las intervenciones de Berta Álvarez Ciordia, coordinadora de la Fundación Abogacía, y José Manuel Muñoz Vela, abogado especialista en Derecho Digital, doctor en Derecho y vocal de ENATIC, que presentará las claves de la Carta de Derechos Digitales.

Estas actividades se enmarcan en el Convenio suscrito entre Red.es, Enatic y el Consejo General de la Abogacía Española, entre otras entidades; destinado a impulsar la implementación de la Carta de Derechos Digitales en los ámbitos de libertad, protección y seguridad en el mundo digital, con financiación del Plan de Recuperación, Transformación y Resiliencia a través de los fondos NextGenerationEU.

Consulta más información sobre las sesiones: Cartagena · Murcia.

Cine y televisión a la carta con IA

La inteligencia artificial cada vez abre más interrogantes legales en el campo del derecho digital y del entretenimiento. Un caso concreto es el de los derechos que se derivan de las creaciones conjuntas entre hombre e inteligencia artificial.

Cada día salen nuevas plataformas donde los usuarios pueden co-crear contenidos con sistemas de inteligencia artificial generativa. Plataformas como Midjourney o Stability AI, o Sora, ofrecen a los usuarios la posibilidad de crear imágenes y videos de manera conjunta. Cabe resaltar la reciente demanda que Disney y NBC Universal han presentado contra la compañía de servicios de inteligencia artificial, Midjourney, por haber creado imágenes a partir de sus películas. Alegan que la startup de IA generativa permite a los suscriptores generar imágenes que violan los derechos de autor al usar personajes como Deadpool, Lobezno, Spider-Man, los Minions, la sirenita, Homer Simpson o Shrek como base esencial para sus creaciones.

Pero una nueva ventana se abre en el campo del entretenimiento: la posibilidad de que usuarios/espectadores participen y desarrollen junto aplataformas como Netflix, Disney o Amazon, cortos, series o películas con la ayuda de la IA. En este caso, resulta importante reflexionar sobre la necesidad de regular este tipo de contenidos en las que el espectador se converiría en creador de su propia historia. Obras audiovisuales que permiten a los espectadores tomar decisiones en la trama para construir su “propia aventura” (véase por ejemplo el episodio Bandersnatch de la serie “Black Mirror” en la cual el espectador puede decidir el rumbo de la historia). En un futuro cada vez más próximo, el espectador no sólo podrá elegir la trama y el desenlace. También podrá escoger el género de la historia o incluso los actores que participarán en dichas películas mediante interpretaciones generadas por IA.

¿Podrán dar una respuesta adecuada los regímenes jurídicos vigentes a este nuevo contexto? ¿Cómo se deberá regular a futuro estas nuevas propuestas audiovisuales? ¿Estarán protegidos todos los derechos que entrañan estas nuevas formas de consumo, producción o distribución del contenido audiovisual?

No sería utópico pensar en un futuro mediato pensar que las plataformas negociaran con los productores o actores nuevos tipos de cesiones o licencias para poder ofertar por separado tramas, imágenes, voces, expresiones corporales o composiciones musicales y que sea el espectador quien orqueste y construya su propia trama y producto.

A partir de este escenario surgen un nuevo mercado, derechos y fuertes condicionantes objeto de negociación y contratación. A modo de ejemplo, si el rostro de los actores y su voz son procesadas para formar parte del futuro contenido creado por el espectador, la plataforma deberá contar con un consentimiento explícito y una cesión de derechos de imagen por parte del actor conforme a lo dispuesto en las distintas normativas internacionales en materia de protección de la imagen y datos, pues este tipo de procesamiento afectaría la imagen del actor, al igual que ocurriría con la voz, con las correlativas limitaciones y condiciones asociadas para evitar su inclusión en contextos y contenidos no deseados.

Se precisarán autorizaciones previas por parte de los artistas para que la utilización de su imagen como base para la creación de las llamadas “réplicas digitales” y para usos y contextos expresamente autorizados por el titular de los derechos, con las correlativas exclusiones y limitaciones -No son previsibles autorizaciones generales que puedan comportar elecciones del usuario en las que coloque al personaje réplica de la persona autorizante en cualquier situación, contexto o escena en el marco del contenido, por ejemplo, escenas de alto contenido sexual o cualquier otra que pueda afectar a la imagen y reputación del actor en el futuro (especialmente sin hubiera ya fallecido). En estos casos, a partir de la imagen y voz del actor, se produciría un contenido sintético, una actuación instruccionada por el usuario y creada por un algoritmo que tomará como base la imagen del actor. El guion podría ser susceptible de protección, en caso de reunir los requisitos para ello, por propiedad intelectual. Si bien, por lo que se refiere a la interpretación, como la música y otros contenidos, si éstos son generados por IA, se debe tener en cuenta que no serían susceptibles de registro, en tanto se considerarían un producto generado únicamente por IA y por ello no susceptible de protección por este cauce, ya que no se puede proteger por derechos de autor ninguna creación en la que no haya intervención humana significativa, conforme lo establece las normativas vigentes de derechos de autor.

En Estados Unidos el Right of publicity otorga a las personas, especialmente a las figuras públicas, el control exclusivo sobre el uso comercial de su nombre, imagen, voz y otros aspectos identificativos, aunque la regulación debe proteger no sólo a actores famosos y políticos, para lo que disponemos de las normativas de protección de datos, al igual que las proteccionistas de la imagen.

El uso de la imagen y voz en este contexto abre nuevos mercados donde no todo titular está conforme con participar en los mismos, conforme se está evidenciando ya en la actualidad. Los actores pueden ya obtener importantes beneficios licenciando su imagen y voz para crear contenido sintético, como ya se está negociando en la actualidad, mediante los contratos de cesión que se están promoviendo por la industria. Y no olvidemos el carácter de algunos de estos derechos, en función de la jurisdicción, como personalísimos, con el impacto que el marco jurídico aplicable puede tener en su cesión y explotación.

En mi opinión, necesitamos la revisión de los marcos jurídicos actuales para poder disponer de una regulación que abarque y dé una cobertura adecuada a está explotación de nuevos productos y nuevas formas de consumir los servicios ofertados por la industria. Es necesario que se proporcione seguridad jurídica y normas capaces de abarcar las nuevas formas de consumo, producción y comercialización del entretenimiento. Se avecina un mundo lleno de herramientas para el consumidor, en el marco de la inteligencia artificial y las nuevas tecnologías que de ella se derivan. Si avanzamos sin orden jurídico incurriremos en incertidumbre e inseguridad jurídica.

Luis Villamil Mendoza
Abogado especialista en Derecho audiovisual, tecnología y entretenimiento en Proyectil
Miembro ENATIC

ENATIC abre la incorporación de personas jurídicas

ENATIC da un paso adelante en su desarrollo institucional y permite, desde hoy, la afiliación de entidades como socios persona jurídica.

Con este lanzamiento, ENATIC abre la puerta a que empresas, despachos e instituciones vinculadas al Derecho Digital puedan integrarse en la asociación y participar en su actividad.

El objetivo es doble: enriquecer la comunidad profesional con la experiencia y la perspectiva de organizaciones que trabajan en el sector, y preservar, al mismo tiempo, el carácter profesional y participativo que define a ENATIC.

Los Estatutos de la Asociación ya contemplaban esta figura, desde su modificación en 2022. Ahora, con la aprobación de las condiciones particulares por la Junta Directiva, se han definido las modalidades de afiliación, que combinan la pertenencia de un socio de número y un número limitado de socios invitados por cada entidad.

Las cuotas anuales se han escalonado en cuatro categorías, de manera que cada organización pueda elegir la opción más adecuada al tamaño de su equipo.

Ya puedes solicitar el alta.

Entrenamiento de modelos de IA con contenidos protegidos por derechos de autor: Novedades judiciales sobre la doctrina del fair use.

Los debates jurídicos alrededor del entrenamiento de modelos de IA con contenidos protegidos por derechos de autor se están intensificando, especialmente en relación con la aplicación de las excepciones o limitaciones de los mismos, en particular respecto de la minería de textos y de datos (TDM) en la UE y el fair use en EE.UU., esgrimidas por la industria de la IA.

Mi opinión y posicionamiento desde hace años, expresada en diversas monografías, artículos de investigación y conferencias, ha sido muy contraria a la aplicación automática de estas excepciones, especialmente en el caso de la primera en el ámbito de la UE, en la medida que no fue concebida para legitimar la reproducción (en su caso) y uso de obras protegidas por derechos de autor para el entrenamiento de modelos de IA con finalidad comercial, sin autorización ni compensación de sus titulares.

En relación con la excepción de minería de textos y de datos, durante este último año se han ido sumando nuevas voces críticas en relación con su aplicación en este contexto, por ejemplo, expertos como Tim W. Dornis. Asimismo, esta cuestión protagonizó la tardía transposición de la Directiva (UE) 2019/790 sobre los derechos de autor y derechos afines en el mercado único digital por parte de Polonia, que analizó en su Proyecto de Ley de transposición la excepción de minería de textos y de datos previstos en la misma, concluyendo que “la reproducción de obras para minería de textos y datos no puede utilizarse para crear modelos generativos de inteligencia artificial”. Por último, el reciente borrador de informe sobre Copyright and generative artificial intelligence-opportunities and challenges, del Comité de Asuntos Jurídicos del Parlamento Europeo, de 27 de junio de 2025, en relación con la Propuesta de Resolución del Parlamento Europeo sobre los derechos de autor y la inteligencia artificial generativa – oportunidades y retos (2025/2058(INI)), abordó esta excepción, recomendando a la Comisión, con independencia de la revisión prevista del marco jurídico de los derechos de autor y de la Directiva de Derechos de Autor, que lleve a cabo urgentemente una evaluación exhaustiva de si el acervo existente de la UE en materia de derechos de autor aborda adecuadamente la inseguridad jurídica y los efectos sobre la competencia asociados al uso de obras protegidas y otras materias para el entrenamiento de sistemas de IA generativa. Del mismo modo, recomienda además que dicha evaluación tenga como objetivo apostar por un marco en el que los mecanismos de remuneración equitativa permitan generar los recursos necesarios para que la producción artística y creativa europea prospere en el contexto de la transformación mundial impulsada por la IA.

En relación con la doctrina del fair use estadounidense, durante los últimos meses se han sucedido las primeras resoluciones judiciales en EE.UU. sobre su aplicación al entrenamiento de modelos de IA en función del contexto, y que me permito analizar a continuación de manera sucinta dada la extensión limitada de este tipo de artículo, en colaboración con Mª José Montañana Bartual, quien ha profundizado en estas cuestiones y su análisis en un reciente y brillante trabajo de investigación elaborado en el marco académico de la Universidad de Valencia.

Resolución del Tribunal del Distrito de Delaware, dictada en el Caso Thomson Reuters Enterprise Centre GmbH vs. Ross Intelligence Inc. (No. 1:20-cv-613-SB). 11 de febrero de 2025 (1).

La resolución dictada por el Juez Stephanos Bibas, del Tribunal de Distrito de Delaware, representó un precedente fundamental en el derecho de autor estadounidense respecto al uso de obras protegidas por derechos de autor para el entrenamiento de modelos de IA. Se trata de la primera ocasión en la que un tribunal federal determinó que el uso de contenido protegido por derecho de autor para entrenar tecnología de IA no constituye un uso legítimo bajo la doctrina del fair use, sin perjuicio del precedente dictado en el asunto White v. West (2014), al que nos referiremos con posterioridad.

La demanda se interpuso por Thomson Reuters Enterprise Centre GmbH y West Publishing Corp contra Ross Intelligence Inc.

El objeto del litigio se sustentaba en la reproducción y uso de headnotes (2) protegidos por derechos de autor y pertenecientes a la herramienta Westlaw – una de las bases jurídicas más importantes de mundo titularidad de la parte demandante-, como datos de entrenamiento para un motor de búsqueda legal basado en IA comercializado por Ross Intelligence, un competidor emergente de Westlaw, para lo que contrató a un tercero (LegalEase), tras la negativa previa de Thomson Reuters a licenciarle su contenido para entrenar su sistema.

Westlaw contiene bases de datos legales organizadas mediante un sistema propietario llamado “Key Number System” e incluye «headnotes» o sumarios que identifican los aspectos clave de la resolución a la que van asociados.

La parte demandante argumentó que Ross había infringido sus derechos de autor sobre sus headnotes como obras individuales, sobre el sistema Key Number System como compilación protegida y sobre las decisiones editoriales incorporadas en 500 valoraciones judiciales.

Para la parte demandante los headnotes constituían obras originales protegibles por derechos de autor, ya que representaban una síntesis creativa de opiniones judiciales extensas, requiriendo juicio editorial para identificar los puntos de derecho más relevantes.

La parte demandada basó su defensa en el fair use argumentando, entre otros aspectos, de un lado, que su uso era transformativo al crear una nueva herramienta de investigación legal con propósito diferente al original, de otro, la falta de originalidad de los headnotes y, de otro, su uso intermedio para el entrenamiento de modelos de IA, como los que se vienen haciendo en la ingeniería inversa respecto del software.

El Juez consideró que los headnotes están protegidos por derechos de autor, considerando que son producto del trabajo intelectual de los redactores y que contienen explicaciones originales, habiéndose copiado más 2.200 headnotes de forma textual y casi idéntica.

El Juez estimó la mayor parte de las peticiones de la parte demandante, rechazando la aplicación del fair use esgrimido como argumento de defensa por Ross Intelligence para el entrenamiento de su modelo de IA, y declarando la infracción directa de los derechos de autor de la parte demandante por parte de la demandada.

La resolución judicial abordó la ponderación de los distintos factores a considerar para considerar concurrente la excepción de fair use, conforme a la disposición 17 U.S.C. § 107, esto es, la finalidad y carácter del uso (uso comercial y no transformador por parte de Ross, distinguiéndolo de casos anteriores como Google LLC v. Oracle Am., Inc., 593 U.S. 1 -2021-), la naturaleza de la obra protegida (aunque sea considerada de un nivel creativo medio o limitado y con originalidad), la cantidad y sustancialidad del uso de las obras protegidas (las headnotes no fueron incluidas por Ross en el producto final, solo fueron utilizadas para el entrenamiento del modelo) y el efecto en el mercado (con afectación del mercado existente y potencial de Westlaw y a su negocio, estando además entre los planes de Ross competir directamente con Westlaw). Este último factor fue considerado el más importante, conforme recoge en otros pronunciamientos judiciales anteriores referenciados en la resolución judicial, como en el asunto Harper & Row, Publishers, Inc. v. Nation Enterprises, 471 U.S. 539 (1985).

Una vez ponderados estos factores, el Juez consideró que la doctrina del fair use es inaplicable en el supuesto analizado, concluyendo que el uso de los headnotes para el entrenamiento de modelos de IA no era transformador y competía directamente con el producto original, afectando su mercado, por lo que dictó sentencia a favor de la parte demandante por infracción directa de los derechos de autor sobre los headnotes, rechazando la concurrencia de fair use.

Significar algunas de sus conclusiones: “No basta con decir que el uso fue ‘para entrenar una IA’ o que ‘nadie verá directamente los textos copiados’. Si estás usando algo protegido por derechos de autor con fines comerciales, y sin transformarlo realmente, no puedes escudarte en el fair use”. “No todo uso de obras protegidas para entrenar inteligencia artificial está amparado por el fair use”, especialmente cuando el uso no es realmente transformador y compite con el creador original.

El Juez Bibas introdujo una analogía innovadora comparando la creación de headnotes con el trabajo escultórico. Esta metáfora legal establece que, así como un escultor crea una obra protegible al extraer una forma de un bloque de mármol, los editores legales crean obras protegibles al extraer aspectos jurídicos clave de opiniones judiciales extensas.

Del mismo modo, la resolución establece una distinción entre el copying intermedio en casos de software y el entrenamiento de IA. Mientras que en casos precedentes como el indicado anteriormente entre Google vs Oracle permitieron el copying intermedio cuando era necesario para acceder a elementos funcionales no protegidos, el Juez determinó que esta justificación no se aplica al entrenamiento de IA con contenido no funcional.

El Juez también rechazó el argumento de que el entrenamiento de IA es inherentemente transformativo, estableciendo que el carácter transformativo debe evaluarse según el propósito específico del uso, no según la tecnología empleada. El caso sigue abierto donde deberá también dilucidarse sobre el uso del sistema de organización “Key Number”.

La decisión estableció un precedente restrictivo para compañías de IA que buscan utilizar contenido protegido por derechos de autor para entrenamiento, especialmente cuando a) exista competencia directa con el titular de derechos de autor; b) el uso sea comercial y sin transformación significativa y; c) afecte a mercados existentes o potenciales en relación con las obras originales.

No obstante, este pronunciamiento contrasta relativamente con otros posteriores dictados en casos recientes, como el de Anthropic o Meta, que se abordarán a continuación, en la medida que en estos últimos se determinó que el entrenamiento de IA con obras protegidas podría considerarse fair use «con transformación significativa». Estas discrepancias judiciales y la falta de una delimitación clara de la doctrina del fair use en el marco del entrenamiento de modelos de IA sugieren que la cuestión llegará a la Corte Suprema.

Resolución del Tribunal de Distrito del Norte de California (Caso C24- 05417 WHA) sobre el uso de obras protegidas por derechos de autor por parte de Anthropic PBC en el entrenamiento de modelos de IA (Claude). 23 de junio de 2025 (3).

La resolución constituye otro precedente fundamental en la aplicación de la doctrina del fair use al entrenamiento de modelos de IA con obras protegidas por derechos de autor. La decisión judicial establece criterios diferenciados para evaluar distintos usos de obras protegidas por derechos de autor en el desarrollo de IA, marcando límites claros entre usos legítimos e infracciones de los derechos de autor.

La demanda fue interpuesta por Andrea Bartz, Charles Graeber y Kirk Wallace Johnson como autores, junto con sus entidades titulares de derechos, frente a Anthropic PBC, empresa de IA desarrolladora del modelo Claude, por infracción de derechos de autor por la entidad demandada al supuestamente entrenar su modelo de IA utilizando libros protegidos por derechos de autor, algunos obtenidos de fuentes ilícitas (piratas) y otros adquiridos legítimamente por Anthropic.

La parte demandante alegó la infracción de sus derechos de autor por la reproducción no autorizada de sus obras para crear una biblioteca central de libros y entrenar los modelos de IA con sus obras, la retención en los modelos de copias comprimidas de sus obras, la obtención de sus obras de fuentes ilícitas -piratas-, la no aplicación del fair use como causa legitimadora para el entrenamiento de modelos de IA con sus obras y la emulación de su estilo y expresión narrativa por parte del sistema generativo de la demandada. Y todo ello significando la naturaleza comercial lucrativa del negocio de Anthropic y el daño en el mercado, dado que el uso desplazaba ventas potenciales y mercados de licenciamiento emergentes.

Por su parte, la parte demandada reconoció el uso y copia masiva de obras y argumentó, entre otros aspectos, de un lado, que lo hizo con finalidad y uso transformativo de entrenamiento de sus modelos de IA y para la construcción de una biblioteca de investigación interna, de otro, que sus modelos no reproducen directamente las obras y, por último, que la transformación mediante la digitalización de libros físicos comprados en tiendas y plataformas para su conversión en PDF para uso interno era un uso razonable y legítimo (fair use). Adicionalmente, argumentó la analogía con el aprendizaje humano, comparando el entrenamiento de IA con el proceso de lectura y aprendizaje humano, de modo que no debería haber diferencias en el tratamiento legal, junto con el beneficio público para la sociedad de todo ello y la necesidad técnica de utilizar grandes volúmenes de datos para entrenar los modelos de IA.

Según recoge la resolución, Anthropic descargó millones de copias pirateadas de libros desde sitios como Books3, LibGen y PiLiMi entre 2021-2022. Posteriormente compró millones de libros físicos, los destruyó y los digitalizó para crear una «biblioteca de investigación central», utilizó subconjuntos de estas obras para entrenar diversos modelos de lenguaje que alimentan a Claude y generó más de mil millones de dólares en ingresos anuales.

El Juez William Alsup, a diferencia de la resolución anteriormente analizada, admitió el fair use para el entrenamiento de los modelos de la parte demandada con obras protegidas adquiridas en el mercado por la misma y su digitalización, si bien, rechazó el fair use respecto de obras obtenidas de fuentes ilícitas, considerando su uso una infracción.

El Juez tomó como referencia normativa para su resolución la disposición 17 U.S.C. § 107 – Fair Use Doctrine, así como casos precedentes como: Google v. Oracle (593 U.S. 1, 2021), que admite el fair use incluso en uso comercial si el fin es suficientemente transformador; Campbell v. Acuff-Rose (510 U.S. 569, 1994), que aborda el uso paródico como fair use; Authors Guild v. Google (804 F.3d 202, 2d Cir. 2015), que establece que escaneo masivo de libros puede ser fair use; Andy Warhol Foundation v. Goldsmith (2023); Thomson Reuters v. Ross (D. Del. 2025), que establece que el uso de textos jurídicos para IA no fue transformativo o; White v. West Pub. (S.D.N.Y. 2014), que consideró que constituye fair use usar textos jurídicos y justificado convertir y reutilizar material público de manera transformativa en bases de datos comerciales.

De este modo, el Juez admitió el fair use esgrimido por la parte demandada, tanto para el entrenamiento de sus modelos -considerando que sus modelos fueron entrenados con los libros, sin reproducción de los textos (aprenden patrones y estructura de lenguaje), sin generación de resultados de salida literales de las obras a los usuarios y con un uso transformativo, equiparando el proceso a cómo una persona aprende a escribir leyendo libros-, como para la conversión de libros comprados de formato físico a digital con finalidades de almacenamiento y búsqueda. Sin embargo, se rechazó la aplicación del fair use en relación con la descarga de libros por la parte demandada desde sitios piratas como Books3, LibGen o PiLiMi para conformar una biblioteca centralizada.

En definitiva, la doctrina sobre la que se sustenta esta resolución es que “el uso de libros adquiridos legalmente para entrenamiento de IA sería fair use”, considerando dicho uso transformativo a los efectos de la aplicación de la excepción. La creación de copias digitales a partir de libros comprados también lo es. Pero la piratería masiva para construir una biblioteca permanente no lo es y constituye una infracción. Significar, entre otros aspectos criticables de la resolución, que las obras protegidas fueron adquiridas en el mercado por la parte demandada con esa particular finalidad comercial pero no fueron puestas en el mercado y comercializadas por los titulares de los derechos sobre las mismas con dicha finalidad para sus usuarios, sino para un uso privado no comercial.

La resolución abre la vía para una demanda de responsabilidad multimillonaria contra Anthropic que podría impactar en negocio e incluso en su continuidad, por lo que acaba de reforzar su defensa con la contratación de varios abogados expertos para afrontar la misma.

Resolución del Tribunal de Distrito del Norte de California (caso No. 3:23- cv-03417, VC) en la demanda por infracción de derechos de autor contra Meta Platforms, Inc. por el uso de libros protegidos en el entrenamiento de modelos de IA (LLaMA). 25 de junio de 2025 (4).

La demanda fue interpuesta por distintos autores como Sarah Silverman, Christopher Golden y Richard Kadrey frente a Meta Platforms, Inc., por el entrenamiento por parte de ésta de sus modelos de IA LLMs (LLaMA 1 y LLaMA 2) con libros protegidos por derechos de autor sin autorización ni compensación, y desde fuentes ilícitas (piratas).

La parte demandante alegó una infracción masiva por entrenamiento de modelos de IA con obras protegidas, Según la misma, Meta obtuvo libros desde fuentes ilícitas (piratas), copiando y procesando íntegramente sus obras sin autorización ni compensación para entrenamiento de sus modelos, argumentando que dichos modelos podrían reproducir fragmentos protegidos y contenidos que compiten con los suyos, y que ello perjudica su capacidad de licenciar sus obras.

La parte demandada reconoció haber utilizado materiales pirateados, pero argumentó que dicho uso constituye fair use conforme a la disposición 17 U.S.C. § 107, invocando la naturaleza transformadora del entrenamiento de sus modelos y sosteniendo que los mismos no reproducen ni distribuyen directamente las obras protegidas o fragmentos de ellas, conforme la parte demandante no demostró, sino que se convierten en patrones estadísticos.

Para la parte demandada, entrenar sus modelos LLMs era un uso transformativo distinto al de lectura o entretenimiento, equiparable a cómo aprender de una obra para producir algo diferente.

El Juez tomó como referencia normativa para su resolución la disposición 17 U.S.C. § 107 – Fair Use Doctrine, así como los siguientes casos: Twentieth Century Music Corp. v. Aiken, 422 U.S. 151, 156 (1975); Harper & Row Publishers, Inc. v. Nation Enterprises, 471 U.S. 539, 566 (1985); Campbell v. Acuff-Rose Music, Inc., 510 U.S. 569, 590 (1994); Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417, 430 (1984); Google LLC v. Oracle America, Inc., 593 U.S. 1, 18 (2021), que admite el fair use incluso en uso comercial si el fin es suficientemente transformador; Andy Warhol Foundation for the Visual Arts, Inc. v. Goldsmith, 598 U.S. 508, 526 (2023); Authors Guild v. Google (804 F.3d 202, 2d Cir. 2015), que establece que escaneo masivo de libros puede ser fair use; Thomson Reuters v. Ross (D. Del. 2025), que establece que el uso de textos jurídicos para IA no fue transformativo y; White v. West Pub. (S.D.N.Y. 2014).

La doctrina sobre la que el Juez sustentó esta resolución es que el uso de libros para entrenamiento de modelos de IA sería fair use, en defecto de alegaciones y pruebas que motiven determinar su no concurrencia, considerando el carácter transformador de dicho entrenamiento y no considerando la concurrencia de daños al mercado.

A diferencia del pronunciamiento judicial analizado en el caso Claude, C24- 05417 WHA, junio 2025, el Juez, Vince Chhabria, desestimó la petición contra Meta, argumentando que el entrenamiento de los modelos de IA era altamente transformador y que los demandantes no demostraron un daño real ni impacto en el mercado, aplicando la doctrina del fair use.

El juez reconoció que el uso de obras protegidas sin autorización para entrenar IA podría ser ilegal en muchos contextos, pero en este caso concreto la demanda fue desestimada por falta de pruebas y por la argumentación incorrecta de los demandantes según el juzgador. La decisión enfatizó que el fallo no implica que cualquier uso de obras protegidas por Meta sea legal, sino que los demandantes no lograron fundamentar adecuadamente su reclamación en instancia. El fallo no pretende avalar automáticamente toda práctica de la parte demandada.

Al igual que en el caso Bartz contra Anthropic, el juzgador consideró que el fair use eximía de responsabilidad a la parte demandada por supuesta infracción de derechos de autor. Ambos tribunales llegaron a la misma conclusión, si bien, sus razonamientos sobre la aplicación de la prueba de los cuatro factores de la doctrina del fair use (finalidad y carácter, naturaleza de la obra, cantidad usada y efecto en el mercado) fueron diferentes y con importantes salvedades.

El juez Chhabria, en el caso Meta, abordó con profundidad un posible argumento que los demandantes podrían haber esgrimido, pero que no presentaron de forma adecuada, esto es, que Meta había “copiado sus obras para crear un producto que probablemente inundaría el mercado con obras similares, provocando una dilución del mercado”. La teoría de la dilución es novedosa en el ámbito de los derechos de autor y se base en la expectativa de que los usuarios de sistemas generativos puedan producir volúmenes tan grandes de obras generadas por IA que los mercados ser verán inundados de obras generadas por IA que competirán con obras creadas por autores humanos, de modo que se desincentivarán éstos para crear obras nuevas y no
podrán vivir de la creación y explotación de sus obras.

Según el juez, si la parte demandante hubiera presentado alguna prueba que un jurado pudiera haber utilizado para determinar que los demandantes se  enfrentaban a tal dilución del mercado, la demanda interpuesta habría tenido que ser sometida a un jurado (no sumario), por lo que considera que el tribunal “no tenía más remedio” que dictar una resolución sumaria. El Juez considera en su resolución que la parte demandante presentó argumentos erróneos.

En definitiva, la resolución dictada constituye una decisión limitada al caso concreto y evidencia, a nuestro juicio, que el debate jurídico sobre la doctrina del fair use sigue abierto, en la medida que la aplicación de misma no está claramente delimitada y el posicionamiento de expertos no es pacífico, de modo que es previsible la intensificación del debate doctrinal y litigioso en EE.UU. Actualmente hay más de 40 procedimientos judiciales en tramitación sobre estos aspectos y habrá que esperar a la firmeza de sus resoluciones para conformar la doctrina del uso legítimo.

José Manuel Muñoz Vela
Abogado especialista en Derecho Digital e IA
Doctor en Derecho (IA)
Director Jurídico Adequa Corporación

Mª José Montañana Bartual
Graduada en Derecho y Criminología
Universidad de Valencia


(1) Thomson Reuters v. ROSS Intelligence, 1:20‑cv‑613‑SB (D. Del., feb‑2025)
(2) Son resúmenes breves que Westlaw crea para cada sentencia judicial
(3) Recuperado de https://regmedia.co.uk/2025/06/24/anthropic.pdf. Consultado el 28 de junio de 2025.
(4) Recuperado de https://cdn.arstechnica.net/wp-content/uploads/2025/03/Kadrey-v-Meta-Motion-for-Summary-Judgment-3-10-25.pdf. Consultado el 28.06.2025