Entradas

Ilustración conceptual de un mazo judicial rompiendo una interfaz digital de Telegram con la imagen de Pavel Durov y el mapa de España, representando el debate jurídico sobre el uso masivo de datos personales y poder de plataforma.

Cuestiones jurídicas y políticas en torno a un mensaje masivo de Pavel Durov por Telegram

I. El hecho que origina la reflexión

La noticia llegó sin previo aviso ni solicitud de permiso. Millones de usuarios de Telegram residentes en España encontraron en sus dispositivos un mensaje que no procedía de ningún contacto personal, ni de un canal al que hubieran decidido suscribirse, ni siquiera de una notificación de servicio habitual. El remitente era el propio Pavel Durov, fundador y director ejecutivo de la plataforma, quien había decidido utilizar la infraestructura de mensajería para dirigirse directamente a una audiencia geográficamente segmentada con un contenido que trascendía claramente la mera información técnica o administrativa. El mensaje versaba sobre la propuesta del presidente del Gobierno español, Pedro Sánchez, de limitar el acceso a redes sociales para menores de 16 años, y planteaba argumentos en contra de dicha medida.

Este hecho, aparentemente aislado, abre una serie de cuestiones jurídicas de extraordinaria complejidad que trascienden el caso concreto. No se trata únicamente de determinar si el contenido del mensaje era acertado o equivocado desde una perspectiva política o pedagógica. El verdadero problema reside en el modo de transmisión, en el quién que habla, en el cómo se selecciona la audiencia y en el para qué se movilizan recursos técnicos y datos personales. La reflexión que sigue no pretende tomar partido por ninguna de las posiciones políticas en juego, sino examinar con rigor las implicaciones jurídicas de un fenómeno que ilustra la mutación del poder en la era digital.

II. La naturaleza del mensaje y la arquitectura de la plataforma

Para comprender la gravedad del asunto, conviene detenerse primero en las características técnicas del envío. Telegram no es una red social al uso, diseñada para la publicación de contenidos que el usuario busca activamente o al que se suscribe mediante un acto voluntario de seguimiento. Es, ante todo, un sistema de mensajería directa, concebido para la comunicación interpersonal o la recepción de información en canales optativos. Esta diferencia arquitectónica no es meramente descriptiva; tiene consecuencias jurídicas relevantes. Cuando un ciudadano abre Facebook o Twitter, asume que está entrando en un espacio de exposición pública o semipública, donde los algoritmos seleccionan contenidos y donde la publicidad política está regulada, al menos en teoría. Pero cuando abre Telegram, espera encontrar mensajes de sus contactos, de grupos en los que ha decidido participar o, como mucho, avisos técnicos de la propia plataforma sobre actualizaciones de seguridad o nuevas funcionalidades.

El mensaje de Durov irrumpió en este espacio de comunicación presumiblemente privada o controlada sin mediación de elección alguna por parte del receptor. No hubo opt-in, no hubo suscripción previa, no hubo siquiera la posibilidad de anticipar que el canal oficial de notificaciones de la plataforma —aquella vía que el usuario entiende reservada para comunicaciones de servicio— sería utilizado para la transmisión de argumentación política. Debe tenerse presente que esta intrusión no es comparable a la recepción de un correo publicitario en una cuenta de email, donde el usuario ha facilitado su dirección y donde la publicidad, aunque molesta, se inscribe en una lógica comercial esperada. Aquí estamos ante algo distinto: el uso de datos de geolocalización y de condición de usuario activo en territorio español para la inserción de un contenido ideológico en un canal que el destinatario no puede desactivar sin renunciar a recibir notificaciones esenciales del servicio.

III. El problema del consentimiento y la base jurídica en el Reglamento General de Protección de Datos

El núcleo duro del análisis jurídico reside en la conformidad de esta práctica con el Reglamento General de Protección de Datos. El artículo 6 del Reglamento exige que todo tratamiento de datos personales cuente con una base jurídica que lo legitime, ya sea el consentimiento del interesado, la ejecución de un contrato, el cumplimiento de una obligación legal, la protección de intereses vitales, la misión de interés público o el interés legítimo del responsable. En el caso que examinamos, la utilización de la ubicación geográfica de los usuarios y de su condición de residentes en España para segmentar el envío del mensaje constituye, indudablemente, un tratamiento de datos personales. La cuestión es determinar sobre qué base jurídica se sustenta.

Telegram podría argumentar que el tratamiento se ampara en la ejecución del contrato de prestación de servicios, entendiendo que la comunicación con los usuarios forma parte de la relación contractual. Sin embargo, esta tesis encuentra un obstáculo insalvable: la finalidad del tratamiento. La ejecución de un contrato no puede servir de cobertura jurídica para finalidades que no guardan relación directa con la prestación del servicio objeto del acuerdo. Cuando un operador de telecomunicaciones envía una factura o una notificación de incidencia técnica, actúa dentro del mar contractual. Pero cuando utiliza la misma infraestructura para influir en un debate legislativo nacional, está dando un salto cualitativo que excede con creces los límites de la prestación de servicios de mensajería.

También podría invocarse el interés legítimo del responsable, reconocido en el artículo 6.1.f del Reglamento. No obstante, este interés debe conciliarse con los derechos y libertades fundamentales de los interesados, y debe ser ponderado mediante un test de tres pasos: la finalidad debe ser legítima, el tratamiento debe ser necesario para dicha finalidad, y debe prevalecer el interés del responsable sobre los derechos del afectado. En nuestro caso, la finalidad —participar en un debate político nacional utilizando la infraestructura propia— es, cuanto menos, discutible como legítima en el contexto de una relación de consumo de servicios digitales. La necesidad del tratamiento es igualmente cuestionable, pues existen medios alternativos para expresar opiniones políticas que no impliquen la utilización de datos personales de millones de usuarios. Y en cuanto a la ponderación, resulta difícil sostener que el interés de un empresario en influir en la legislación española prevalezca sobre el derecho de los usuarios a no ser receptores cautivos de comunicaciones políticas no solicitadas.

El consentimiento, por su parte, parece ausente en su forma más exigente. El Reglamento demanda un consentimiento libre, específico, informado e inequívoco. Los usuarios de Telegram no consintieron expresamente la recepción de mensajes políticos del fundador cuando aceptaron las condiciones de servicio. Las cláusulas contractuales generales que autorizan a la plataforma a enviar «comunicaciones» no pueden interpretarse como un blank check para la utilización de la infraestructura con fines ideológicos. Hay que reseñar que el Tribunal de Justicia de la Unión Europea ha reiterado en múltiples ocasiones que el consentimiento debe entenderse restrictivamente y que no puede confundirse con la mera aceptación de condiciones generales.

IV. La reutilización de datos y la analogía del operador neutral

Para ilustrar la problemática, resulta útil recurrir a una analogía con sectores regulados tradicionalmente. Imaginemos que Correos, empresa pública que gestiona la infraestructura postal, decidiera utilizar su base de datos de destinatarios para enviar a todos los hogares españoles un folleto argumentando en contra de una reforma legislativa que afectara a su sector. Incluso dejando de lado la condición pública de la entidad, la utilización de información de clientes —direcciones postales, hábitos de recepción— para fines de influencia política constituiría una vulneración flagrante de los principios de protección de datos. El ciudadano confía su dirección al operador postal para recibir correspondencia, no para convertirse en destinatario de propaganda política segmentada.

Otra analogía puede servir para clarificar el problema. Consideremos un operador de telecomunicaciones que ofrece servicios de telefonía móvil. Este operador mantiene una posición de «neutralidad de red» en el sentido de que se limita a transmitir las comunicaciones de sus clientes sin interferir en el contenido. Si dicho operador decidiera enviar un mensaje de texto masivo a todos sus usuarios en territorio español para posicionarse en un debate político, estaría traspasando los límites de su función técnica y comercial. Lo anterior me sugiere que las plataformas de mensajería instantánea, aunque no estén sujetas a la regulación de operadores de telecomunicaciones tradicionales, deberían observar estándares similares de neutralidad respecto de los contenidos que no forman parte del servicio contratado.

La comparación con Correos o con un operador de telecomunicaciones que se mantiene «memoryless» —es decir, que no explota la información de tráfico para otros fines— ilustra la idea de que el intermediario no debería utilizar su posición privilegiada para usos diferentes a la mera prestación del servicio, salvo que el usuario lo haya consentido de forma clara y separada. La reutilización de datos de geolocalización y de uso de la plataforma para fines políticos representa precisamente esa transgresión de los límites funcionales del servicio.

V. La frontera entre comunicación corporativa y activación política

Una de las cuestiones más delicadas que plantea este caso es la determinación del momento en que una comunicación de servicio se transforma en activación política. Las empresas, incluidas las plataformas digitales, tienen legítimamente derecho a informar a sus usuarios sobre cuestiones que afectan a su actividad. Un aviso sobre cambios en las condiciones de servicio, una alerta sobre vulnerabilidades de seguridad o una notificación sobre modificaciones regulatorias que impacten en la funcionalidad de la aplicación entran dentro de lo razonable y esperable. Incluso una comunicación explicando los riesgos que una determinada regulación podría entrañar para la continuidad del servicio podría considerarse legítima, siempre que se mantenga en un tono informativo y técnico.

Sin embargo, el mensaje de Durov traspasó esa línea divisoria. No se limitó a informar sobre la propuesta legislativa ni a explicar sus posibles efectos técnicos en la operativa de Telegram. Fue, en esencia, un argumentario en contra de la medida, formulado en términos que buscaban movilizar la opinión de los receptores y, presumiblemente, influir en el proceso político de toma de decisiones. Entiendo que esta distinción es crucial: no es lo mismo alertar a los usuarios de que una ley podría obligar a modificar el funcionamiento de la aplicación, que utilizar el canal de notificaciones para instar a la oposición a dicha ley.

El Reglamento de Servicios Digitales, aplicable desde 2024, introduce obligaciones de transparencia y de gestión de riesgos para las plataformas muy grandes, pero no regula expresamente este tipo de comunicaciones corporativas con contenido político. No obstante, sus principios generales de transparencia y de respeto a los derechos fundamentales de los usuarios pueden interpretarse en el sentido de que las plataformas deben mantener una cierta neutralidad respecto de los debates políticos nacionales, especialmente cuando utilizan datos personales para segmentar sus comunicaciones. La frontera entre un aviso de servicio al cliente y el uso de la infraestructura para influir en la opinión pública es, en este caso, particularmente difusa, y esa opacidad genera inseguridad jurídica.

VI. El poder de plataforma como poder normativo de facto

Más allá de las cuestiones estrictamente vinculadas a la protección de datos, el caso Durov ilustra un fenómeno de mayor calado: la transformación del poder tecnológico en poder político. Cuando el fundador de una plataforma con cientos de millones de usuarios puede, con un simple gesto técnico, llegar a millones de dispositivos en un país específico para posicionarse en un debate legislativo, está ejerciendo una forma de poder que no se ajusta a las categorías tradicionales del Derecho constitucional ni del Derecho administrativo. No es un poder público, legitimado democráticamente. No es tampoco un poder privado convencional, sometido a las reglas de la competencia y del mercado. Es algo distinto, que los estudiosos de la gobernanza digital han denominado «poder de plataforma».

Este poder es normativo en el sentido de que configura las posibilidades de acción de los ciudadanos, establece los términos de la comunicación pública y, en última instancia, puede condicionar los procesos de formación de la voluntad política. Cuando Durov envía su mensaje, no está ejerciendo su libertad de expresión en condiciones de igualdad con otros ciudadanos. Está aprovechando una asimetría estructural: el acceso privilegiado a una infraestructura de comunicación que sus receptores no pueden evitar sin renunciar a un servicio que, en muchos casos, utilizan para su vida personal y profesional cotidiana.

La neutralidad de las plataformas frente a los poderes públicos es, en este contexto, un valor jurídico discutible pero necesario. No se trata de exigir a las empresas tecnológicas que carezcan de opinión o que se abstengan de participar en los debates públicos. El problema surge cuando esa participación se realiza utilizando recursos que derivan de una posición de dominio estructural, y cuando se dirige a una audiencia cautiva que no ha elegido recibir esos mensajes. Ello me obliga a deducir que estamos ante una forma de poder que requiere de mecanismos de rendición de cuentas y de limitación, análogos en alguna medida a los que se aplican a los poderes públicos.

VII. La opacidad en la selección de destinatarios y el principio de transparencia

Un elemento adicional de preocupación reside en la falta de claridad sobre los criterios de segmentación del mensaje. No todos los usuarios de Telegram en España recibieron la comunicación de Durov, aunque muchos de ellos llevan años utilizando la plataforma. Esta selectividad, lejos de ser aleatoria, sugiere la existencia de algún tipo de algoritmo o criterio de segmentación cuya lógica no ha sido revelada. ¿Se dirigió el mensaje solo a usuarios activos en los últimos 30 días? ¿A aquellos con determinadas características de uso? ¿A los que habían interactuado con canales políticos previamente? La opacidad respecto de estos criterios agrava la problemática jurídica, porque impide a los afectados comprender por qué han sido seleccionados como receptores de una comunicación política.

El principio de transparencia, consagrado en el artículo 5 del Reglamento General de Protección de Datos, exige que los interesados sean informados de las finalidades del tratamiento y de la lógica que subyace a las decisiones automatizadas que les afectan. Si la selección de destinatarios respondió a un perfilado basado en datos de comportamiento, ubicación o uso de la aplicación, los usuarios tendrían derecho a conocer los criterios aplicados y, en su caso, a oponerse a dicho tratamiento. La falta de información al respecto constituye una vulneración de este principio fundamental.

Considero que esta opacidad no es un defecto menor, sino un síntoma de una gobernanza de datos insuficiente. Las plataformas han construido arquitecturas técnicas que permiten una granularidad extrema en la segmentación de audiencias, pero no han desarrollado paralelamente mecanismos de rendición de cuentas que hagan transparentes esas prácticas. Cuando el segmento seleccionado son millones de ciudadanos de un país determinado para recibir un mensaje político, la exigencia de transparencia adquiere una dimensión constitucional relevante.

VIII. Las posiciones en el debate: entre la libertad empresarial y la protección del usuario

El análisis de este caso no estaría completo sin referencia a las distintas posiciones que el mismo ha suscitado en la comunidad jurídica y tecnológica. Por un lado, encontramos posturas que relativizan la gravedad del hecho. Se argumenta que Telegram es una plataforma privada y que, como cualquier otro medio de comunicación —prensa, televisión, radio— tiene derecho a utilizar su arquitectura para difundir mensajes, incluso de carácter político. Desde esta perspectiva, el usuario que no desea recibir tales comunicaciones puede ejercer su libertad de abandonar la plataforma. Esta visión enfatiza la libertad de expresión del empresario y la libertad de empresa, entendiendo que las restricciones al uso de la infraestructura propia constituirían una intromisión injustificada.

Por otro lado, se encuentran las posturas que subrayan la especificidad del poder de plataforma. Estas voces señalan que no es comparable el poder de un periódico, que el lector elige comprar o no, con el poder de una aplicación de mensajería que se ha convertido en infraestructura esencial de la comunicación cotidiana. La alternativa de «irse si no te gusta» es, en este contexto, una falsa libertad, porque el coste de abandono —pérdida de contactos, de historiales, de integración en comunidades profesionales o personales— es prohibitivamente alto para la mayoría de usuarios. Además, se destaca que ni siquiera existe la posibilidad de optar por no recibir este tipo de comunicaciones sin renunciar a las notificaciones esenciales del servicio.

Existen también posiciones intermedias que intentan enmarcar el mensaje de Durov como una forma de «servicio al cliente» o de alerta sobre riesgos regulatorios que afectarían a la propia plataforma. Sin embargo, esta interpretación encuentra dificultades para distinguir entre una información objetiva sobre cambios normativos y una argumentación política contra los mismos. La línea es tenue, pero discernible: un aviso técnico informa, una comunicación política persuade. El mensaje de Durov pertenecía claramente a esta segunda categoría.

IX. La tensión entre libertades en conflicto

El caso que analizamos pone de manifiesto una tensión fundamental entre libertades constitucionalmente protegidas que entran en colisión. Por una parte, la libertad de expresión de Pavel Durov, que incluye el derecho a expresar su opinión sobre cuestiones de interés público como la regulación de las redes sociales. Por otra, la protección de la intimidad y de los datos personales de los usuarios, que abarca el derecho a no ser objeto de comunicaciones no solicitadas que utilicen información personal para la segmentación. A ello hay que añadir la libertad de empresa, que ampara la gestión de la plataforma, y los derechos de los ciudadanos a una información plural y no condicionada por el poder asimétrico de los grandes operadores digitales.

La resolución de este conflicto no puede ser mecánica ni absolutista. No es admisible privilegiar indefinidamente la libertad de expresión del empresario sobre la protección de datos de millones de usuarios, ni tampoco es razonable imponer una neutralidad total que impida a las plataformas comunicarse con sus usuarios sobre cuestiones que les afectan. El Derecho, en estos casos, debe buscar una ponderación que preserve el núcleo esencial de cada libertad y limite sus manifestaciones excesivas.

En mi opinión, la solución pasa por establecer una clara separación entre los canales de comunicación de servicio y los canales de comunicación política o ideológica. Los usuarios deberían poder optar expresamente por recibir comunicaciones de este último tipo, y su silencio o inacción debería interpretarse en sentido contrario. Asimismo, la utilización de datos personales para segmentar comunicaciones políticas debería estar sometida a un estándar de consentimiento específico, informado y separado, que no puede cubrirse con las cláusulas generales de las condiciones de servicio.

X. Conclusiones

El mensaje de Pavel Durov a los usuarios españoles de Telegram, lejos de ser un incidente menor o una anécdota de la comunicación digital, constituye un caso paradigmático de las transformaciones que el poder está experimentando en la era de las plataformas. Nos enfrentamos a entidades privadas que concentran capacidades técnicas de comunicación masiva, segmentación precisa y llegada directa que superan ampliamente los medios tradicionales, y que pueden desplegar estas capacidades sin los contrapesos institucionales que limitan a los poderes públicos.

Desde la perspectiva del Derecho digital, este caso ejemplifica la necesidad de desarrollar marcos normativos que aborden específicamente el «poder de plataforma» como una categoría jurídica autónoma. El Reglamento General de Protección de Datos y el Reglamento de Servicios Digitales constituyen pasos importantes, pero insuficientes para abordar todas las dimensiones del problema. Necesitamos reglas claras sobre la utilización de datos personales para comunicaciones corporativas con contenido político, mecanismos efectivos de transparencia en los sistemas de segmentación de audiencias, y salvaguardas que garanticen que los usuarios no se conviertan en receptores cautivos de mensajes ideológicos no solicitados.

El riesgo último no es que un empresario concreto exprese su opinión sobre una regulación específica. El peligro real reside en la normalización de una práctica que difumina la frontera entre servicio de comunicaciones, medio de información y actor político con acceso privilegiado. Si legitimamos que los fundadores de grandes plataformas utilicen canales «obligatorios» o semi-oficiales para la transmisión de mensajes políticos, estaremos consolidando una forma de poder que escapa a los mecanismos democráticos de control y rendición de cuentas.

La reflexión final debe orientarse hacia la construcción de un espacio digital donde la libertad de expresión de todos —incluidos los empresarios de la tecnología— coexista con la protección de los derechos de los ciudadanos y con la preservación de la integridad de los procesos democráticos. Esto exige, en última instancia, que el Derecho evolucione al mismo ritmo que la tecnología, sin renunciar a sus principios fundamentales ni a su capacidad de proteger a los más vulnerables frente a las asimetrías de poder que caracterizan nuestra era digital.

XI. Referencias normativas y bibliográficas

1) Normativa de la Unión Europea

Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (Reglamento General de Protección de Datos).

Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales).

Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico, en el mercado interior (Directiva sobre el comercio electrónico).

Directiva 2002/58/CE del Parlamento Europeo y del Consejo, de 12 de julio de 2002, relativa al tratamiento de los datos personales y a la protección de la intimidad en el sector de las comunicaciones electrónicas (Directiva de privacidad y comunicaciones electrónicas).

Reglamento (UE) 2018/1807 del Parlamento Europeo y del Consejo, de 14 de noviembre de 2018, relativo a un marco para la libre circulación de datos no personales en la Unión Europea.

Reglamento (UE) 2019/1150 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativo a la promoción de la equidad y la transparencia para los usuarios empresariales de servicios de intermediación en línea.

Carta de los Derechos Fundamentales de la Unión Europea, proclamada en Estrasburgo el 7 de diciembre de 2000.

2) Normativa del Estado español

Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.

Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y de comercio electrónico.

Ley 9/2014, de 9 de mayo, General de Telecomunicaciones.

3) Documentos institucionales

Agencia de Derechos Fundamentales de la Unión Europea, Big Data: Discrimination by Design or by Default?, Publicaciones de la Unión Europea, Luxemburgo, 2019.

Agencia Española de Protección de Datos, Guía de privacidad por diseño y por defecto, Madrid, 2023.

Comisión Europea, Orientaciones sobre la aplicación del Reglamento (UE) 2022/2065 (Reglamento de Servicios Digitales), Bruselas, 2023.

Comisión Europea, Propuesta de Reglamento relativo a la prevención y la lucha contra el abuso sexual de menores en línea, COM(2022) 209 final, Bruselas, 11 de mayo de 2022.

Comité Europeo de Protección de Datos, Directrices 05/2020 sobre el consentimiento conforme al Reglamento (UE) 2016/679, versión 1.1, adoptadas el 4 de mayo de 2020.

Comité Europeo de Protección de Datos, Directrices 8/2020 sobre la orientación de la publicidad en las redes sociales, versión 1.0, adoptadas el 13 de abril de 2021.Defensor del Pueblo, Informe Anual 2023, Capítulo especial sobre protección de datos y plataformas digitales, Madrid, 2024.

Resumen:

El presente trabajo analiza el mensaje masivo enviado por Pavel Durov, fundador de Telegram, a los usuarios españoles de la plataforma en el contexto del debate sobre la limitación del acceso a redes sociales para menores de 16 años propuesto por el Gobierno de Pedro Sánchez. La investigación examina las implicaciones jurídicas de este uso de infraestructura privada con fines de influencia política, centrándose en el consentimiento informado, la reutilización de datos personales conforme al Reglamento General de Protección de Datos, la frontera entre comunicación corporativa y activación política, y la tensión entre neutralidad tecnológica y poder normativo de facto de las grandes plataformas digitales.


Sobre el autor

Diego Fierro Rodríguez es Letrado de la Administración de Justicia en ejercicio, Codirector de la Revista Acta Judicial y Doctorando en Derecho. Desarrolla su actividad profesional en el ámbito de la Administración de Justicia española, siendo actualmente el Jefe del Área penal del Servicio Común de Ejecución del Tribunal de Instancia de Málaga.

Sobre la publicación

Se han utilizado Google Gemini para la imagen y Google Gemini y Perplexity para recabar y contrastar toda la información disponible.

Diego Fierro Rodríguez
Letrado de la Administración de Justicia
Codirector de la Revista Acta Judicial
Doctorando en Derecho

Ilustración de un despacho jurídico con libros de Derecho, mazo judicial y una tablet mostrando la propuesta COM(2025) 836 del Digital Omnibus on AI, simbolizando la reforma del Reglamento de Inteligencia Artificial en la Unión Europea.

Apuntes de emergencia sobre el Digital Omnibus on AI

I. Introducción

Imaginen construir un puente mientras se cruza el río. Esa imagen, tan gráfica como incómoda, describe con precisión la situación en la que se encontraba la política europea de inteligencia artificial a finales de 2025. Es exactamente lo que la Comisión Europea propuso el 19 de noviembre de ese año con el llamado Digital Omnibus sobre inteligencia artificial: revisar parcialmente un marco regulatorio ambicioso cuando aún no había terminado de desplegarse. Apenas quince meses después de la entrada en vigor del Reglamento de Inteligencia Artificial, y justo cuando las primeras obligaciones comenzaban a perfilarse en el horizonte operativo de las empresas, Bruselas reconocía algo que pocas instituciones admiten con semejante franqueza: el calendario original corría el riesgo real de convertirse en una trampa para la innovación europea.

Este reconocimiento no es menor. Supone aceptar que una regulación concebida para proteger derechos fundamentales, seguridad y confianza pública podía, en determinadas condiciones, producir efectos contrarios a sus propios fines. El problema no residía en la ambición del Reglamento ni en su arquitectura conceptual basada en el riesgo, sino en la tensión entre ese diseño normativo y la capacidad real de cumplimiento de los operadores económicos llamados a aplicarlo.

La propuesta legislativa —identificada técnicamente como COM(2025) 836 final— no surge de la improvisación ni de un giro político repentino. Es el resultado de una constatación empírica incómoda, acumulada durante meses de diálogo con el mercado. Las empresas estaban bloqueadas. No por falta de voluntad de cumplimiento ni por resistencia ideológica a la regulación, sino porque se les exigía demostrar conformidad con normas técnicas que aún no existían o no estaban plenamente definidas. Es como si un profesor exigiera un examen perfecto sin haber entregado el temario completo, ni aclarado los criterios de evaluación. Ante ese escenario, la Comisión, en un ejercicio de pragmatismo poco habitual en la burocracia comunitaria, optó por corregir el rumbo antes de que el daño económico, tecnológico y reputacional resultara irreversible.

Este trabajo pretende desentrañar esa propuesta con una mirada crítica pero constructiva. No se trata de celebrarla acríticamente ni de condenarla por principio, sino de comprender qué problemas reales detectaron los técnicos de Bruselas, cómo pretenden resolverlos desde el punto de vista jurídico e institucional y qué consecuencias prácticas tendrá todo ello para quienes desarrollan o despliegan sistemas de inteligencia artificial en Europa en los próximos años.

II. El diagnóstico desde dentro: cuando la regulación amenaza con ahogar lo que pretende proteger

Para comprender el alcance de la propuesta resulta imprescindible entender el diagnóstico que la precede. Durante meses, en foros sectoriales, grupos de expertos y consultas públicas celebradas entre abril y octubre de 2025, los operadores económicos lanzaron señales de alarma cada vez más consistentes que la Comisión terminó por escuchar. No se trataba de quejas genéricas contra la regulación, sino de advertencias muy concretas sobre disfunciones operativas: ausencia de normas armonizadas, retrasos en la designación de organismos de evaluación de la conformidad, falta de orientaciones prácticas claras y divergencias interpretativas incipientes entre Estados miembros.

En conjunto, estos factores estaban transformando el Reglamento de Inteligencia Artificial en un lastre competitivo, especialmente para empresas innovadoras de tamaño pequeño y medio. Pensemos en una startup de treinta empleados que ha desarrollado un sistema destinado a optimizar diagnósticos médicos mediante aprendizaje automático. Dispone de la tecnología, del talento humano y de un mercado potencial claro. Sin embargo, se enfrenta a preguntas fundamentales sin respuesta: qué documentación técnica debe preparar, qué organismo evaluará su conformidad, bajo qué estándar y, quizá lo más decisivo, si su sistema será finalmente considerado de alto riesgo.

Ante tal nivel de incertidumbre regulatoria, los inversores —de manera perfectamente racional— se retraen. El capital riesgo busca previsibilidad jurídica, no entornos normativos en construcción permanente. El proyecto se congela, se retrasa o se traslada. Europa pierde así oportunidades concretas de innovación, empleo cualificado y liderazgo tecnológico, mientras otras jurisdicciones con marcos más ágiles avanzan sin esperar.

Este escenario no era anecdótico. Se reproducía por cientos en todo el continente. La Comisión lo ha descrito sin ambages como la existencia de “retrasos significativos” que incrementaban injustificadamente los costes de cumplimiento. Pero tras esa formulación institucional se esconde algo más profundo: la comprensión progresiva de que regular tecnologías emergentes exige equilibrar ambición protectora y viabilidad operativa. No basta con diseñar un marco normativo conceptualmente impecable si luego resulta impracticable en la realidad cotidiana de las empresas que deben aplicarlo.

La inteligencia artificial añade, además, una dificultad estructural frente a otras tecnologías reguladas en el pasado: su vertiginosa velocidad de evolución. Mientras que el Reglamento General de Protección de Datos o la Directiva de Servicios de Medios Audiovisuales permitían un ajuste progresivo, los sistemas basados en aprendizaje automático evolucionan semana a semana, tanto en capacidades como en riesgos. El Digital Omnibus aspira, precisamente, a introducir la agilidad mínima necesaria para que el marco regulatorio no quede obsoleto antes incluso de desplegarse plenamente.

III. La filosofía del ajuste: cirugía regulatoria sin anestesia general

Lo más llamativo del enfoque adoptado por la Comisión es su prudencia metodológica deliberada. No estamos ante una desregulación encubierta ni ante una cesión a presiones corporativas. Tampoco ante un cuestionamiento de los objetivos fundamentales del Reglamento. Se trata, más bien, de hacer viable lo ya regulado, ajustando calendarios, procedimientos y cargas administrativas sin alterar en lo más mínimo los fines esenciales de protección de derechos fundamentales, salud pública y seguridad.

Aquí se percibe claramente una lección aprendida, no sin costes, de experiencias regulatorias anteriores. Basta recordar mayo de 2018, cuando el Reglamento General de Protección de Datos entró en vigor y miles de empresas europeas se vieron desbordadas intentando implementar simultáneamente registros de actividades, análisis de riesgos, evaluaciones de impacto, políticas internas y designaciones de delegados, todo ello sin suficientes profesionales cualificados ni criterios interpretativos consolidados. El resultado fue un cumplimiento formal apresurado, costoso y, en muchos casos, poco eficaz.

Esta vez, la Comisión parece haber decidido anticiparse. El momento elegido resulta particularmente acertado. Reformar demasiado pronto habría proyectado una imagen de improvisación legislativa y debilidad normativa. Hacerlo demasiado tarde habría permitido la acumulación de costes empresariales innecesarios y la deslocalización silenciosa de proyectos estratégicos hacia jurisdicciones más permisivas. Noviembre de 2025 representa ese punto de equilibrio: lo suficientemente temprano para prevenir daños estructurales, y lo bastante tardío para apoyarse en datos empíricos derivados de las primeras experiencias de aplicación.

La distinción entre rigor sustantivo y rigidez procedimental contraproducente resulta aquí crucial. No asistimos a una claudicación regulatoria, sino a un ejercicio de racionalización consciente que reconoce que determinados elementos del diseño original podían generar efectos perversos no deseados: desincentivar la innovación europea, favorecer indirectamente a operadores de terceros países y levantar barreras de entrada desproporcionadas para pequeñas y medianas empresas innovadoras.

Ilustración de un despacho jurídico con libros de Derecho, mazo judicial y una tablet mostrando la propuesta COM(2025) 836 del Digital Omnibus on AI, simbolizando la reforma del Reglamento de Inteligencia Artificial en la Unión Europea.

IV. Las cinco medidas que cambian el juego

La propuesta introduce modificaciones de calado que merecen un análisis detallado por su impacto directo en la planificación del cumplimiento normativo de miles de empresas europeas.

En primer lugar —y quizá la medida técnicamente más relevante— se vincula explícitamente el calendario de aplicación de los requisitos para sistemas de alto riesgo a la disponibilidad efectiva de normas armonizadas. Ya no será, en todo caso, el 2 de agosto de 2026, sino el momento en que existan presunciones de conformidad formalmente publicadas en el Diario Oficial. Esta solución, ya ensayada con éxito en el Reglamento de Maquinaria, introduce una racionalidad elemental: no tiene sentido exigir el cumplimiento de requisitos técnicos detallados cuando no existen aún las especificaciones que permiten acreditarlo de manera objetiva.

Esta modificación transforma de forma profunda la planificación empresarial. Los proveedores podrán ajustar sus inversiones en procedimientos de conformidad a la publicación real de las normas, en lugar de trabajar anticipadamente con criterios provisionales que luego podrían resultar incorrectos o incompletos. Se reduce así el riesgo de invertir recursos en compliance que posteriormente deba rehacerse, con el consiguiente ahorro económico y organizativo.

En segundo lugar, la extensión del régimen simplificado a las denominadas small mid-caps —empresas de hasta 250 trabajadores y 50 millones de euros de facturación o 43 millones de balance— reconoce una realidad económica largamente ignorada. Muchas scale-ups tecnológicas europeas superan con rapidez los umbrales tradicionales de pequeñas y medianas empresas, pero siguen careciendo de la estructura organizativa y los recursos internos de compliance propios de las grandes multinacionales. Exigirles el mismo nivel de formalización documental que a corporaciones de decenas de miles de empleados resulta, en la práctica, desproporcionado y disuasorio.

Naturalmente, la fijación de umbrales numéricos genera situaciones frontera inevitables. Una empresa con 260 trabajadores quedará ligeramente fuera; otra que alcance los 52 millones de euros superará el límite. Sin embargo, resulta preferible una cierta arbitrariedad cuantitativa clara a un régimen único e inflexible aplicado indiscriminadamente a operadores con capacidades radicalmente distintas.

En tercer lugar, la transformación de la obligación genérica de alfabetización en inteligencia artificial en una obligación de fomento institucional constituye una solución jurídicamente equilibrada. Se mantiene la exigencia de formación específica para quienes despliegan sistemas de alto riesgo, pero desaparece la obligación genérica que recaía sobre cualquier proveedor con independencia del nivel de riesgo. La alfabetización es importante, pero convertirla en una obligación jurídica directa, sin criterios claros de contenido y acreditación, añadía presión normativa innecesaria.

El nuevo enfoque permite que Estados miembros y Comisión desarrollen programas formativos estructurados y coherentes, sin generar cargas individualizadas de difícil verificación. Al mismo tiempo, quienes operen sistemas de alto riesgo deberán acreditar que su personal dispone de formación técnica adecuada, lo que resulta plenamente coherente con una gestión responsable de riesgos.

En cuarto lugar, la supresión de la obligación de registro en la base de datos europea para sistemas que realizan tareas meramente preparatorias o auxiliares en ámbitos del Anexo III eliminará miles de registros administrativos innecesarios. Pensemos en un sistema que se limita a extraer datos estructurados de documentos digitales para alimentar un proceso decisional posterior. Aunque formalmente vinculado a un ámbito de alto riesgo, carece materialmente de riesgos significativos. Su registro habría generado ruido informativo y dificultado la supervisión efectiva de los sistemas verdaderamente problemáticos.

En quinto lugar, la centralización en la Oficina de Inteligencia Artificial de la supervisión de modelos de propósito general integrados en plataformas en línea de muy gran tamaño responde a un criterio elemental de eficiencia institucional. La supervisión fragmentada por veintisiete autoridades nacionales habría generado inconsistencias interpretativas, duplicidades costosas y una carga administrativa innecesaria tanto para autoridades como para operadores.

V. El artículo 4 bis del Reglamento de Inteligencia Artificial: resolviendo la paradoja de los sesgos ocultos

La propuesta introduce una novedad procedimental de enorme relevancia sistémica: la incorporación de un nuevo artículo 4 bis que permite expresamente el tratamiento de categorías especiales de datos personales con la finalidad exclusiva de detectar y corregir sesgos discriminatorios en sistemas de inteligencia artificial. Se trata de una modificación técnicamente precisa, pero con efectos potencialmente transformadores en la práctica del desarrollo y auditoría algorítmica en Europa.

Esta disposición responde a una paradoja regulatoria que venía paralizando a numerosos equipos técnicos y jurídicos. El artículo 10.5 del Reglamento original exigía identificar, evaluar y mitigar sesgos discriminatorios, mientras que el Reglamento General de Protección de Datos dificultaba de forma extrema —cuando no directamente impedía— el uso de los datos sensibles que resultan imprescindibles para esa identificación. ¿Cómo detectar un sesgo por origen racial sin procesar datos que revelen origen racial? ¿Cómo evaluar discriminaciones indirectas por género sin información relativa al sexo? La exigencia normativa era clara; el camino jurídico para cumplirla, no.

Durante meses, esta contradicción generó un efecto disuasorio significativo. Muchas empresas optaron por enfoques de auditoría incompletos o puramente teóricos, basados en proxies estadísticos de dudosa fiabilidad, por temor a infringir la normativa de protección de datos. Otras simplemente postergaron auditorías profundas, asumiendo un riesgo regulatorio latente. El resultado fue un ecosistema en el que la lucha contra la discriminación algorítmica quedaba debilitada por una colisión mal resuelta entre dos marcos normativos legítimos.

El nuevo artículo 4 bis introduce un marco jurídico claro para ese tratamiento excepcional, sometiéndolo a salvaguardias técnicas y organizativas estrictas. Entre ellas destacan la minimización rigurosa de datos, la anonimización o seudonimización robusta cuando sea técnicamente viable, la limitación estricta de finalidad a la detección y corrección de sesgos, garantías reforzadas de seguridad y una prohibición expresa de usos secundarios o incompatibles. No se trata de una carta blanca, sino de una excepción cuidadosamente acotada.

El impacto práctico será considerable. Los equipos técnicos y de data science podrán llevar a cabo auditorías sistemáticas de sesgo con respaldo normativo sólido. Será posible, por ejemplo, analizar empíricamente si un sistema automatizado de selección de personal presenta sesgos de género procesando datos relativos al sexo de los candidatos, siempre bajo controles estrictos y exclusivamente con fines correctivos. Lo mismo ocurrirá en ámbitos como la concesión de crédito, la detección de fraude o la priorización de pacientes en sistemas sanitarios.

Más allá de su utilidad inmediata, la introducción de este artículo evidencia una comprensión más madura de las tensiones internas del derecho digital contemporáneo. La protección estricta de la privacidad de datos sensibles y la lucha eficaz contra la discriminación algorítmica no son objetivos incompatibles, pero sí requieren mecanismos de ponderación explícitos. Ignorar el conflicto o resolverlo mediante silencios normativos solo conduce a la inacción. El artículo 4 bis representa, en este sentido, un avance metodológico relevante en la regulación de sistemas complejos.

VI. Innovar con seguridad: la expansión de los sandboxes regulatorios

La propuesta amplía de forma significativa las posibilidades de prueba en entornos reales para sistemas de alto riesgo, incluidos aquellos integrados en productos regulados por legislación sectorial armonizada, como vehículos de motor, dispositivos médicos o aeronaves civiles. Además, se crea expresamente un sandbox regulatorio europeo centralizado, gestionado por la Oficina de Inteligencia Artificial a partir de 2028, lo que supone un salto cualitativo en la arquitectura institucional del marco regulatorio.

Esta ampliación responde a una necesidad técnica difícilmente discutible. Los sistemas basados en aprendizaje automático no alcanzan niveles aceptables de fiabilidad únicamente mediante pruebas en entornos controlados. Su rendimiento depende de la exposición a datos del mundo real, con toda su complejidad, ruido estadístico y variabilidad contextual. Limitar en exceso las pruebas a escenarios de laboratorio puede dar lugar a sistemas formalmente conformes, pero operativamente frágiles o incluso peligrosos.

Un sistema de asistencia a la conducción autónoma puede funcionar de manera impecable en un circuito cerrado y fallar estrepitosamente en tráfico urbano denso, con peatones impredecibles, ciclistas que incumplen normas, meteorología cambiante y señalización ambigua. Esa brecha entre rendimiento simulado y comportamiento real es precisamente lo que los sandboxes permiten identificar y corregir de forma temprana, antes de un despliegue comercial a gran escala.

La creación de un sandbox europeo centralizado constituye, además, una innovación organizativa de primer orden. Hasta ahora, los sandboxes dependían de iniciativas nacionales fragmentadas, con criterios heterogéneos de acceso, metodologías dispares y niveles variables de exigencia técnica. Un sandbox europeo permitirá establecer estándares comunes de calidad, compartir aprendizajes metodológicos entre Estados miembros, facilitar el acceso a empresas que operan en múltiples jurisdicciones y concentrar recursos técnicos altamente especializados.

Desde una perspectiva estratégica, este enfoque también refuerza la competitividad europea. Ofrecer un entorno regulatorio que permita experimentar de forma controlada, pero realista, reduce incentivos a trasladar proyectos de investigación y desarrollo a jurisdicciones menos exigentes. Innovar con seguridad no es un eslogan, sino una condición para que la regulación no se convierta en un factor de deslocalización tecnológica.

Naturalmente, las pruebas en entornos reales plantean cuestiones delicadas de responsabilidad civil, protección de derechos fundamentales y gestión de riesgos. ¿Qué ocurre si, durante una prueba controlada, un sistema experimental causa daños a terceros? La propuesta mantiene salvaguardias robustas: consentimiento informado cuando proceda, supervisión continua por autoridades competentes, capacidad de intervención inmediata ante anomalías y exigencia de seguros de responsabilidad civil adecuados. El equilibrio alcanzado parece razonable y coherente con experiencias previas en sectores regulados.

VII. Lo que esto cambia en el día a día de las empresas

Para las empresas europeas que preparan sus estrategias de cumplimiento para 2026 y 2027, la propuesta implica cambios sustanciales tanto en la planificación estratégica como en la operativa cotidiana. No se trata de ajustes marginales, sino de modificaciones que afectan directamente a la asignación de recursos, a la organización interna y a la toma de decisiones de inversión.

La documentación técnica y los sistemas de gestión de calidad podrán ser sensiblemente más ligeros para aquellas empresas que califiquen como small mid-caps. Una empresa de 200 empleados que había previsto contratar varios perfiles especializados adicionales para gestionar el compliance podrá reducir esa necesidad, liberando recursos financieros y humanos para inversión directa en desarrollo tecnológico, pruebas de producto o captación de talento.

Los sistemas que realicen tareas meramente preparatorias o auxiliares en ámbitos del Anexo III podrán excluirse del registro obligatorio en la base de datos europea. Esta exclusión no solo reduce carga administrativa, sino que clarifica prioridades internas: los equipos podrán concentrar esfuerzos en la evaluación de riesgos reales, en lugar de dedicar tiempo a trámites formales de escaso valor protector.

La centralización de la supervisión de modelos de propósito general integrados en grandes plataformas en la Oficina de Inteligencia Artificial simplifica de forma notable la interlocución institucional. En lugar de coordinar comunicaciones paralelas con múltiples autoridades nacionales, las empresas dispondrán de un canal único de diálogo técnico, reduciendo riesgos de interpretaciones divergentes y duplicidades costosas.

La habilitación expresa para tratar datos sensibles con fines de detección de sesgos elimina una de las principales trabas que afrontaban los equipos técnicos. El nuevo artículo 4 bis permite diseñar procesos de auditoría de equidad más rigurosos, integrados desde fases tempranas del ciclo de vida del sistema, en lugar de como ejercicios defensivos posteriores.

Desde una perspectiva organizativa, las empresas deberán revisar sus hojas de ruta regulatorias. Los calendarios de inversión en procedimientos de conformidad podrán ajustarse con mayor racionalidad, especialmente en sistemas de alto riesgo vinculados a la publicación efectiva de normas armonizadas. Los departamentos jurídicos actualizarán matrices de riesgo, mientras que los equipos técnicos explorarán posibilidades de prueba antes inviables.

VIII. Una valoración que atiende no solo al texto, sino también a su espíritu

La propuesta del Digital Omnibus demuestra que es posible corregir el rumbo regulatorio sin traicionar los objetivos originales del Reglamento de Inteligencia Artificial. Se mantiene intacta la arquitectura conceptual basada en el riesgo —sistemas prohibidos, de alto riesgo, de transparencia y de riesgo mínimo—, pero se introduce flexibilidad procedimental allí donde la rigidez amenazaba con convertirse en un obstáculo estructural.

Resulta especialmente acertada la decisión de actuar mediante modificación legislativa formal y no limitarse a orientaciones interpretativas. Las guías pueden aclarar conceptos, pero no pueden modificar calendarios legalmente fijados, crear excepciones explícitas al tratamiento de datos personales ni redefinir competencias supervisoras. Aquí era necesaria una intervención normativa plena, y la Comisión la ha propuesto con rapidez poco habitual.

Queda por ver la reacción del Parlamento Europeo y del Consejo. La tramitación urgente parece justificada: cada mes adicional de incertidumbre regulatoria implica costes reales para empresas que toman decisiones estratégicas en tiempo real sobre dónde localizar proyectos de investigación y desarrollo.

Algunos críticos sostendrán que modificar un Reglamento apenas quince meses después de su entrada en vigor transmite una imagen de precipitación inicial. Esa lectura ignora la naturaleza dinámica de las tecnologías reguladas. La alternativa —persistir en un diseño disfuncional por coherencia formal— habría sido mucho más dañina. La capacidad de rectificación basada en datos empíricos es, en este contexto, una virtud institucional.

Tampoco puede sostenerse seriamente que las modificaciones diluyan la ambición protectora original. Las obligaciones sustantivas permanecen intactas. Lo que se ajusta son calendarios, procedimientos y cargas documentales. No se reduce la supervisión; se hace practicable.

IX. Conclusiones

Nos encontramos, en definitiva, ante un ejercicio de corrección normativa que refuerza, y no debilita, la credibilidad del modelo regulatorio europeo en materia de inteligencia artificial. El Reglamento no es perfecto —ningún marco que aborde tecnologías en rápida evolución puede serlo—, pero la propuesta corrige sus principales rigideces prácticas sin comprometer su ambición protectora.

La intervención responde de forma proporcionada a problemas empíricos concretos: la ausencia de normas armonizadas, los retrasos en la designación de organismos de evaluación y las tensiones no resueltas con otros marcos normativos, en particular la protección de datos. Su filosofía es clara: simplificación procedimental sin desprotección sustantiva.

La vinculación del calendario a la disponibilidad de normas armonizadas introduce racionalidad regulatoria. La extensión del régimen simplificado a las small mid-caps reconoce la realidad de empresas innovadoras sin estructuras complejas de compliance. El nuevo artículo 4 bis resuelve una paradoja que bloqueaba auditorías de sesgo, la centralización supervisora evita fragmentación y la ampliación de los sandboxes responde a necesidades técnicas ineludibles.

Las implicaciones prácticas para los operadores son significativas en términos de planificación, inversión y demostración de conformidad. La propuesta merece apoyo decidido, sin perjuicio de un seguimiento atento durante su tramitación legislativa para asegurar que el equilibrio alcanzado entre innovación y protección se mantenga. En un ámbito tan dinámico como la inteligencia artificial, regular bien no significa regular más, sino regular mejor.

Resumen:

La propuesta COM(2025) 836 final de la Comisión Europea, conocida como Digital Omnibus on AI, constituye la primera modificación sustancial del Reglamento (UE) 2024/1689 sobre Inteligencia Artificial, apenas quince meses después de su entrada en vigor. Este trabajo analiza el diagnóstico que subyace a la propuesta, centrado en los retrasos en la publicación de normas armonizadas y en la designación de organismos de evaluación, y examina las principales medidas de flexibilización introducidas: vinculación de calendarios a la disponibilidad de normas, extensión del régimen simplificado a small mid-caps, transformación de la obligación de alfabetización, supresión de registros innecesarios, centralización de la supervisión de modelos de propósito general y creación del nuevo artículo 4 bis sobre tratamiento de datos sensibles para detección de sesgos. Se valoran críticamente las implicaciones prácticas para los operadores y se concluye que la propuesta logra el difícil equilibrio entre mantener la ambición protectora del Reglamento original y corregir rigideces que amenazaban con frenar la innovación europea en inteligencia artificial.


X. Referencias normativas y bibliográficas

1) Normativa de la Unión Europea

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial).

Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (Reglamento General de Protección de Datos).

Reglamento (UE) 2018/1139 del Parlamento Europeo y del Consejo, de 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil.

Reglamento (CE) número 2006/42/CE del Parlamento Europeo y del Consejo, de 17 de mayo de 2006, relativo a las máquinas (Reglamento de Maquinaria).

Recomendación 2003/361/CE de la Comisión, de 6 de mayo de 2003, sobre la definición de microempresas, pequeñas y medianas empresas.

2) Documentos institucionales

Comisión Europea, Propuesta de Reglamento del Parlamento Europeo y del Consejo que modifica los Reglamentos (UE) 2024/1689 y (UE) 2018/1139 en lo que respecta a la simplificación de determinadas disposiciones (Digital Omnibus on AI), COM(2025) 836 final, Bruselas, 19 de noviembre de 2025.

Comisión Europea, Documento de trabajo de los servicios de la Comisión que acompaña la propuesta COM(2025) 836 final, evaluación de impacto, Bruselas, 19 de noviembre de 2025.

Sobre el autor

Diego Fierro Rodríguez es Letrado de la Administración de Justicia en ejercicio, Codirector de la Revista Acta Judicial y Doctorando en Derecho. Desarrolla su actividad profesional en el ámbito de la Administración de Justicia española, siendo actualmente el Jefe del Área penal del Servicio Común de Ejecución del Tribunal de Instancia de Málaga.

Sobre la publicación

Se han utilizado Google Gemini para la imagen y Google Gemini y Perplexity para recabar y contrastar toda la información disponible.

Diego Fierro Rodríguez
Letrado de la Administración de Justicia
Codirector de la Revista Acta Judicial
Doctorando en Derecho