A vueltas con la Propuesta de Reglamento de la CE sobre la regulación de la IA: avances y riesgos

Para hablar del futuro es necesario realizar una referencia a la novísima Propuesta de Reglamento de fecha 21 de abril de 2021, por la que se establecen normas armonizadas sobre la inteligencia artificial en la Unión, cuestión que también afectará irremediablemente en un futuro próximo a las investigaciones tecnológicas en la era postcovid, y en consecuencia, a los procesos penales donde se utilicen datos electrónicos.

Con esta normativa se vislumbra un futuro restrictivo en el uso de la IA a través de una regulación que frene su desarrollo y uso indiscriminado, con el fin de salvaguardar los valores últimos de la UE. Podemos decir que sería una parte dentro del Programa Europa Digital que actúa como su némesis. Dentro de este programa existe un topic principal consistente en “Configurar el futuro digital de Europa”[1] orientado en buscar una verdadera transformación digital de la UE con fiel respeto a los derechos fundamentales de los ciudadanos y como protagonista el desarrollo de la tecnología 5G mediante herramientas tecnológicas basadas en inteligencia artificial. Esta estrategia se traduce en impulsar, para todas las administraciones públicas y privadas, aplicaciones basadas en asistentes virtuales, herramientas predictivas, incorporación de bots o biometría entre otras. En definitiva, estamos hablando de utilizar Big Data, es decir, macrodatos en abierto[2], lo que causará inevitablemente un impacto en la privacidad de los ciudadanos europeos.

Además, esta propuesta de Reglamento sobre IA proporciona una definición de lo que se debe entender por este tipo de tecnología o herramienta, indicando que estaríamos ante “un software que, mediante el empleo de técnicas matemáticas y de programación, conocidas como “algoritmos”, permiten elaborar resultados que sirven para realizar predicciones, pronósticos de conductas, recomendaciones de decisiones futuras, entre otros fines”; cuestión de especial importancia al enfocar solo la definición en la parte intangible, y desligando acertadamente su desarrollo propio de la robótica, para lo que hay una serie de textos concretos y sobre las que gran parte de la sociedad y la doctrina entrelaza de manera confusa.

La Comisión Europea es consciente del alto grado de injerencia que este tipo de tecnología puede tener sobre el derecho fundamental a la protección de datos de los administrados, por lo que se deben plantear una serie de cautelas en la configuración de las aplicaciones por defecto. Quiere decir que partimos de una serie de requisitos previos de seguridad a nivel legal que se deberán cumplir y de que del mismo modo existe opacidad en muchos algoritmos que pueden generar complicaciones legales y desconfianza por parte de sus potenciales usuarios.

En este sentido, el proyecto presenta una normativa que clasifica los tipos de IA en función del riesgo de afectación e injerencia para los derechos fundamentales de los ciudadanos, diferenciando cuatro categorías: a) riesgo inadmisible, b) alto riesgo, c) riesgo limitado; d) riesgo mínimo.

Riesgo inadmisible significa que dichos programas estarán prohibidos y que por tanto no podrían tener una inclusión comercial al exponerse a una sanción concretamente sobre el 5% de los beneficios anuales de la empresa que lo desarrolle. Entre los usos prohibidos podemos encontrar todos los programas persuasivos que lleguen a manipular subliminalmente a los usuarios, aquellos que ataquen a colectivos especialmente vulnerables y que les pueda causar daño físico o moral, los que se basen en sistemas de “puntuación social” o aquellos que se basen en sistemas de reconocimiento biométrico en espacios abiertos y con finalidades privadas y no autorizadas previamente en el marco de una investigación policial ante casos de especial gravedad entre los que la propuesta de Reglamento destaca propiamente el terrorismo.

De igual modo, también sufrirán especiales limitaciones los sistemas de alto riesgo y tendrán que pasar una serie de filtros si quieren ser comercializados sin que se les llegue a imponer una sanción. Cuestiones vinculadas a filtrado de perfiles para recursos humanos, perfilación, transporte o infraestructuras críticas deberán demostrar mecanismos para controlar los inevitables sesgos o a la discriminación algorítmica que lleven aparejados, al tiempo que deberán contar así con una supervisión por humanos. Con este nuevo bloque la UE deja clara su apuesta por un tipo de IA que sirva de apoyo, pero nunca de sustitución completa, a labores vinculadas a administraciones públicas.

Nos parece un enorme acierto afrontar la discriminación algorítmica con controles humanos, que haya obligaciones de testar de manera continuada y que exista un feedback de diversos profesionales, así como poder desarrollar guías de buenas prácticas o estándares de uso de IA. Todo ello dota de enorme valor la propuesta de crear un Consejo Europeo de Inteligencia Artificial, formado por comités de expertos que asesoren sobre la materia. Esta cuestión sigue la estela de la réplica de otros campos como la de robótica. Cuestión distinta y aún por definir es todo lo relativo a la creación de sistemas de compliance en este sentido o códigos de conducta a la hora de desarrollar y aplicar los algoritmos.

¿Cómo se pretende realizar todo ello?  A través de lo que se denomina sandboxes regulatorios (cajas de arena). Hablamos de un entorno de pruebas cerrado, diseñado para experimentar de forma segura con proyectos de desarrollo web o de software. Es decir, realmente estaríamos hablando de una especie de campo de pruebas para nuevas herramientas tecnológicas que se encuentran en el plano alegal y que deben ser supervisados por las instituciones regulatorias. En este sentido, desde el punto de vista judicial una muestra clara sería el de la jurimetría o justicia predictiva, el cual podría encontrarse en esta franje de alto riesgo y del que se necesitaría un proceso de testar mucho más profundo que el que se ha hecho hasta el momento. Comienza así una lucha contra los algoritmos sesgados con soporte legal, pues el proyecto de Reglamento le dedica tres artículos, del 53 al 55. Concretamente el art. 53 apunta que “Los espacios aislados de regulación de la IA establecidos por una o más autoridades competentes de los Estados miembros o por el Supervisor Europeo de Protección de Datos proporcionarán un entorno controlado que facilite el desarrollo, la prueba y la validación de sistemas innovadores de IA durante un tiempo limitado antes de su comercialización o puesta en servicio con arreglo a un plan específico”. Estamos hablando de unas pruebas supervisadas, en las que cualquier riesgo significativo para la salud y la seguridad y los derechos fundamentales que se detecte durante el desarrollo y las pruebas de dichos sistemas dará lugar a una mitigación inmediata; tal y como recoge el punto tres del aludido precepto. Con ello, se abre un nuevo espacio de cooperación procesal internacional entre las autoridades competentes de los Estados miembros que hayan creado sandboxes o espacios aislados de regulación de la IA coordinarán sus actividades y cooperarán en el marco de la Junta Europea de Inteligencia Artificial.

De igual modo, en relación estricta con el objeto de la presente investigación: el uso de inteligencia artificial en la fase de instrucción del proceso penal, debemos acudir directamente al art. 52 de la propuesta de Reglamento, pues hace alusión expresamente a ello.

Así, el art. 52 regula las obligaciones de transparencia para determinados sistemas de IA. En este sentido será necesario que las personas que vayan a manejar el sistema sean informadas de las cuestiones de diseño y desarrollo sobre las que esa herramienta se ha configurado. Pero, a tenor de lo que atañe, esta cuestión queda excluida de los procesos penales, al indicar que “Esta obligación no se aplicará a los sistemas de IA autorizados por la ley para detectar, prevenir, investigar y perseguir delitos, a menos que dichos sistemas estén disponibles para que el público denuncie un delito”. Por tanto, solo deberán ser informados los usuarios si son herramientas de inteligencia artificial usadas por el público en general, pero no para autoridades judiciales.

Lo mismo ocurre con la biometría, ya que para ser autorizados estos sistemas deberán informar a las personas físicas que estén expuestas a los mismos, pero dicha obligación, según el art. 52.2 “no se aplicará a los sistemas de IA utilizados para la categorización biométrica, que están autorizados por la ley para detectar, prevenir e investigar delitos”[3].

De igual modo, si estos programas manipulan contenidos de imagen, audio o video, provocando lo que se denomina comúnmente como “Deep-fake”, se deberá indicar expresamente que el contenido está manipulado de manera artificial. Aunque vuelve a poner una objeción para la investigación de delitos al indicar que “no obstante, no se aplicará cuando el uso esté autorizado por la ley para detectar, prevenir, investigar y perseguir delitos o sea necesario para el ejercicio del derecho a la libertad de expresión y el derecho a la libertad de las artes y las ciencias garantizados en la Carta de los Derechos Fundamentales de la UE, y siempre que se ofrezcan las garantías adecuadas para los derechos y las libertades de terceros”. Creemos firmemente que esta cuestión está planteada para permitir el uso de materiales camuflados o creados artificialmente por agentes encubiertos informáticos, y así permitir el intercambio de archivos de naturaleza aparentemente ilícita.

Se abre una nueva etapa del uso de herramientas de inteligencia artificial en esta parte del proceso, para los que España ya se encuentra preparada. Debemos poner en valor que nuestro país es uno de los pocos estados miembros con una estrategia propia sobre Inteligencia Artificial, hecha pública en diciembre del 2020 y en la que se pretenden invertir 600 millones de euros hasta el 2023.  La misma se deberá adaptar al futuro Reglamento, aunque busca los mismos objetivos, los cuales se pueden resumir en dos: respetar los derechos fundamentales y generar confianza en la ciudadanía.

Al incardinar la estrategia en la Vicepresidencia de Asuntos Económicos y Transformación Digital, podemos ver que el enfoque está planteado para hacer del desarrollo de la IA un nuevo vector económico. Esto a su vez, podría llegar a tener una fuerte repercusión a nivel de empleo y se inserta además en el Plan de Recuperación, Transformación y Resiliencia de la economía española, lo que conecta con los fondos Next Generation de la UE para hacer frente a las consecuencias provocadas a todos los niveles por la crisis sanitaria de la Covid-19 y al que se añade el fondo Next Tech de naturaleza público-privada. Desde el punto de vista jurídico se habla de conseguir un marco ético y normativo que garantice la protección de los derechos individuales y colectivos. Podemos decir que el punto cardinal que centrará esta acción en legislar la injerencia de la IA en los derechos fundamentales de las personas entre los que destacará la protección de datos personales, para perseguir los fines propios recogidos sobre la materia en el mismísimo Tratado Fundacional de la Unión Europea.

Federico Bueno de Mata
Profesor Titular de Derecho Procesal en la Universidad de Salamanca y Vocal de ENATIC


[1]  Vid. https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/shaping-europe-digital-future_es (Fecha de consulta: 18 de mayo de 2021).

[2] BUENO DE MATA, F. “Macrodatos, inteligencia artificial y proceso: luces y sombras”, Revista General de Derecho Procesal, iustel.com, núm. 51, 2020.

[3] Esta cuestión ya viene apuntada por el Libro Blanco de la Inteligencia Artificial, en relación a la recopilación y el uso datos biométricos para la identificación remota; al indicar que su uso entraña riesgos específicos para los derechos fundamentales si dichas tecnologías se utilizan en espacios abiertos sin haber informado previamente a sus potenciales usuarios.

En Abogacía, ¿quién forma para obtener las competencias digitales?

A solo dos días del 5 de junio, fecha en la que se realizará por el Ministerio de Justicia el primer Examen de Acceso al Ejercicio de la Abogacía del año 2021 -segundo en la historia de la existencia de este examen que realiza en formato on line – vuelve a asaltarme la pregunta que tuve la ocasión de poner sobre la mesa en octubre del año 2018, cuando fui invitada por el Ilustre Colegio de Abogados de Barcelona a participar en las “Primeras Jornadas sobre Transformación Digital en la Abogacía”: En Abogacía, ¿quién forma para obtener las competencias digitales?

Dos años y medio después, con el virus que ha hecho temblar el mundo aún entre nosotros, todo lo planteado allí se ha acelerado. Pero aún queda mucho camino por recorrer. La brecha digital es aún enorme.

Ya nadie duda de la necesidad de que un abogado tenga que estar actualizado en competencias digitales – y así se recoge tácitamente en el Real Decreto 135/2021 de 2 de marzo, por el que se aprueba el Estatuto General de la Abogacía Española-. Ya no nos da vergüenza hacer videconferencias, el teletrabajo está totalmente normalizado, las transacciones por internet ya no son la excepción, la formación on line se ha disparado etc.

Pero, precisamente, en ese año 2018, concretamente el día 3 de marzo, los que nos dedicamos, en parte, a la formación continua de los abogados y a la formación inicial de los letrados en prácticas, tomamos consciencia de la realidad del cambio social en que estamos inmersos en materia formativa y pensamos en adaptar los planes de estudios de los postgrados habilitantes para el examen de acceso, con la finalidad de que nuestros alumnos adquirieran competencias digitales.

La noticia corrió como la pólvora en las redes sociales: las preguntas de las 31 a la 34 del examen de acceso versaban sobre Lexnet, una materia “no incluida” en el programa el examen de acceso.

En ese momento algunos, en nuestro fuero interno, pensamos que en realidad si era una materia incluida. Técnicamente esas preguntas no eran más que las competencias digitales, que como materia transversal, debe tener todo futuro abogado. Esas preguntas evidenciaron la transformación digital de las aptitudes que tradicionalmente se habían considerado como deseables para los abogados, en función de un nuevo paradigma social.

Desde entonces se ha tratado de asegurar la formación práctica en materia de documentos digitales, contratos electrónicos, firma digital, tele trabajo, comercio electrónico, y muy especialmente en este último año en la enseñanza virtual, grupos (redes) sociales, delitos informáticos y por supuesto ciberseguridad.

Esas preguntas sobre Lexnet implicaron reconocer la necesidad de un proceso de actualización continua, pero para hacerlo con garantías, quizá debamos regular las competencias digitales de la abogacía y de los que se forman con la finalidad de ejercerla.

Hasta la fecha, únicamente la American Bar Association ha reglado dichas competencias, en un documento de fecha 2012.

El Colegio de Abogados de California también posee un documento, o guía profesional, en el que se resumen estas competencias en todas aquellas que impliquen optimizar el trabajo para tener mayor eficacia y rigor profesional, y señala como punto básico la permanente actualización tecnológica en materia de ciberseguridad para dar “cibertranquilidad” a nuestros clientes.

Respecto a los alumnos de las facultades de derecho, se da la paradoja de que están conviviendo en las aulas nativos digitales, que normalmente se limitan a recibir clases magistrales de los que, en el mejor de los casos, están o estamos inmersos en un proceso de “migración digital”.

Quizá estemos en el momento de crear ambientes formativos proactivos, plantear la conveniencia de cursar dobles titulaciones en las que se garantice la formación en materia de derecho digital no sólo como materia transversal, se establezcan colaboraciones con profesionales que manejen las TIC y, por quien proceda, se creen una acreditación de esas habilidades especiales para el manejo de los instrumentos digitales que se requieren para ejercer cualquier profesión jurídica.

Hasta entonces, seguiremos atentos a lo que suceda este 5 de junio de 2021. Seguiremos observando como la realidad social cambiante, nos indica qué es lo que tenemos que regular y por supuesto, seguiremos deseando buena suerte a todos los letrados en prácticas, sin duda alguna, los mejor preparados de la historia en materia de derecho digital.

Que la fuerza les acompañe. Quizá pronto, muchos de ellos sean socios de ENATIC.

Laura Fra Rodríguez
Abogada, Vocal de ENATIC.
Responsable de formación del Ilustre Colegio de Abogados de León (ICAL)
Coordinadora por parte del ICAL del Máster Universitario de Acceso al Ejercicio de la Abogacía de la Universidad de León.

Dilema asiático entre privacidad y seguridad sanitaria: ¿se debe cuestionar al RGPD en el contexto pandémico?

El pasado 25 de mayo se cumplió el tercer aniversario de la entrada en aplicación del Reglamento General de Protección de Datos[1] (en adelante, RGPD), efeméride que se produjo por segundo año consecutivo en un contexto de pandemia global. No hubo muchos motivos para la celebración, sino más bien todo lo contrario, la emergencia sanitaria ha tensionado durante el último año a los fundamentos de los Estados democráticos y de derecho europeos hasta extremos impensables. El estándar europeo de protección de datos y privacidad, además, ha sido cuestionado y situado ante el espejo de sus modelos antagónicos asiáticos.

El filósofo y pensador alemán, de origen surcoreano, Binyung-Chul Han, es quien ha interpretado con mayor nitidez, y se podría añadir pesimismo, esta imagen distorsionada y desdibujada de una Europa que se sitúa ante el dilema de ganar mayor eficacia y eficiencia en la lucha sanitaria contra el virus en detrimento de las libertades y valores de las que ha sido estandarte mundial. En sus propias palabras:

«La covid-19 probablemente no sea un buen presagio para Europa y Estados Unidos. El virus es una prueba para el sistema. Los países asiáticos, que creen poco en el liberalismo, han asumido con bastante rapidez el control de la pandemia, especialmente en el aspecto de la vigilancia digital y biopolítica, inimaginables para Occidente. Europa y Estados Unidos están tropezando. Ante la pandemia, están perdiendo su brillo. Zizek ha afirmado que el virus derribará el régimen de China. Zizek está equivocado. Eso no va a pasar. El virus no detiene el avance de China. China venderá su estado de vigilancia autocrática como modelo de éxito contra la epidemia. Exhibirá por todo el mundo aún con más orgullo la superioridad de su sistema. La covid-19 hará que el poder mundial se desplace un poco más hacia Asia. Visto así, el virus marca un cambio de era.»[2]

A buen seguro es prematuro determinar si estamos en un cambio era, pero el régimen que Han denomina de «vigilancia biopolítica» con mayor o menor extensión ya ha llegado a la UE y a los Estados Unidos. Hasta ahora se podía observar gracias a las revelaciones del analista de la NSA, Edward Snowden, del caso del sargento Manning, o de las manipulaciones ideológicas de Cambridge Analytica. Estas y otras muchas vulneraciones han resquebrajado los principios de las democracias occidentales por motivos de seguridad nacional o por pura manipulación psicopolítica.

El paradigma de privacidad europeo materializado en el RGPD se había erigido como la reacción, en términos de derechos y libertades, contra esos abusos. Sin embargo, como señala el propio Han, la “virología” se superpone a la privacidad, y ya no solo interesan nuestras comunicaciones o nuestras opiniones en redes sociales, el objetivo es el control y disciplina de nuestro cuerpo, nuestro estado de salud, lo cual puede provocar una limitación de esos derechos y libertades, un abandono de la concepción liberal postrevolucionaria. 

La paradoja está en que hasta el inicio de la pandemia Europa acusaba a Estados asiáticos democráticos como Japón, Corea del Sur, Taiwán o Singapur de tener una mentalidad autoritaria, a la vez que unas sociedades con muy poca conciencia crítica ante la vigilancia electrónica. Mientras que China, y el convulso Hong Kong, se entendían como sometidos a una “dictadura digital”, y se podría añadir real.  Sin embargo, la digitalización, a través del Big Data, de la Inteligencia Artificial, el análisis de macrodatos, etc. permite salvar vidas. La falta del espíritu reivindicativo de las sociedades asiáticas se suple con un ahora admirado civismo.[3] Este es el gran dilema al que se enfrentan los europeos y los estadounidenses.

Alessandra Pierucci, presidenta del Comité de la Convención 108 y Jean-Philippe Walter, Comisionado de Protección de Datos del Consejo de Europa, haciéndose eco de la mencionada disyuntiva, afirman que la privacidad y la protección de datos no deben ser obstáculo para salvar vidas, pero recuerdan su carácter esencial y su vigencia:

«While it is crucial to make clear that data protection can in no way be an obstacle to save human lives, it is equally crucial to reaffirm that the exercise of human rights, and notably the rights to privacy and to data protection are still applicable. Data protection principles always allow for balancing the interests at stake. Convention 108 sets forth high standards for the protection of personal data which are compatible and reconcilable with other fundamental rights and relevant public interests. The principles enshrined in several international and national instruments cannot be suspended but only restricted in a lawful manner, and so for defined limited duration».[4]

Esta llamada a la ponderación de dos de los máximos garantes de la protección de datos en el ámbito continental europeo es sin duda un mal augurio. Las tentaciones de adoptar los modelos asiáticos, incluso los más «softs», sobrevuelan la tradicional cultura de derechos y libertades europea. El análisis de las aplicaciones de seguimiento de contactos COVID 19 en los países asiáticos nos conduce a diversas conclusiones.

En primer lugar, no sorprende que los sistemas digitales de seguimiento de contactos COVID, tales como «Alipay Health Code», de la República Popular China no sean adecuados a la normativa europea y a las recomendaciones de las instituciones europeas. La pandemia no ha hecho más que incrementar el control y la vigilancia de los usuarios chinos con información de carácter sanitario y con una mayor trazabilidad de sus movimientos. La no utilización de protocolos seguros, la ausencia de transparencia y la desviación de las finalidades, no son más que abusos a los derechos humanos, que no legitiman ni justifican, ni siquiera con un pragmatismo exacerbado, la grave injerencia en la privacidad y la protección de datos.  La brecha en garantía de derechos y libertades entre la UE y el gigante asiático se agranda aún más tras esta crisis global.

El caso de Hong Kong, región especial de China, es muy particular por los condicionantes jurídicos, políticos e históricos. A pesar de contar con una de las primeras normativas de protección de datos de la región su aplicación «StayHomeSafe» no es adecuada al RGPD ya que se basa en la localización a través del geoperimetraje del afectado. Este aplicativo es altamente intrusivo y no cuenta con las salvaguardas exigidas por la normativa europea. En este sentido, cabría plantearse si se está produciendo un retroceso en los elevados estándares de privacidad y protección de datos de los que Hong Kong había disfrutado. El contexto actual apunta a un intento del gobierno chino de recortar los derechos y libertades, esta involución estaría en la línea de los acontecimientos.

El caso de la aplicación «Corona 100» de Corea del Sur presenta las mismas problemáticas, incluso superiores que «StayHomeSafe» de Hong Kong. Esta democracia asiática, que está siendo objeto de escrutinio en cuanto a privacidad y protección de datos por la UE, ha adoptado una solución que tensiona los derechos y libertades de sus ciudadanos y que no es conforme a los principios del RGPD. Ambos supuestos, el de Hong Kong y Corea del Sur conducen a un concepto muy amplio de interés público, el cual entendería que el derecho a la vida es preferente a la privacidad. Aunque es un falso debate, ya que se puede lograr una alta eficiencia en la gestión sanitaria cumpliendo con elevados estándares de privacidad. A estos dos países hay que sumar Taiwán que igualmente ha aplicado mecanismos de trazabilidad con la ausencia de anonimización,  elementos a los que hay que añadir la obligatoriedad que estarían en contra del RGPD. Este país de especial estatus internacional, a pesar de contar con una normativa avanzada haría un uso desproporcionado de los datos personales de los usuarios de su aplicación «SafeEntry» no conforme con la legislación europea. La aplicación «PeduliLindungi» de Indonesia cuenta con mayores impedimentos, si cabe, que los anteriores aplicativos, pues el país, no cuenta con un contexto normativo de protección de datos homologable al de la UE, que pueda compensar las medidas invasivas y desproporcionadas como ocurre en Hong Kong o Corea del Sur.

En consecuencia, en los casos de China, Hong Kong, Taiwán, Corea del Sur e Indonesia se cumpliría la hipótesis de contar con aplicaciones de seguimiento de contacto COVID-19 no conforme con el RGPD. En el extremo contrario, es decir, que cuentan con aplicaciones que son adecuadas con la normativa de protección de datos de la UE, hallaríamos a Singapur y a Japón. El primero de estos países ha recibido tradicionalmente críticas de exceso de control y vigilancia digital, no obstante, su aplicación, «TraceTogether», cumpliría los requerimientos técnicos sustanciales que exigen las recomendaciones de las instituciones europeas. La misma afirmación es aplicable a COVID-19 Contact App, a un contexto homologado plenamente por la UE, se suma la utilización de la plataforma desarrollada por Apple y Google, API, que ha recibido la validación por la UE y EEUU.

Para finalizar, se puede concluir como la disminución de la privacidad y de la protección de datos personales no es lo que otorga una mayor eficiencia a la lucha contra la pandemia, sino un sistema sanitario lo suficientemente robusto para gestionar la información y efectuar las acciones que sean necesarias con la información que ofrecen las aplicaciones alineadas con el RGPD. Si atendemos a la finalidad principal de las aplicaciones, que es el seguimiento de contactos COVID-19 para prevenir la expansión de la pandemia, los exigentes requerimientos establecidos por la normativa europea no son ningún obstáculo o impedimentos para que se cumpla con la misma. Por tanto, es una falacia que el estado de vigilancia digital con deriva totalitaria asiático sea la clave del éxito, tal como señalaba Binyung-Chul Han. Por el contrario es la existencia sinérgica de sistemas de recopilación de la información preventivos y eficientes, que actúen de manera proporcional y con todas las garantías, con estrategias sanitarias públicas adecuadas a la situación de pandemia.

Josep Cañabate Pérez
Profesor de la Facultad de derecho – UAB, vocal ENATIC.

 


[1] El 25 de mayo 2018 se produjo la aplicación del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos). Diario Oficial de la Unión Europea (en adelante, DOE), L-119/1, de 5 de mayo de 2016, pp. 1-88.

[2] Han, Byung-Chul. «El virus es un espejo, muestra en qué sociedad vivimos». El Tiempo, 16/05/2020. Consultado el 9 de julio de 2020 desde

[3] Han,Byung-Chul.  Por qué a Asia le va mejor que a Europa en la pandemia: el secreto está en el civismo, El País, 25/10/2020. Consultado el 29 de octubre de 2020 desde https://elpais.com/ideas/2020-10-24/por-que-a-asia-le-va-mejor-que-a-europa-en-la-pandemia-el-secreto-esta-en-el-civismo.html?ssm=TW_CC.

[4] Comunicado conjunto emitido por parte de Alessandra Pierucci, Presidenta del Comité de la Convención 108 y Jean-Philippe Walter, Comisionado de Protección de Datos del Consejo de Europa respecto de derecho a la protección de datos en el contexto de la pandemia del COVID-19, de fecha, 30 de mayo de 2020. Consultado el 15 de mayo de 2020 desde https://www.coe.int/en/web/data-protection/statement-by-alessandra-pierucci-and-jean-philippe-walter.

Los presupuestos de justicia en el mundo y sus grandes diferencias en cuanto a digitalización

La comparación de los presupuestos de justicia a nivel internacional no es sencilla, pero puede proporcionar algunas conclusiones de interés. Si comparamos la cantidad de recursos públicos reservada para los órganos judiciales como proporción del PIB de cada país (véase el gráfico 1) hay grandes diferencias: Eslovenia gasta un 0’5% del PIB mientras Japón o Noruega un 0’065%. Puede ser sorprendente comprobar que, estadísticamente, no hay una relación clara entre el gasto en justicia y la duración de los procedimientos judiciales.

GRÁFICO 1: PRESUPUESTO DE JUSTICIA COMO PROPORCIÓN DEL PIB DE CADA PAÍS

Fuente: Palumbo et al. (2013a y 2013b)

Sin embargo, sí parece importante cómo se gasta el presupuesto (y, por tanto, no cuánto se gasta). Las tablas 1 y 2 recopilan información de los presupuestos de justicia en distintos países (o familias legales) de la OCDE por tipo de gasto. Más técnicamente, la información corresponde al presupuesto público asignado a los órganos judiciales. Recordemos que España pertenece a la familia romano-francesa en estas clasificaciones. 

TABLA 1. PROPORCIÓN DEL PRESUPUESTO EN JUSTICIA POR TIPO DE GASTO (OCDE)

País o regiónSalariosInformatizaciónGastos en intérpretes, peritos, expertos, etc.Costes operativosInmueblesFormaciónOtros
Dinamarca68,57,9015,40,97,3
Escocia39,82,95,719,36,80,125,4
Eslovaquia64,51,50,26,40126,4
Eslovenia70,82,321,34,30,60,70
Estonia7713,1180,80,1
Finlandia764,93,31302,8
Hungría80,72,96,210,10,10
Inglaterra y Gales60,72,55,420,10,10,111,1
Irlanda35,63,70,112,138,40,89,3
Irlanda del Norte56,3122,928,40,4
Islandia1,7
Israel67,95,64,910,56,80,73,5
Italia74,51,910,48,804,3
Japón61,11,84,70,61,72,527,5
Noruega63,43,6022,40,81,28,5
Nueva Zelanda50,79,717,213,60,48,5
Países Bajos74,19,90,411,102,12,5
Polonia65,50,810,95,13,10,214,5
Portugal81,225,27,304,3
República Checa582,13,51,30035,1
Rusia643,40,46,47,80,317,7
Suecia70,72,4141,212,7
Suiza77,24,29,66,50,80,41,3
Media65,43,95,511,64,50,910,9
Fuente: Palumbo et al. (2013a y 2013b)

Al igual que algunas economías gastaban más que otras, la distribución del gasto por tipo es también distinta entre países. Hungría, Italia o Portugal gastan alrededor de ¾ de su presupuesto en los salarios de los jueces y empleados del sistema judicial. Irlanda en cambio gasta alrededor de un tercio de su presupuesto para ese mismo fin. Si nos centramos en el gasto en informatización algunos países invierten menos del 2% (Italia o Polonia) frente al casi 10% de los Países Bajos.

Del análisis general surgen distintos “modos de gestión”: los países de “Derecho común” (Common Law) suelen concentrar más recursos en tecnificar el sistema judicial. Los países de la familia romano-francesa invierten más en salarios. Pues bien, son los países que invierten una mayor proporción de su presupuesto en tecnologías de la información y comunicación (TIC) los que muestran también duraciones de los procedimientos judiciales menores[1].

TABLA 2. PROPORCIÓN DEL PRESUPUESTO EN JUSTICIA POR TIPO DE GASTO POR FAMILIA LEGAL (OCDE)

FAMILIA LEGALSalariosInformatizaciónGastos en intérpretes, peritos, expertos, etc.Costes operativosInmueblesFormaciónOtros
Derecho común (Common Law)51,86,1617,3130,411,6
Derecho romano-francés76,64,65,39,102,13,4
Derecho germánico69,42,17,46,510,713,1
Derecho nórdico69,74,11,116,20,41,17,8
Antiguos países socialistas643,40,46,47,80,317,7
Media65,43,95,511,64,50,910,9
Fuente: Palumbo et al. (2013a y 2013b)

Toda esta información puede ser ampliada en las referencias mencionadas al final del artículo.

Juan S. Mora-Sanguinetti [2]|
Vicepresidente de Enatic

 


Referencias

Mora-Sanguinetti, J. S. (2013) “El funcionamiento del sistema judicial: nueva evidencia comparada”. Boletín Económico-Banco de España 11. 57-67.

Palumbo, G., Giupponi, G., Nunziata, L. y J. S. Mora-Sanguinetti (2013a). “The Economics of Civil Justice: New Cross-Country Data and Empirics”. OECD Economics Department Working Papers No. 1060.

Palumbo, G., Giupponi, G., Nunziata, L. y J. S. Mora-Sanguinetti (2013b). “Judicial performance and its determinants: a cross-country perspective”. OECD Economic Policy Paper No.5.

Notas

[1] El coeficiente de correlación se encuentra en el 0.35.

[2] Las opiniones y las conclusiones recogidas en este artículo representan las ideas del autor, con las que no necesariamente tiene que coincidir el Banco de España o el Eurosistema.

Conoce a los ganadores de los “Premios Enatic 2021”

ENATIC celebrará su Congreso Internacional de Derecho Digital el próximo 27 de abril en modalidad online de 09.30h a 19.00h.
Durante la jornada se entregarán los “Premios Enatic 2021”, cuyo objetivo es reconocer y estimular la excelencia profesional, el trabajo y la dedicación en el ámbito jurídico, así como la aportación al Derecho digital durante el último año.

La Asociación de Expertos Nacionales de la Abogacía TIC (Enatic) ha publicado hoy los “Premios Enatic 2021” en las categorías de premio a mejor jurista digital, institución de Derecho Digital, comunicación de Derecho Digital, innovación en Derecho Digital, investigación en Derecho Digital, y responsabilidad social en Derecho Digital. Estos premios tienen el objetivo de reconocer y estimular la excelencia profesional, el trabajo y la dedicación en el ámbito jurídico, así como la aportación al Derecho digital durante el último año.

El premio ENATIC al mejor jurista digital ha sido para Ofelia Tejerina, como reconocimiento por su trabajo de defensa en derechos digitales en época de pandemia, tanto a título personal como en calidad de presidenta de la Asociación de Internautas.

En la categoría de mejor institución de Derecho Digital, la galardonada ha sido la Secretaria de Estado de Digitalización e Inteligencia Artificial, con motivo de su labor en materia de digitalización, sus trabajos para la elaboración de una carta de derechos digitales y la creación del Consejo Consultivo para la Transformación Digital.

El premio ENATIC a la comunicación de Derecho Digital lo recibe Luis Javier Sánchez, como reconocimiento por su continua labor de difusión del derecho digital.

Respecto al reconocimiento a la innovación en Derecho Digital, la ganadora ha sido la Comisión Nacional de los Mercados y de Competencia, por la labor de la Unidad de Inteligencia Económica, introduciendo la estadística y la inteligencia artificial como herramientas para la detección de oficio de prácticas anticompetitivas, lo que redunda en un mejor funcionamiento del mercado y en una mayor protección de los derechos de los consumidores.

ENATIC concede el premio a la investigación en Derecho Digital a Javier Sempere, por la elaboración de la versión 2.0 del «Crossover» entre el RGPD y la nueva LOPD, publicado de forma abierta y gratuita.

Finalmente, el premio ENATIC a la responsabilidad social en Derecho Digital ha sido para Atresmedia, por su iniciativa “Levanta la Cabeza”, orientada a fomentar el debate sobre el entorno digital y tecnológico en el que vivimos y cómo debemos afrontar los cambios y retos que supone.

Factores que contribuyen a la llegada a buen puerto de la función del Delegado de Protección de Datos

El Delegado de Protección de Datos (DPD), centrándome exclusivamente en el sector privado, se erige en la figura clave para impulsar el cumplimiento de la normativa de protección de datos, tanto en aquellos supuestos de nombramiento obligatorio como voluntario.

Como todo “oficio” de nuevo cuño, el éxito de la implantación de la figura del DPD pivota en factores de diversa índole, todos ellos necesarios, que dependen unas veces del responsable del tratamiento y, otras veces, de las cualidades y aptitudes del propio DPD. Veamos:

Factores que dependen del responsable del tratamiento

Resulta imprescindible que el DPD esté investido de “autoridad jerárquica” y a ello contribuye:

  • Compromiso firme de cumplimiento por la alta dirección, garantía de autonomía e independencia en el desarrollo de sus funciones, reporte directo a la alta dirección, dotación de recursos y medios suficientes.
  • Aprobación y difusión de un estatuto con la descripción de las funciones que corresponden al DPD, estableciendo de manera expresa la obligación de consultar y, correlativamente, la disponibilidad y accesibilidad que se espera del DPD, aclarando que la responsabilidad ante posibles sanciones no es atribuible al DPD sino que lo es, únicamente, al responsable del tratamiento.
  • Gobernanza de los datos: Aprobación y difusión de políticas, protocolos y procedimientos para garantizar la gestión proactiva, adaptados a la realidad organizativa y a los tratamientos realizados por el responsable; publicitar interna y externamente el canal del DPD; creación de un grupo multidisciplinar con los departamentos que habitualmente tratan datos personales en el desarrollo de sus funciones.
Factores que dependen del DPD

Para no ser percibido únicamente como una figura de control (que lo es) pero ajena al día a día o, lo que es peor, como una suerte de “paralizador sistemático de proyectos”, resulta imprescindible que el DPD esté investido de “autoridad moral” y a ello contribuye:

  • Conocimiento profundo de la organización y de la realidad de la actividad desarrollada por el responsable del tratamiento, contribuyendo a “aterrizar” la normativa: La revisión ordinaria o extraordinaria del registro de actividades de tratamiento, de los planes de acción derivados del análisis de riesgos o de las evaluaciones de impacto de privacidad son momentos óptimos para conectar y detectar aspectos de mejora, cambios relevantes o inquietudes planteadas por los profesionales que tratan datos personales.
  • Impulsar una cultura de cumplimento de la normativa de protección de datos: Adaptar la formación a la realidad de cada profesional con conceptos claros, precisos y ejemplos prácticos; difusión personalizada mediante el envío de píldoras informativas, recopilatorio semanal de noticias destacadas y su relación con aspectos del día a día o, resumen de resoluciones e informes relevantes por ámbitos de actividad de tratamiento, concretando propuestas de mejora.
  • Empatizar, mostrarse accesible y generar confianza: Evitar discursos del tipo “las sanciones pueden ascender a 20 millones de € o al 4% de la facturación”, lo sabemos y tiene un cierto efecto paralizante. El discurso debe focalizarse en lo que puede (y debe) hacerse, conceptos como la prevención, la detección y mitigación del riesgo, el hecho que siempre es mejor consultar a tiempo que generar un problema y, en resumen, que debe contarse con el DPD desde la fase de diseño, por cuanto “el RGPD no prohíbe, indica el camino” y la función del DPD es ayudar a descubrir y concretar ese camino.

La suma de los anteriores factores contribuye, sin duda, a lograr que la protección de datos no sea percibida como “cosa” del DPD, sino que sea asumida como un compromiso por parte de todos y cada uno de los profesionales que integran la estructura del responsable del tratamiento y, de esa manera, llegar a buen puerto.

Isabel Mascaró Currás
Compliance Officer, Delegada de Protección de Datos y Vocal ENATIC.

Los NFT y la evolución de la economía digital

El objetivo de este post es intentar explicar cómo los criptoactivos y especialmente los llamados NFT (Non Fungible Tokens) o fichas no fungibles pueden ayudar a redistribuir la riqueza y proteger el valor que aportan las personas con su trabajo en la era digital incidiendo en sus actuales debilidades y fortalezas. Los NFT tienen la característica de ser un objeto no fungible y eso permite que las unidades de fichas (o tokens) no puedan ser reemplazadas por otras idénticas ya que son activos únicos y distinguibles unos de otros.

Empecemos por definir qué es un criptoactivo. Según el artículo 3 de la propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los mercados de criptoactivos y por el que se modifica la Directiva (UE) 2019/1937 (o Reglamento MiCA), un criptoactivo es una representación digital de valor o derechos que puede transferirse y almacenarse electrónicamente, mediante la tecnología de registro

descentralizado o una tecnología similar.

La propuesta de Reglamento se integrará en un paquete de finanzas digitales, cuyas medidas estarán dirigidas a explotar en mayor grado y apoyar el potencial de las finanzas digitales en términos de innovación y competencia, reduciendo al mismo tiempo los riesgos.

El paquete comprende una nueva Estrategia de Finanzas Digitales para el sector financiero de la UE cuyo objetivo es garantizar que la Unión adopte la revolución digital y la lidere con la ayuda de empresas europeas innovadoras a la vanguardia, de manera que los beneficios de las finanzas digitales estén al alcance de los consumidores y las empresas de Europa.

Por lo tanto, además de la presente propuesta, el paquete incluirá una propuesta de régimen piloto sobre infraestructuras del mercado basadas en la tecnología de registro descentralizado (TRD), una propuesta relativa a la resiliencia operativa digital y una propuesta para aclarar o modificar determinadas normas conexas de la UE en materia de servicios financieros.

Centrándonos en la propuesta de Reglamento MiCA, podemos diferenciar dos grandes tipos de criptoactivos según son considerados estables o no.

Por un lado los criptoactivos estables serían aquellos que se consideran “fichas referenciada a activos” o “fichas de dinero electrónico” (los términos de ficha o “token” se pueden utilizar indistintamente):

  • Los criptoactivos de “ficha referenciada a activos” son un tipo de criptoactivo que, a fin de mantener un valor estable, se referencia al valor de varias monedas fiat de curso legal, una o varias materias primas, uno o varioscriptoactivos, o una combinación de dichos activos.
  • Los criptoactivos de “ficha de dinero electrónico” son un tipo de criptoactivo cuya principal finalidad es la de ser usado como medio de intercambio y que, a fin de mantener un valor estable, se referencia al valor de una moneda fiat de curso legal.

La propuesta también regulará las fichas de servicio que son un tipo de criptoactivo usado para dar acceso digital a un bien o un servicio, disponible mediante TRD, y aceptado únicamente por el emisor de la ficha en cuestión.

Los criptoactivos funcionan a través de redes de contratos inteligentes (smart contractsi) basadas en las tecnologías de registros distribuidos (TRD o DLT) llamada comúnmente como “blockchain”ii y que permiten su operativa en base a instrucciones programadas (e inmutables) y autorizadas por sus titulares con claves privadas.

Los NFT es un tipo de token o ficha criptográfica que representa un activo único, irrepetible y limitado en su emisión o cantidad. Los NFT permiten asignar un valor a bienes, servicios o derechos referenciados aprovechando las características de las tecnologías de registros descentralizados y dichas fichas funcionan como prueba de autenticidad y titularidad de su propiedad ante terceros.

Que las NFT no funcionen como por ejemplo Bitcoins (activos fungibes), se basa en el protocolo o estándar que le aporta ciertas características en la operativa que aporta dichas cualidades al NFT.

Con este tipo de tecnología podemos pasar a un tercer nivel de funcionalidades de internet, es decir de la web 1.0 que aporta información, pasando por la web 2.0 actual que permite las interacciones P2P o las redes sociales, hasta la web 3.0 que amplía la posibilidad de intercambiar valor entre usuarios de forma autónoma y descentralizada a través de la red.

Uno de los gurús, tecnólogo y filósofo de las TIC, Jaron Lanier, ya ha advertido durante años que las grandes empresas de internet (GAFAM) explotan la información que generamos los usuarios sin que podamos recibir ninguna contraprestación a cambio (o por lo menos no de forma equitativa en proporción a lo que nos pueden ofrecer en forma de servicios). Desde los datos personales, la publicación de un artículo o la creación de un gif animado hasta traducir frases o identificar imágenes del Captcha son activos que muchos usuarios comparten aportando valor a la red y que sólo los grandes de internet explotan hasta conseguir generar cientos de miles de millones de dolares de beneficios al año sin retribución equitativa o de ningún tipo a cambio.

Por ello Jaron propuso el desarrollo de las “Mediators of Individual Data” (MIDs). Las MID tendrían una primera función que sería la negociación colectiva del precio de producir datos o cualquier tipo de información. De esta forma serían los MIDs y no el usuario productor de información o datos el que negociara con los grandes monopolios de la industria del dato (entre ellos los GAFAM). Según palabras de Jaron, “la gente debería poder formar parte de un MID y hacer un aporte, a la vez que se le garantiza un pago justo por la tarea que sepa hacer”. El MID funcionaría como un sindicato de los usuarios cuando actúen como productores de activos digitales.

Aquí es donde las NFT pueden tener una gran relevancia en el control de la titularidad, identificación, autenticidad, asignación y transferencia de valor de los activos digitales. No obstante debemos ser conscientes que en este caso con el uso de los NFT resolveríamos una parte del problema que sería determinar la titularidad del criptoactivo pero no de los bienes y derechos subyacentes o referenciados por las fichas o tokens. Es decir, actualmente la titularidad de un token no garantiza la titularidad de los derechos de los bienes o activos que representa o referencia. Incluso tampoco garantiza que el mismo bien o activo referenciado pudiera ser “tokenizado” por otros estándares si no se implementan sistemas seguros e interoperables de TRD (como las tecnologías de cadenas cruzadas o el “Cross Chain”) así como la importancia de la consolidación de oráculos de confianza (tanto centralizados como descentralizados). Dichas garantías las deben aportar los ordenamientos jurídicos de cada estado que son los que determinan la legitimidad de la titularidad de bienes y derechos así como su forma de transmitirlos.

No se quiere quitar importancia a la tecnología que permite la transmisión de valor contenida en criptoactivos en infraestructuras de “blockchain”, pero es importante recordar que no es un registro de propiedad o de derechos que sustituya al establecido en los ordenamientos jurídicos de los estados. No olvidemos que una de las propiedades de “blockchain” es la determinación de validez de una transacción por una política basada en el consenso y que se está generando una opinión pública que al

no tener supervisión centralizada por una autoridad genera más confianza.

Un ordenamiento jurídico se compone de un acervo cultural de cientos de años de evolución y acuerdos entre personas que regulan nuestra forma de relacionarnos y convivir. Un principio que hace funcionar una tecnología, por muy justo que parezca no sustituye a toda la cultura jurídica de la humanidad.

Eduardo López Román
Vocal de Enatic

 


Más información:
Contratos inteligentes: los “smartcontract”

Congreso Internacional de Derecho Digital Enatic

Vuelve el Congreso Internacional de Derecho Digital de ENATIC

Nos complace comunicaros que ya tenemos fecha para el Congreso Internacional de Derecho Digital de ENATIC, la principal cita del año para tod@s l@s enatiquian@s, tanto los socios, como los allegados y simpatizantes de nuestra querida asociación en lo que ya se ha venido a consolidar como la cita anual de referencia para todo el Sector y los operadores relacionados con el Derecho Digital, tanto por el propio Congreso como por los premios ENATIC de Derecho Digital.

En esta ocasión la cita será en modalidad virtual el día 27 de abril, de 09.30 a 19.00.

A lo largo de la jornada del Congreso, abordaremos los principales temas y novedades de interés relacionados con el Derecho Digital, y para ello contaremos –como de costumbre- con los más reputados expertos y con las instituciones y organismos más relevantes de la Sociedad de la Información, aplicando de este modo la misma fórmula que consiguió que las pasadas ediciones fueran todo un éxito en cuanto a contenidos, en cuanto a asistencia, o en cuanto impacto y posicionamiento mediático (con más de 9 millones de impresiones en Twitter y siendo trending topic a nivel nacional).

Pero por si fuera poco, contaremos además con la entrega de los premios ENATIC de Derecho Digital, que este año contará una vez más con unos candidatos y con un jurado de primer nivel integrado por las principales instituciones y organismos relacionados con el Derecho Digital así como por los más prestigiosos expertos de la Sociedad de la Información.

Por último, os informamos de que este año el congreso contará con el apoyo del Consejo General de la Abogacía Española, así como con todas las instituciones colaboradoras, organismos y empresas patrocinadoras cuyo apoyo y disposición ha sido esencial no sólo para la organización de este evento sino en todos los momentos de desarrollo y consolidación de ENATIC desde su nacimiento como proyecto en 2012.

Por último, poniendo voz al deseo de cuantos hemos participado en la organización de éste y de anteriores congresos, y partiendo de la premisa de que el principal activo de la asociación y de nuestros encuentros es la energía y el espíritu positivo, os animamos a participar en este Congreso Internacional de Derecho Digital de ENATIC con el doble objetivo de disfrutar de un magnífico encuentro entre amigos y de que sus sesiones resulten del máximo provecho para todos, para lo cual, la organización ha previsto una serie de condiciones preferentes entre las cuales están el precio de inscripción al congreso –que será de 48€ para el público general y de acceso gratuito para los socios de ENATIC– habida cuenta de que en las ediciones anteriores apenas se agotaron en apenas 4 días- antes de abrir la inscripción al público en general.

Te esperamos

Entrevista a Carlos A. Saiz, presidente de Enatic

ENATIC, la asociación que reúne a los profesionales del Derecho digital, ha retomado su actividad con una nueva junta directiva liderada por Carlos A. Saiz, socio de Ecix Group. En una entrevista para Abogacía Española, ha explicado que la asociación se relanza con el objetivo de fortalecer la presencia de los abogados digitales en un momento en que la tecnología permea todos los aspectos legales. Saiz enfatiza la necesidad de impulsar la transformación digital en la abogacía para hacerla más eficaz, subrayando que «prácticamente todo está impregnado de tecnología y, evidentemente, todo tiene una repercusión legal».

Ha destacado, igualmente, que la nueva dirección de ENATIC se centrará en desarrollar un Plan de Acción Estratégico que profesionalice la gestión interna, fomentar la formación especializada y revitalizar el Congreso anual del sector. Además, buscará fortalecer las alianzas nacionales e internacionales, posicionando a ENATIC como un referente imprescindible en los debates sobre el futuro del Derecho digital.

Lee la entrevista completa.