Listado anual: 2025
Validación oficial del «Código de Prácticas para modelos de IA de uso general»
/0 Comentarios/en Noticias/por Guido RiccaLaw Zero
/0 Comentarios/en Noticias/por Enatic Abogacía DigitalLa iniciativa LawZero, se materializa bajo el eslogan «Safe AI for Humanity».
IA ACT | España, pionera en algoritmos verdes: ¿sabes qué son?
/0 Comentarios/en Noticias/por Enatic Abogacía Digital
El 25 de junio de 2025 se celebró en Madrid el segundo hackathon “Soluciones GenAI para la Biodiversidad”, un evento organizado por la Secretaría de Estado de Digitalización e Inteligencia Artificial (dependiente del Ministerio para la Transformación Digital y de la Función Pública) con el objetivo de fomentar el desarrollo de inteligencia artificial (IA) ética, sostenible y ambientalmente responsable. El encuentro se enmarca dentro del Programa Nacional de Algoritmos Verdes (PNAV), una iniciativa clave de la Estrategia Nacional de Inteligencia Artificial (ENIA) lanzada en 2021…
Noticia completa de ElNacional.cat: https://www.elnacional.cat/oneconomia/es/on-ia/espana-pionera-en-algoritmos-verdes-sabes-son_1442161_102.html
Informe sobre el impacto de la IA generativa en la infancia
/0 Comentarios/en Noticias/por Enatic Abogacía DigitalInforme sobre el impacto de la IA generativa en la infancia
Accesibilidad de productos y servicios digitales
/0 Comentarios/en Noticias/por Enatic Abogacía DigitalAccesibilidad de productos y servicios digitales
El tablero fantasma: Cómo la lA está forjando el nuevo orden mundial
/0 Comentarios/en El Blog de Enatic/por Enatic Abogacía DigitalEl motor que impulsa esta nueva era es la colosal rivalidad tecno-estratégica entre Estados Unidos y China. No se trata de una simple competencia comercial, sino de una lucha existencial por imponer un modelo de futuro. El AI Index 2025 de la Universidad de Stanford revela el pulso de esta batalla: Washington mantiene una formidable ventaja en la inversión privada, pero Pekín, con un esfuerzo estatal titánico, ha logrado una «casi paridad» en la calidad de sus modelos y ostenta el liderazgo en patentes e investigación. Esta competición, como la define el Center for a New American Security (CNAS), es una «Rivalidad Prometeica» cuyo premio es determinar si la tecnología más poderosa de la historia se regirá por principios democráticos o por la lógica del control autoritario.
La estrategia de Estados Unidos ha sido la de un «estrangulamiento» selectivo, usando controles de exportación y alianzas como la «Chip 4» entre Estados Unidos, Japón, Taiwán y Corea del Sur para cortar el acceso de China al eslabón más avanzado de la cadena. La respuesta de Pekín ha sido una ofensiva total por la autosuficiencia, una cruzada nacional para dominar una tecnología que considera vital para su seguridad y su destino. Este pulso por el silicio no es un fin en sí mismo; es la logística que alimenta los otros dos grandes frentes de la nueva guerra.
El primer frente que se nutre de este poder de cómputo es el de la guerra moderna. La IA está inyectando una velocidad vertiginosa en el arte del conflicto, persiguiendo la llamada «ventaja decisional». Sistemas como los probados por el Pentágono pueden procesar información y ofrecer opciones a los comandantes a un ritmo que la mente humana es incapaz de igualar. Esto conduce inevitablemente hacia un horizonte de autonomía, donde enjambres de drones y sistemas de armas navales o terrestres podrían ejecutar misiones complejas, tomando decisiones tácticas en milisegundos. La promesa es una eficiencia letal; el riesgo es un campo de batalla deshumanizado, donde el error de un algoritmo podría desencadenar una escalada catastrófica.
Pero quizás el frente más insidioso de esta guerra del siglo XXI no es el que se libra con hardware, sino el que se combate dentro de nuestras mentes. La IA generativa ha democratizado la capacidad de fabricar mentiras a una escala industrial. El conflicto en Ucrania ha sido un laboratorio para estas tácticas. Informes de la OTAN han detallado el uso por parte de Rusia de herramientas como «Meliorator», diseñadas para crear y operar ejércitos de perfiles falsos que inundan las redes con desinformación, polarizando el debate y socavando la confianza. Los deepfakes de líderes políticos, como los que suplantaron al presidente Zelenski, ya no son una anécdota de ciencia ficción, sino un arma de guerra psicológica real. El objetivo estratégico es claro: no solo ganar una discusión, sino erosionar el concepto mismo de verdad, desestabilizando las democracias desde sus cimientos al hacer imposible el consenso basado en una realidad compartida.
Esta militarización implacable de la tecnología obliga a la humanidad a asomarse a un profundo abismo ético. A medida que delegamos decisiones críticas en las máquinas, la cuestión de la responsabilidad se vuelve borrosa y urgente. Informes de instituciones como SIPRI alertan sobre el peligro fundamental del «sesgo algorítmico»: sistemas entrenados con datos del pasado que reflejan nuestros propios prejuicios, y que podrían llevar a una máquina a discriminar en el campo de batalla, violando el derecho internacional humanitario. En respuesta, la comunidad internacional busca a tientas un marco de gobernanza. Se celebran cumbres como REAIM (Responsible AI in theMilitaryDomain) y se aprueban resoluciones en la ONU, pero la misma rivalidad geoestratégica que impulsa la carrera armamentística impide alcanzar un tratado vinculante.
En medio de esta polarización, la Unión Europea intenta labrar un tercer camino. Con su Reglamento de IA, busca erigirse en una «potencia normativa», estableciendo un estándar global para una inteligencia artificial fiable y centrada en el ser humano que, sin embargo, está frenando la innovación en este territorio. En cualquier caso y aunque el Reglamento excluye los sistemas puramente militares, su regulación de las tecnologías de doble uso es un intento deliberado de proyectar sus valores, ofreciendo un modelo que no se somete ni a la lógica del mercado sin restricciones ni al control estatal absoluto.
Así, el tablero fantasma de la IA nos muestra que la contienda por el futuro es total. Es una guerra económica por los chips, una carrera militar por la autonomía letal, una batalla cognitiva por la verdad y una lucha filosófica por el alma de la nueva tecnología. El vencedor no será solo quien desarrolle los algoritmos más potentes, sino quien logre imponer su visión del mundo a través del código, definiendo para las generaciones futuras el equilibrio entre la libertad, la seguridad y el control en la era de las máquinas inteligentes.
En definitiva, las conclusiones que se desprenden de este tablero fantasma son inequívocas. No estamos asistiendo a carreras tecnológicas separadas, sino a un único y gran conflicto por el control del sistema operativo del siglo XXI. La soberanía sobre el silicio, la automatización del poder letal y la erosión de la realidad son facetas interdependientes de una misma pugna existencial por definir si el futuro se escribirá con un código de principios abiertos y democráticos o con uno de control centralizado y autoritario. Cada avance en este campo es una jugada estratégica con consecuencias profundas, y las decisiones que se tomen hoy —en los laboratorios, en los parlamentos y en los cuarteles generales— están configurando ya los cimientos de un nuevo orden mundial en el que la línea entre el progreso humano y el control maquinal es más fina y peligrosa que nunca.
Antonio Serrano Acitores
Abogado. Profesor Titular de Derecho Mercantil de la Universidad Rey Juan Carlos
Regulación de la IA: situación actual y tendencias
/en Eventos/por Enatic Abogacía DigitalEl Reglamento de Inteligencia Artificial ha culminado su tramitación legislativa en Europa, marcando un punto de inflexión en la gobernanza de la IA. Sin embargo, la aprobación formal no cierra los debates: persisten incógnitas sobre su aplicación práctica, su interacción con otras normas (en especial el RGPD) y su encaje en un escenario internacional donde la IA es también un eje de poder geoestratégico.
Para abordar estas cuestiones, ENATIC organiza un nuevo webinar gratuito, el próximo jueves, 12 de junio a las 17 horas, que reunirá a juristas especializados que han seguido de cerca el proceso regulatorio y sus implicaciones.
Presentará la sesión Rodolfo Tesone, con la moderación de Pablo Sáez Hurtado.
Intervendrán:
- José Manuel Muñoz Vela, con una visión panorámica del posicionamiento internacional y el estado actual del Reglamento de IA y otros instrumentos jurídicos europeos.
- José Leandro Núñez García, sobre la difícil intersección entre el RGPD y el Reglamento de IA.
- Antonio Serrano Acitores, que analizará la dimensión geoestratégica de la IA en la pugna entre Estados Unidos y China, y el rol de Europa.
Una cita imprescindible para comprender los retos de la Inteligencia Artificial desde una perspectiva jurídica y global.
Enatic presenta aportaciones al Plan Estratégico de la AEPD
/en Asociación/por Enatic Abogacía DigitalEnatic ha participado en la consulta pública lanzada por la Agencia Española de Protección de Datos (AEPD) para la elaboración de su Plan Estratégico 2025–2030. La Asociación ha querido contribuir a este proceso con una serie de propuestas que buscan reforzar el papel de la AEPD como autoridad proactiva, técnica, orientadora y cercana, capaz de acompañar eficazmente los desafíos de la transformación digital.
Nuestras aportaciones abordan los distintos ejes del Plan y plantean, entre otras ideas:
- La necesidad de reconocer la mejora continua como buena práctica de cumplimiento, evitando que los mecanismos internos de revisión y aprendizaje organizativo se interpreten como prueba de infracción.
- La importancia de desarrollar un canal de consultas estructurado, con respuestas públicas a cuestiones jurídicas complejas o recurrentes, que refuercen la seguridad jurídica del ecosistema regulado.
- La conveniencia de diferenciar las herramientas de soft law, como las guías, de las circulares del artículo 55 de la LOPDGDD, que deben utilizarse para fijar los criterios interpretativos que guiarán la actuación de la Agencia.
- La propuesta de incorporar un eje específico dedicado a la ciberseguridad, como dimensión esencial y transversal de la protección de datos personales.
- El impulso de foros estables de interlocución con profesionales y entidades especializadas, así como la coordinación con iniciativas públicas afines como la implementación práctica de la Carta de Derechos Digitales.
Agradecemos a la AEPD la oportunidad de participar en este ejercicio de planificación estratégica, y confiamos en que nuestras propuestas contribuyan a reforzar una gobernanza más abierta, útil y adaptada a los retos del entorno digital.



Imagen creada con ChatGPT o4 mini high bajo instrucciones del autor



Imagen generada por la IA de Google “Imagen 4” bajo prompting del autor
