El tablero fantasma: Cómo la lA está forjando el nuevo orden mundial
El motor que impulsa esta nueva era es la colosal rivalidad tecno-estratégica entre Estados Unidos y China. No se trata de una simple competencia comercial, sino de una lucha existencial por imponer un modelo de futuro. El AI Index 2025 de la Universidad de Stanford revela el pulso de esta batalla: Washington mantiene una formidable ventaja en la inversión privada, pero Pekín, con un esfuerzo estatal titánico, ha logrado una «casi paridad» en la calidad de sus modelos y ostenta el liderazgo en patentes e investigación. Esta competición, como la define el Center for a New American Security (CNAS), es una «Rivalidad Prometeica» cuyo premio es determinar si la tecnología más poderosa de la historia se regirá por principios democráticos o por la lógica del control autoritario.
La estrategia de Estados Unidos ha sido la de un «estrangulamiento» selectivo, usando controles de exportación y alianzas como la «Chip 4» entre Estados Unidos, Japón, Taiwán y Corea del Sur para cortar el acceso de China al eslabón más avanzado de la cadena. La respuesta de Pekín ha sido una ofensiva total por la autosuficiencia, una cruzada nacional para dominar una tecnología que considera vital para su seguridad y su destino. Este pulso por el silicio no es un fin en sí mismo; es la logística que alimenta los otros dos grandes frentes de la nueva guerra.
El primer frente que se nutre de este poder de cómputo es el de la guerra moderna. La IA está inyectando una velocidad vertiginosa en el arte del conflicto, persiguiendo la llamada «ventaja decisional». Sistemas como los probados por el Pentágono pueden procesar información y ofrecer opciones a los comandantes a un ritmo que la mente humana es incapaz de igualar. Esto conduce inevitablemente hacia un horizonte de autonomía, donde enjambres de drones y sistemas de armas navales o terrestres podrían ejecutar misiones complejas, tomando decisiones tácticas en milisegundos. La promesa es una eficiencia letal; el riesgo es un campo de batalla deshumanizado, donde el error de un algoritmo podría desencadenar una escalada catastrófica.
Pero quizás el frente más insidioso de esta guerra del siglo XXI no es el que se libra con hardware, sino el que se combate dentro de nuestras mentes. La IA generativa ha democratizado la capacidad de fabricar mentiras a una escala industrial. El conflicto en Ucrania ha sido un laboratorio para estas tácticas. Informes de la OTAN han detallado el uso por parte de Rusia de herramientas como «Meliorator», diseñadas para crear y operar ejércitos de perfiles falsos que inundan las redes con desinformación, polarizando el debate y socavando la confianza. Los deepfakes de líderes políticos, como los que suplantaron al presidente Zelenski, ya no son una anécdota de ciencia ficción, sino un arma de guerra psicológica real. El objetivo estratégico es claro: no solo ganar una discusión, sino erosionar el concepto mismo de verdad, desestabilizando las democracias desde sus cimientos al hacer imposible el consenso basado en una realidad compartida.
Esta militarización implacable de la tecnología obliga a la humanidad a asomarse a un profundo abismo ético. A medida que delegamos decisiones críticas en las máquinas, la cuestión de la responsabilidad se vuelve borrosa y urgente. Informes de instituciones como SIPRI alertan sobre el peligro fundamental del «sesgo algorítmico»: sistemas entrenados con datos del pasado que reflejan nuestros propios prejuicios, y que podrían llevar a una máquina a discriminar en el campo de batalla, violando el derecho internacional humanitario. En respuesta, la comunidad internacional busca a tientas un marco de gobernanza. Se celebran cumbres como REAIM (Responsible AI in theMilitaryDomain) y se aprueban resoluciones en la ONU, pero la misma rivalidad geoestratégica que impulsa la carrera armamentística impide alcanzar un tratado vinculante.
En medio de esta polarización, la Unión Europea intenta labrar un tercer camino. Con su Reglamento de IA, busca erigirse en una «potencia normativa», estableciendo un estándar global para una inteligencia artificial fiable y centrada en el ser humano que, sin embargo, está frenando la innovación en este territorio. En cualquier caso y aunque el Reglamento excluye los sistemas puramente militares, su regulación de las tecnologías de doble uso es un intento deliberado de proyectar sus valores, ofreciendo un modelo que no se somete ni a la lógica del mercado sin restricciones ni al control estatal absoluto.
Así, el tablero fantasma de la IA nos muestra que la contienda por el futuro es total. Es una guerra económica por los chips, una carrera militar por la autonomía letal, una batalla cognitiva por la verdad y una lucha filosófica por el alma de la nueva tecnología. El vencedor no será solo quien desarrolle los algoritmos más potentes, sino quien logre imponer su visión del mundo a través del código, definiendo para las generaciones futuras el equilibrio entre la libertad, la seguridad y el control en la era de las máquinas inteligentes.
En definitiva, las conclusiones que se desprenden de este tablero fantasma son inequívocas. No estamos asistiendo a carreras tecnológicas separadas, sino a un único y gran conflicto por el control del sistema operativo del siglo XXI. La soberanía sobre el silicio, la automatización del poder letal y la erosión de la realidad son facetas interdependientes de una misma pugna existencial por definir si el futuro se escribirá con un código de principios abiertos y democráticos o con uno de control centralizado y autoritario. Cada avance en este campo es una jugada estratégica con consecuencias profundas, y las decisiones que se tomen hoy —en los laboratorios, en los parlamentos y en los cuarteles generales— están configurando ya los cimientos de un nuevo orden mundial en el que la línea entre el progreso humano y el control maquinal es más fina y peligrosa que nunca.
Antonio Serrano Acitores
Abogado. Profesor Titular de Derecho Mercantil de la Universidad Rey Juan Carlos

Imagen generada por la IA de Google “Imagen 4” bajo prompting del autor