ImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImageImage
Luca Longo

La inteligencia artificial y el futuro de la guerra

Los eruditos que contarán la historia del futuro -no sabemos si con humanos de carne y hueso o con inteligencia artificial- no pueden dejar de mencionar en sus anales la fecha del 5 de marzo de 2025. Ese día, la adopción de tecnologías avanzadas, como la inteligencia artificial en el ámbito militar, alcanzó un nuevo hito y abrió escenarios inesperados para las guerras del mañana.

Ese día, de hecho, el Pentágono adjudicó el proyecto Thunderforge a la empresa Scale AI, con el objetivo de desarrollar un sistema avanzado de IA para optimizar la planificación militar, especialmente en operaciones en Europa y la región Indo-Pacífica. Este acuerdo marca un momento crucial en la evolución de la guerra moderna, en la que la inteligencia artificial ya no está relegada al apoyo logístico o al análisis de datos, sino que se está convirtiendo en un actor central de la estrategia militar, potencialmente capaz de tomar decisiones autónomas similares a las de un comandante en el campo de batalla.

Integración de la IA en la planificación militar

El proyecto Thunderforge se basa en modelos lingüísticos avanzados y simulaciones de guerra interactivas, con el objetivo de mejorar la capacidad de tomar decisiones rápidas en escenarios de batalla. La información facilitada por la Unidad de Innovación de Defensa, la agencia estadounidense que supervisa el proyecto, esboza un sistema capaz de anticipar amenazas, ensayar escenarios de batalla y asignar recursos estratégicos a escala mundial. Al mismo tiempo, las colaboraciones con empresas como Anduril y Microsoft llevan la IA militar al siguiente nivel al integrar tecnologías avanzadas de recopilación de datos y análisis predictivo. Anduril, por ejemplo, aportará su sistema Lattice, utilizado para analizar datos de drones y sensores, mientras que Microsoft contribuirá con modelos lingüísticos que pueden mejorar la capacidad de toma de decisiones de Thunderforge. La inteligencia artificial ya no es un mero apoyo, sino un operador autónomo capaz de gestionar dinámicas complejas en tiempo real, como la de vigilar las actividades chinas en el Pacífico, según destacó el almirante Sam Paparo, responsable de las operaciones en esa región.

Los drones y las armas autónomas reconfiguran la guerra moderna

La planificación estratégica es sólo una de las aplicaciones de la IA en la guerra. Los drones autónomos, los sistemas avanzados de vigilancia y las armas que identifican y atacan objetivos sin supervisión humana ya están cambiando la faz de la guerra.

En el conflicto entre Rusia y Occidente en Ucrania, por ejemplo, ambos ejércitos utilizaron drones equipados con IA para identificar y atacar posiciones enemigas. Mientras tanto, 2.000 km más al sur, Israel empleó algoritmos de IA para seleccionar objetivos en bombardeos en Gaza y Líbano.

No se trata sólo de un paso hacia la automatización, sino de una auténtica revolución en la forma de hacer las cosas. Las decisiones ya no las toman los humanos, sino algoritmos que analizan enormes cantidades de datos, lo que hace que la guerra sea más rápida y precisa, pero también mucho más difícil de controlar.

La integración de la IA en las operaciones bélicas introduce un nuevo tipo de guerra, la guerra automática, en la que se difumina la frontera entre la decisión estratégica y la acción inmediata. Un bombardeo que antaño habría requerido una evaluación minuciosa por parte de un comandante puede ahora ser llevado a cabo por un dron autónomo en cuestión de segundos, basándose en una selección de objetivos realizada por un algoritmo, sin posibilidad de evaluación moral o ética. Esta velocidad y precisión plantea cuestiones no sólo sobre la responsabilidad, sino también sobre el impacto humano de tales decisiones.

La Resolución 79/L.77 de la ONU y la carrera por las armas autónomas

A nivel internacional, se han reconocido los riesgos derivados del uso de armas autónomas, pero los pasos hacia una regulación vinculante son lentos y se resisten. El 2 de diciembre de 2024, la Asamblea General de la ONU aprobó la Resolución 79/L.77 sobre Sistemas de Armas Autónomas Letales, con 166 votos a favor, 3 en contra (Bielorrusia, Rusia y Corea del Norte) y 15 abstenciones, entre ellas las de China e Israel. El documento, aunque reconoce los riesgos de la IA aplicada en el contexto militar, no incluye una prohibición vinculante. La resolución invita a los Estados miembros a participar en consultas informales durante 2025 para explorar posibles soluciones. Con una coherencia cuanto menos criticable, Estados Unidos votó a favor pero reiteró su intención de seguir desarrollando tecnologías bélicas basadas en la IA, revelando así su resistencia a una regulación que podría limitar su ventaja competitiva.

Esta reticencia hacia una regulación más estricta no carece de razón. El miedo a perder el dominio tecnológico en un mundo cada vez más dependiente de la superioridad de la IA es una de las principales razones por las que las principales potencias militares, incluido Estados Unidos, son reacias a adoptar medidas que puedan frenar su progreso. El riesgo, como señalé aquí mismo en Tech Economy 2030, es que una carrera armamentística basada en la IA podría desestabilizar todo el sistema de seguridad mundial, reduciendo el umbral de ataque y haciendo que la guerra no sólo sea más frecuente, sino también más sangrienta.

De la destrucción mutua asegurada al mal funcionamiento mutuo asegurado de la IA

Uno de los actores más influyentes en el panorama de la IA aplicada a la defensa es Eric Schmidt, ex consejero delegado de Google y uno de los principales defensores de la militarización de la IA. Sorprendiendo a los analistas más superficiales, el propio Schmidt expresó recientemente serias y justificadas preocupaciones sobre el riesgo de una carrera incontrolada hacia la superinteligencia. En el informe«Superintelligence Strategy«, escrito junto con Dan Hendrycks y Alexandr Wang, Schmidt subrayó el riesgo de que una competición incontrolada por el desarrollo de la superinteligencia militar desencadene una espiral de tensiones internacionales, con el riesgo de que los países rivales reaccionen con medidas drásticas, incluidas acciones preventivas como ciberataques a gran escala.

En respuesta a estos riesgos, Schmidt propuso la estrategia de la «disfunción mutua asegurada de la IA» (MAIM), que sería una forma de disuasión similar a la doctrina de la «destrucción mutua asegurada». Esta última, la destrucción mutua asegurada, fue el dintel en el que se basó el equilibrio del terror durante toda la Guerra Fría: según esta estrategia, tanto EEUU como la URSS eran capaces, con sus arsenales atómicos, de arrasar todo el globo. Ninguno de los dos era capaz de neutralizar al enemigo impidiéndole reaccionar letalmente a un ataque por sorpresa; por lo tanto, ninguno de los dos podía desencadenar un ataque preventivo porque, en todos los casos, el planeta entero quedaría convertido en una bola de roca vitrificada.

Sin embargo, en un futuro próximo, según el nuevo modelo de mal funcionamiento mutuamente asegurado de las IA, la amenaza de inutilizar las tecnologías de IA rivales mediante ciberataques y otras medidas preventivas, como embargos a la exportación de microchips y otras tecnologías informáticas sofisticadas a los países adversarios, bastaría para impedir que otros Estados desarrollaran superinteligencias militares. Aunque la propuesta pretende reducir el riesgo de escalada, el modelo también sugiere una continua militarización de la tecnología, acercando al mundo a la creación de una nueva «arma definitiva» en el contexto de la guerra automática.

Implicaciones éticas en el futuro de la guerra

A medida que avanza la tecnología, las implicaciones éticas y morales adquieren una importancia cada vez mayor. Los drones autónomos y las armas que operan sin supervisión humana pueden parecer una progresión natural en la guerra del futuro, pero plantean cuestiones fundamentales. ¿Puede la guerra automatizada, sin intervención humana directa, reducir el sufrimiento y los daños colaterales? ¿Pueden los sistemas de inteligencia artificial distinguir correctamente entre objetivos militares y civiles? La respuesta a estas preguntas dista mucho de ser obvia, y la incapacidad de regular estos avances entraña el riesgo de una escalada incontrolable.

En enero de 2016 -cuando el desarrollo de las primeras inteligencias artificiales aún estaba en la prehistoria- señalé en MIT Technology Review que, con el desarrollo de futuras armas autónomas, aumentará la probabilidad de guerras devastadoras y de que se multipliquen las víctimas civiles. Aunque la persona que decida apretar el gatillo no sea humana, la guerra en sí no puede deshumanizarse.

Sea quien sea, humano o sintético, quien esté tras el punto de mira, las víctimas siempre serán humanas, y una guerra automatizada nunca será menos cruel o devastadora. A pesar de su potencial tecnológico, una guerra librada por máquinas corre el riesgo de ser una guerra no sólo más sangrienta, sino también más incontrolable. Un sistema que no incluya la conciencia ética y moral en su diseño no puede considerarse una «solución» a los conflictos.

La urgencia de una regulación internacional

La guerra automatizada es una realidad cada vez más cercana, y los riesgos que entraña están a la vista de todos. Las potencias mundiales, aunque reconocen los peligros de un ejército robótico incontrolado, se resisten a detenerse por miedo a perder su ventaja competitiva. Sin embargo, el riesgo de una carrera armamentística basada en la IA, como advierte el informe Estrategia de Superinteligencia y como subraya la Resolución 79/L.77 de la ONU, es que la desestabilización del sistema internacional se convierta en algo inevitable. Una guerra librada por máquinas, desprovistas de supervisión humana, no conducirá a la paz, sino a la proliferación de la violencia.

Es esencial que la comunidad internacional actúe ya, regulando el uso de la IA en operaciones militares y garantizando que la evolución tecnológica no conduzca a un futuro de guerras automáticas, devastadoras e incontrolables. El reto es enorme, pero no podemos permitirnos ignorarlo. Nuestra responsabilidad colectiva es proteger la paz y los derechos humanos impidiendo que la transición digital en la guerra se utilice con fines destructivos ilimitados.

Luca Longo
ESCRITO POR Luca Longo

Químico industrial, químico teórico, periodista, comunicador y divulgador científico.

©2025 Fondazione per la sostenibilità digitale

Tech Economy 2030 è una testata giornalistica registrata. Registrazione al tribunale di Roma nr. 147 del 20 Luglio 2021

Powered by DTILab  - Designed by Fattoria Creativa - Developed by EHT