Cada pocos meses, un titular anuncia que los robots asesinos ya están aquí. Un nuevo dron alcanza un objetivo, un algoritmo identifica una amenaza, un contratista de defensa presenta un prototipo, y la imaginación colectiva salta a escenarios tipo Terminator en los que las máquinas libran guerras por su cuenta. Pero esta es la incómoda verdad que ni Hollywood ni el ciclo de exageración del sector defensa quieren que escuches: bajo los marcos legales y doctrinales que actualmente rigen la guerra entre las democracias occidentales, desplegar armas letales totalmente autónomas es esencialmente imposible desde el punto de vista legal.
No se trata de una limitación tecnológica. Es una limitación legal e institucional. Y las pruebas provienen de los propios documentos, doctrinas y marcos éticos que los aliados de la OTAN y el Departamento de Defensa de EE.UU. han construido meticulosamente durante la última década.
¿Qué entendemos por "totalmente autónomo"?
Primero, aclaremos la terminología. Un sistema de armas totalmente autónomo sería aquel capaz de buscar, identificar, seleccionar y atacar objetivos de forma independiente, sin ninguna intervención humana. Sin humano en el bucle (in the loop). Sin humano sobre el bucle (on the loop). La máquina decide quién muere.
Como han demostrado los investigadores Taddeo y Blanchard en su análisis comparativo de las definiciones de sistemas de armas autónomos, ni siquiera la comunidad internacional se pone de acuerdo en una definición precisa. Pero la línea divisoria fundamental está clara: un sistema en el que un humano mantiene un control significativo sobre la decisión de usar la fuerza, frente a otro en el que la máquina actúa enteramente por su cuenta. Es esta última categoría la que el derecho vigente prohíbe de forma efectiva.
La doctrina de la Kill Chain
El concepto de la "kill chain" (cadena de eliminación) es central para entender por qué la autonomía total es legalmente inviable. La kill chain es el proceso paso a paso que utiliza el ejército para atacar un objetivo: encontrar, fijar, rastrear, apuntar, atacar y evaluar. En cada etapa, se espera que el juicio humano garantice el cumplimiento de los principios del derecho internacional humanitario (DIH): distinción entre combatientes y civiles, proporcionalidad en el uso de la fuerza y precaución en el ataque.
![]() |
| CNAS |
Tenemos ya evidencia de que la Fuerza Aérea de EE.UU ya ha desplegado algoritmos de IA en cadenas operativas reales de selección de objetivos Estos algoritmos tenían el objetivo de acelerar la kill-chain. Pero acelerar la kill chain y eliminar a los humanos de ella son cosas fundamentalmente distintas. Sin embargo, el impulso actual hacia una toma de decisiones más rápida y asistida por máquinas evita con demasiada frecuencia la pregunta crítica: ¿en qué punto la velocidad elimina la posibilidad de un juicio humano significativo? El ataque con dron en Kabul de agosto de 2021, que mató a diez civiles, incluidos siete niños, es un doloroso recordatorio de que incluso con humanos en el bucle se producen errores en la selección de objetivos. Eliminar a los humanos por completo haría que la rendición de cuentas por tales tragedias fuera prácticamente imposible.
No obstante, diferentes artículos publicados en medios especializados de tecnología militar desmienten que en el caso de usar algoritmos haya un vacío de responsabilidad, ya que el comandante militar es siempre directa e individualmente responsable del empleo de todos los métodos y medios de guerra. La responsabilidad del comandante impregna el campo de batalla. Este marco de rendición de cuentas, enraizado en el Código Uniforme de Justicia Militar y en el derecho de los conflictos armados, simplemente no puede funcionar si una máquina toma decisiones letales de forma independiente, porque no se puede someter a un consejo de guerra a un algoritmo.
No debemos obviar la importancia de un proceso deliberado de rendición de cuentas: cuando algo sale mal (y en la guerra, siempre sale algo mal) debe existir una cadena rastreable de decisiones humanas que pueda ser investigada. Un sistema totalmente autónomo, por definición, rompe esa cadena.
Los propios principios éticos del Departamento de Defensa dicen que no
En febrero de 2020, el Departamento de Defensa de EE.UU. adoptó cinco principios para el uso ético de la IA: responsable, equitativo, trazable, fiable y gobernable. Este último -gobernable- es el que lo cambia todo. Exige que los sistemas de IA posean la capacidad de desconectar o desactivar sistemas desplegados que muestren un comportamiento no deseado. Un arma totalmente autónoma que selecciona y ataca objetivos sin supervisión humana es, por diseño, ingobernable en el momento que más importa: el instante de la fuerza letal.
Como argumentó Jorrit Kamminga en War on the Rocks, los principios éticos del Departamento de Defensa fueron un compromiso público que ahora obliga a Estados Unidos a informar sobre sus progresos y a rendir cuentas por las discrepancias entre sus políticas y sus prácticas reales. Los principios no son mero escaparate; representan un compromiso performativo que restringe la acción futura. Ya se consideren como una postura ética genuina o como un movimiento estratégico para reclamar la superioridad moral, el efecto práctico es el mismo: el marco institucional no permite la eliminación totalmente autónoma.
Estados Unidos no actúa en solitario. En octubre de 2021, la OTAN adoptó sus propios Principios de Uso Responsable de la IA en Defensa, y en octubre de 2022 publicó un Resumen del Plan de Implementación de Autonomía de la OTAN que dejaba explícita la posición de la Alianza. El plan establece que el uso de sistemas autónomos por parte de la OTAN debe basarse en sus normas, valores y compromiso con el derecho internacional. De forma crucial, se alinea con los principios rectores respaldados por las partes de la Convención sobre Ciertas Armas Convencionales (CCW), que afirman que el derecho internacional humanitario se sigue aplicando plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de Sistemas de Armas Letales Autónomos (LAWS, por sus siglas en inglés).
La OTAN también estableció una Junta de Revisión de Datos e IA (DARB) para operacionalizar estos principios. El marco de la Alianza exige explícitamente que las fuerzas armadas aliadas dispongan de vías claras para implementar sistemas autónomos habilitados por IA de conformidad con los Principios de Uso Responsable de la OTAN y el derecho internacional. La frase clave que aparece a lo largo de toda la documentación de la OTAN es "niveles adecuados de juicio humano". Una formulación que, aunque deliberadamente flexible, excluye categóricamente el escenario de juicio humano cero que implica la autonomía total.
El muro del Derecho Internacional Humanitario
Incluso sin los principios del Departamento de Defensa o los marcos de la OTAN, las armas totalmente autónomas chocarían contra los cimientos del derecho internacional humanitario. Los principios de distinción y proporcionalidad —codificados en los Convenios de Ginebra y sus Protocolos Adicionales— requieren un juicio humano contextual y situacional que la IA actual simplemente no puede replicar.
Gunawan et al., en su estudio sobre la responsabilidad de mando de las armas autónomas bajo el derecho internacional humanitario, argumentan que el marco existente del DIH se construyó sobre la premisa de que un comandante humano toma las decisiones críticas en un conflicto armado. La doctrina de la responsabilidad de mando hace a los superiores responsables de las acciones de sus subordinados. Pero cuando el "subordinado" es una máquina que opera de forma autónoma, toda esta estructura se derrumba. ¿De quién es responsable el comandante? ¿De un algoritmo escrito por un ingeniero que dejó la empresa contratista de defensa hace tres años? ¿De un conjunto de datos de entrenamiento compilado a partir de imágenes satelitales de un teatro de operaciones diferente?
Esto no es un mero rompecabezas teórico. El capítulo sobre armas autónomas letales en Disruptive Technology and the Law of Naval Warfare (Oxford University Press) examina cómo el derecho de la guerra naval existente lidia con la autonomía, concluyendo que el régimen legal exige juicio humano en el punto de aplicar la fuerza letal. El trabajo de la Universidad de Duke sobre sistemas de armas letales autónomos, subtitulado Reconciliando el mito de los robots asesinos con la realidad del campo de batalla moderno, llega a una conclusión similar: la brecha entre la imaginación pública y la realidad legal es enorme.
![]() |
| RTVE |
Ucrania: la prueba de realidad
Si las armas totalmente autónomas estuvieran listas para el mundo real, seguramente la guerra convencional más intensa en Europa desde 1945 las habría revelado. No ha sido así. Tanto Rusia como Ucrania presumieron en diversos momentos de la guerra de haber desplegado drones guiados por IA capaces de identificar y atacar objetivos sin que un operador humano los guiara hasta el impacto. Sin embargo, la revolución nunca se materializó. Un análisis del Center for a New American Security (CNAS) descartó el impacto de los drones con IA en pocas líneas, y un análisis independiente sugirió que Rusia había desactivado la función de guiado por IA de su dron Lancet tras un rendimiento inadecuado.
El consenso de los expertos fue revelador: la tecnología necesita muchas más pruebas e iteraciones. Ambos bandos quieren hacerlo bien antes de escalar. Pero más allá de la inmadurez técnica, las restricciones legales y doctrinales permanecen. Incluso si la IA funcionara a la perfección, desplegar un dron que decide autónomamente matar colocaría a la nación que lo despliega en violación directa de sus propios principios declarados y, posiblemente, del derecho internacional humanitario.
La dimensión nuclear
Las implicaciones se vuelven aún más vertiginosas cuando consideramos la IA y las armas nucleares. Incluso si la tecnología lo permitiera, la toma de decisiones por IA que afecte directamente a las funciones de mando y control nuclear no debería delegarse en máquinas. Los algoritmos que subyacen en los complejos sistemas autónomos actuales son demasiado impredecibles, demasiado vulnerables a ciberataques, demasiado opacos (el problema de la "caja negra") y demasiado frágiles para confiarles decisiones que podrían desencadenar una escalada nuclear.
La compresión de los plazos de decisión que permite la IA es precisamente lo que la hace peligrosa en un contexto nuclear. Si ambos bandos aceleran sus kill chains hasta el punto de exprimir el juicio humano, el riesgo de un error de cálculo catastrófico se dispara. Esto no es una hipótesis; es la consecuencia lógica de eliminar el control humano de sistemas capaces de desencadenar respuestas a nivel estratégico.
Entonces, ¿dónde nos deja esto?
La situación es paradójica. Todas las grandes potencias militares occidentales están invirtiendo masivamente en IA para defensa. Todas las grandes potencias militares occidentales han adoptado también principios, directrices e interpretaciones legales que prohíben el despliegue de armas letales totalmente autónomas. La doctrina de la kill chain exige juicio humano en los puntos de decisión críticos. El derecho internacional humanitario exige distinción, proporcionalidad y precaución, y estos juicios requieren comprensión contextual humana. La responsabilidad de mando exige una cadena humana de responsabilidad. Y el propio plan de implementación de la OTAN vincula explícitamente los sistemas autónomos al uso responsable y al cumplimiento del derecho internacional.
Esto no significa que la IA en la guerra sea inofensiva, ni que estos principios no puedan erosionarse. La tensión entre velocidad y diligencia ética es real y creciente. La tentación de dejar que los algoritmos se hagan cargo de cada vez más partes del proceso de selección de objetivos, especialmente bajo la presión de la competición entre potencias similares, es enorme. Y la brecha entre los principios declarados y la práctica real podría ampliarse.
Pero a día de hoy, la arquitectura legal, doctrinal e institucional de las democracias occidentales hace que las armas totalmente autónomas (máquinas que deciden por sí solas quién vive y quién muere) no sean solo éticamente cuestionables, sino legalmente inadmisibles. La kill chain sigue requiriendo una mano humana. La pregunta es si tendremos la disciplina para mantenerla ahí.
Ya veremos.



