Inteligencia artificial, robótica, historia y algo más.

20/3/26

Nos mudamos a Substack



Después de un tiempo publicando aquí (unos 15 años concretamente), es hora de dar el salto a un sitio mejor.

El blog https://jeibros.blogspot.com se traslada a la plataforma Substack, de la cual muchos lectores habréis oído hablar. El nombre del blog seguirá siendo el mismo https://jeibros.substack.com.

Esa web ya lleva unos años en funcionamiento, pero tiene una particularidad, y es que ahí publico las mismas entradas que en este blog, pero en inglés. Pero no os preocupéis, a partir de los siguientes días, comenzaré a publicar en Substack en los dos idiomas (inglés y castellano), y os explicaré cómo os podéis suscribir a recibir unas entradas u otras.

Ahora mismo de hecho, las entradas en castellano ya están cargadas en el nuevo blog. Si entráis en https://jeibros.substack.com, podéis visitar la pestaña "Permanent Future en español", tal y como os recuadro en rojo en la siguiente imagen:






Por lo tanto, ¿qué es lo que tenéis que hacer vosotros, como lectores? De momento, nada. Yo exportaré la lista de suscriptores de correo que tengo en Blogspot a la nueva plataforma, y en unos días recibiréis un artículo desde ahí para explicaros cómo podéis elegir el idioma. Por cierto, el nombre del nuevo blog es Permanent Future, así que cuando recibáis un correo con ese origen, no lo consideréis spam.

Nos vemos al otro lado. 👋










Comparte:

16/3/26

Amazon tiene un problema con sus drones. Y los números no mienten.

El pasado febrero, los vecinos de un edificio de apartamentos en Richardson, Texas, grabaron algo inquietante: un dron de reparto de Amazon derivando hacia la fachada del edificio, perdiendo fragmentos de hélice en el aire y estrellándose finalmente en la acera, donde comenzó a humear. Nadie resultó herido. Pero lo más relevante no es este incidente en sí, sino que no fue el primero, ni el segundo, ni el tercero.





Desde finales de 2024, el MK30 (el modelo de dron de reparto más avanzado de Amazon Prime Air) ha acumulado al menos siete incidentes significativos documentados públicamente en apenas catorce meses de operación comercial. Para quien trabaja en sistemas autónomos y UAVs, este patrón merece una lectura técnica cuidadosa, más allá del impacto mediático de cada vídeo viral.



El patrón de fallos


El primer gran incidente ocurrió el 16 de diciembre de 2024, en las instalaciones de pruebas de Pendleton, Oregón. Dos drones MK30 cortaron la alimentación de sus motores en pleno vuelo a 66 y 56 metros de altitud respectivamente, y cayeron al suelo en cuestión de minutos. La causa identificada fue un fallo del sensor LiDAR: la lluvia generó ecos que el sistema interpretó como la señal de haber aterrizado, ejecutando el protocolo de apagado de motores en pleno vuelo. La ironía amarga es que el modelo anterior, el MK27, contaba con un sensor mecánico de respaldo (el llamado squat switch) que detectaba el contacto físico con el suelo. Amazon lo había eliminado en el MK30, presumiblemente para reducir peso o coste. La consecuencia fue una pausa nacional en las operaciones comerciales en enero de 2025.

Esta decisión de diseño consistente en eliminar redundancia hardware en un sistema de seguridad crítica es precisamente el tipo de error que la historia de la aviación ha documentado repetidamente. La redundancia no es elegante ni barata, pero en sistemas donde un fallo implica que un objeto de 35-40 kg cae sobre una zona poblada, su ausencia es difícilmente justificable.

El segundo episodio más revelador ocurrió el 1 de octubre de 2025, en Tolleson, Arizona. Dos drones MK30 impactaron contra la pluma de una grúa de construcción con minutos de diferencia entre sí, en vuelos consecutivos. Ambos quedaron destruidos. Una persona fue atendida por inhalación de humo. Lo más llamativo desde el punto de vista de la ingeniería es la secuencia: si el primer dron colisionó con un obstáculo estático y conocido, ¿por qué el segundo repitió exactamente el mismo error minutos después? Esto sugiere que no hubo actualización en tiempo real del espacio aéreo operacional entre vuelos, o que el sistema de detección y evasión de obstáculos (detect-and-avoid) no procesó la información del primer incidente. No es un accidente aleatorio: es un fallo sistémico.

Un mes y medio después, en noviembre de 2025 en Waco, Texas, apenas trece días después de que Amazon inaugurara el servicio en esa ciudad, un MK30 ascendiente enredó una hélice en un cable de internet aéreo, cortó el cable y realizó un aterrizaje de emergencia. La FAA abrió una investigación. Este tipo de obstáculo (cables, tendidos eléctricos, vegetación densa) representa precisamente el entorno no estructurado que cualquier sistema de navegación autónoma en zona urbana debe ser capaz de gestionar. Son obstáculos predecibles en su categoría, aunque impredecibles en su posición exacta.



Entre estos tres incidentes mayores se intercalan otros: un aterrizaje precautorio en un complejo de apartamentos en Tolleson en mayo de 2025, un paquete caído en una piscina en Arizona en julio, un aterrizaje de emergencia a menos de metro y medio de un peatón en Goodyear en octubre, y finalmente el choque en Richardson en febrero de 2026.


Los números que importan


David Ison, investigador en movilidad aérea avanzada, hizo el cálculo que muchos evitan: con aproximadamente 4.000 horas de vuelo acumuladas por Prime Air y al menos 7 incidentes significativos, la tasa resultante es de aproximadamente un incidente cada 570 horas de vuelo. La aviación general estadounidense registra un accidente por cada 100.000 horas; la aviación comercial, uno por cada uno o dos millones. 

Es importante matizar: no se trata de categorías comparables. Los drones de reparto operan a bajas altitudes, en entornos urbanos complejos, con tecnologías aún en fase de maduración. La aviación comercial lleva un siglo refinando sus protocolos de seguridad. Nadie esperaría tasas equivalentes en esta etapa. Pero el argumento relevante no es la comparación absoluta, sino la tendencia: estos incidentes están ocurriendo con un volumen de operaciones todavía muy reducido. Si Amazon escala hacia los 500 millones de entregas anuales que ha declarado como objetivo para 2030, incluso una mejora sustancial en la tasa de incidentes implicaría cifras absolutas muy diferentes a las actuales.



La comparativa que incomoda a Amazon


No todos los operadores de drones de reparto tienen el mismo historial. Zipline, que opera principalmente con una arquitectura de ala fija y en corredores aéreos más controlados, ha completado más de dos millones de entregas comerciales y superado los 125 millones de millas autónomas con un perfil de seguridad notablemente diferente. Wing, filial de Alphabet, ha realizado más de 450.000 entregas con un único incidente bien documentado —una colisión con líneas eléctricas en Brisbane en 2022. Walmart, a través de sus socios Wing y Zipline, supera las 150.000 entregas desde 2021.



La diferencia no es solo de escala. Zipline, por ejemplo, opera con una filosofía de diseño en la que la fiabilidad del sistema se construye sobre rutas predefinidas, integración estrecha con el espacio aéreo local y una arquitectura que minimiza la complejidad de las decisiones autónomas en tiempo real. Amazon, en cambio, apunta a una operación más flexible y omnipresente, lo que impone exigencias mucho mayores al sistema de navegación autónoma. Esta ambición es legítima, pero tiene un coste de ingeniería que los incidentes están haciendo visible.

Más allá de Amazon, estos incidentes plantean preguntas relevantes para todo el sector. La detección y evasión de obstáculos no cooperativos (cables, grúas, vegetación) sigue siendo uno de los problemas técnicos más difíciles en navegación autónoma a baja altitud. Los sensores LiDAR son extraordinariamente útiles en condiciones nominales, pero su robustez ante perturbaciones ambientales (lluvia, niebla, polvo) sigue siendo un área activa de investigación. Combinar LiDAR, visión, radar y datos previos del entorno es la dirección correcta, pero añade complejidad de integración que también puede ser fuente de fallos.

La redundancia, además, no es solo una cuestión de añadir sensores. Es una filosofía de diseño que pregunta: ¿qué pasa cuando este componente falla? ¿Y cuando fallan dos a la vez? La eliminación del squat switch en el MK30 no fue un error de ingeniería menor: fue una señal de que la presión por reducir coste o peso estaba compitiendo con la cultura de seguridad. En aviación, esa competencia tiene un historial conocido.

La situación regulatoria añade otra capa de complejidad. La FAA está desarrollando la norma Part 108, que ampliaría significativamente las operaciones comerciales de drones. La AOPA ha citado explícitamente los incidentes de Amazon como evidencia de que esa expansión regulatoria podría estar avanzando demasiado rápido. En Europa, la EASA tiene su propio marco regulatorio (las categorías Abierta, Específica y Certificada) que en principio impone mayores exigencias de certificación para operaciones sobre zonas pobladas. Pero la presión comercial para escalar es global, y los marcos regulatorios siempre van con cierto retraso respecto a la realidad tecnológica.



Conclusión


El problema no es que Amazon esté desarrollando drones de reparto. La logística de última milla tiene desafíos reales, y la tecnología tiene potencial genuino para contribuir a resolverlos. El problema es cuando la velocidad de despliegue supera la madurez del sistema, y los entornos urbanos reales (con su variabilidad, sus obstáculos no mapeados y sus condiciones meteorológicas impredecibles) se convierten en el banco de pruebas de facto.

La seguridad en sistemas autónomos no es un problema que se resuelva principalmente con más datos o más vuelos. Se construye con decisiones de diseño conservadoras, redundancia deliberada, y una cultura organizacional que trate cada incidente como información valiosa,no como un coste de hacer negocio. Por ahora, el historial del MK30 sugiere que Amazon todavía está aprendiendo esa lección.

Ya veremos.





Comparte:

9/3/26

Anthropic, Trump y el gran teatro de los principios en Silicon Valley

Hay un relato que circula estos días por los medios tecnológicos: Dario Amodei, CEO de Anthropic, es el héroe que sacrificó contratos millonarios con el Departamento de Defensa estadounidense por sus convicciones éticas. Frente a él, Sam Altman como el pragmático sin escrúpulos que se doblegó ante Trump. Blanco y negro. Bueno y malo. Simple y atractivo.

El problema, como siempre, es que la realidad es más incómoda.



El mártir de los principios selectivos


Empecemos por el elefante en la sala: la negativa de Anthropic al espionaje masivo se aplica, según sus propias publicaciones, específicamente a ciudadanos estadounidenses. No a cualquier persona. A ciudadanos de EE. UU.

Esto no es un detalle menor. Significa que el uso de Claude para vigilancia fuera de territorio americano no parece constituir un problema ético para Anthropic. Que los principios tengan pasaporte es, cuanto menos, una información relevante cuando alguien te presenta a esta empresa como modelo de rectitud tecnológica.

Lo mismo ocurre con las armas autónomas. Anthropic se opone actualmente al uso de Claude en sistemas que identifiquen y disparen a objetivos sin intervención humana. La palabra clave es "actualmente", y está escrito en su manifiesto. Dario Amodei ha sugerido en distintas ocasiones que el modelo simplemente no está preparado técnicamente para ese nivel de autonomía todavía. No que se opongan categóricamente a la letalidad autónoma en el futuro. Es una postura técnica disfrazada de postura ética.

Y hay más: Anthropic no es ajena al sector de defensa. Sus modelos ya han sido utilizados en operaciones militares de alto perfil (la captura de Maduro en Venezuela) como herramienta favorita del ejército estadounidense a través de Palantir. El mártir tiene historial.


Kathy Perry apoyó a Anthropic y eso llevó a cientos de memes y una campaña viral

La jugada de OpenAI: Groucho Marx en el Pentágono


Mientras Anthropic era catalogada como "riesgo para la cadena de suministro" (un castigo que recuerda al trato dado a Huawei), Sam Altman navegó la situación con una habilidad que merece análisis. La diferencia entre ambas empresas no es fundamentalmente moral. Es técnica y política.

Anthropic quería que las restricciones éticas estuvieran incrustadas directamente en el modelo, en su "constitución". Esto implica que el Departamento de Defensa no podría saltárselas aunque quisiera: las limitaciones estarían en el código, no en un contrato. Para la administración Trump, esto es inaceptable. No porque quieran espiar ciudadanos americanos necesariamente, sino porque nadie cede el control operativo de una herramienta militar a los ingenieros de una empresa privada de San Francisco.

OpenAI, en cambio, aceptó un modelo radicalmente distinto: salvaguardas por contrato, no por código. "Usad nuestros modelos, os prometemos que respetaréis las restricciones acordadas." La responsabilidad del cumplimiento recae en el Departamento de Defensa, no en la arquitectura de la IA.

Es la diferencia entre un empleado que te dice "tengo principios que no puedo saltarme" y otro que dice "tengo principios, pero confío en que tú tampoco querrás que los violemos." Trump eligió al segundo. Es comprensible.



¿Quién tiene razón?


Esta es la pregunta que los medios no suelen hacer porque no tiene respuesta limpia. El enfoque de Anthropic con restricciones en el modelo, tiene una lógica de seguridad robusta: si las limitaciones son estructurales, no dependen de la buena voluntad del cliente. En un mundo donde los contratos se reinterpretan y las administraciones cambian, esto no es un detalle menor.

Pero también tiene un problema de arrogancia institucional considerable: implica que Anthropic, una empresa privada, decide unilateralmente qué puede y qué no puede hacer el ejército de la primera potencia mundial. Esa es una posición política, no solo técnica, y tiene consecuencias políticas.

OpenAI cedió el control a cambio de relevancia. Anthropic mantuvo el control a costa de ser excluida. Ninguna de las dos posiciones es obviamente correcta.

Lo que sí es obvio es que el relato del "mártir con principios" es, como mínimo, incompleto. Y que en el tablero real de la IA militar, los principios se negocian, se gradúan por geografía y se posponen cuando la tecnología no está lista.

Bienvenidos a la ética en Silicon Valley.


Ya veremos.


Comparte:

2/3/26

Por qué las armas totalmente autónomas no pueden existir legalmente (todavía)

Cada pocos meses, un titular anuncia que los robots asesinos ya están aquí. Un nuevo dron alcanza un objetivo, un algoritmo identifica una amenaza, un contratista de defensa presenta un prototipo, y la imaginación colectiva salta a escenarios tipo Terminator en los que las máquinas libran guerras por su cuenta. Pero esta es la incómoda verdad que ni Hollywood ni el ciclo de exageración del sector defensa quieren que escuches: bajo los marcos legales y doctrinales que actualmente rigen la guerra entre las democracias occidentales, desplegar armas letales totalmente autónomas es esencialmente imposible desde el punto de vista legal.

No se trata de una limitación tecnológica. Es una limitación legal e institucional. Y las pruebas provienen de los propios documentos, doctrinas y marcos éticos que los aliados de la OTAN y el Departamento de Defensa de EE.UU. han construido meticulosamente durante la última década.




¿Qué entendemos por "totalmente autónomo"?

Primero, aclaremos la terminología. Un sistema de armas totalmente autónomo sería aquel capaz de buscar, identificar, seleccionar y atacar objetivos de forma independiente, sin ninguna intervención humana. Sin humano en el bucle (in the loop). Sin humano sobre el bucle (on the loop). La máquina decide quién muere.

Como han demostrado los investigadores Taddeo y Blanchard en su análisis comparativo de las definiciones de sistemas de armas autónomos, ni siquiera la comunidad internacional se pone de acuerdo en una definición precisa. Pero la línea divisoria fundamental está clara: un sistema en el que un humano mantiene un control significativo sobre la decisión de usar la fuerza, frente a otro en el que la máquina actúa enteramente por su cuenta. Es esta última categoría la que el derecho vigente prohíbe de forma efectiva.



La doctrina de la Kill Chain

El concepto de la "kill chain" (cadena de eliminación) es central para entender por qué la autonomía total es legalmente inviable. La kill chain es el proceso paso a paso que utiliza el ejército para atacar un objetivo: encontrar, fijar, rastrear, apuntar, atacar y evaluar. En cada etapa, se espera que el juicio humano garantice el cumplimiento de los principios del derecho internacional humanitario (DIH): distinción entre combatientes y civiles, proporcionalidad en el uso de la fuerza y precaución en el ataque.


CNAS


Tenemos ya evidencia de que la Fuerza Aérea de EE.UU ya ha desplegado algoritmos de IA en cadenas operativas reales de selección de objetivos Estos algoritmos tenían el objetivo de acelerar la kill-chain. Pero acelerar la kill chain y eliminar a los humanos de ella son cosas fundamentalmente distintas. Sin embargo, el impulso actual hacia una toma de decisiones más rápida y asistida por máquinas evita con demasiada frecuencia la pregunta crítica: ¿en qué punto la velocidad elimina la posibilidad de un juicio humano significativo? El ataque con dron en Kabul de agosto de 2021, que mató a diez civiles, incluidos siete niños, es un doloroso recordatorio de que incluso con humanos en el bucle se producen errores en la selección de objetivos. Eliminar a los humanos por completo haría que la rendición de cuentas por tales tragedias fuera prácticamente imposible.

No obstante, diferentes artículos publicados en medios especializados de tecnología militar desmienten que en el caso de usar algoritmos haya un vacío de responsabilidad, ya que el comandante militar es siempre directa e individualmente responsable del empleo de todos los métodos y medios de guerra. La responsabilidad del comandante impregna el campo de batalla. Este marco de rendición de cuentas, enraizado en el Código Uniforme de Justicia Militar y en el derecho de los conflictos armados, simplemente no puede funcionar si una máquina toma decisiones letales de forma independiente, porque no se puede someter a un consejo de guerra a un algoritmo.

No debemos obviar la importancia de un proceso deliberado de rendición de cuentas: cuando algo sale mal (y en la guerra, siempre sale algo mal) debe existir una cadena rastreable de decisiones humanas que pueda ser investigada. Un sistema totalmente autónomo, por definición, rompe esa cadena.


Los propios principios éticos del Departamento de Defensa dicen que no


En febrero de 2020, el Departamento de Defensa de EE.UU. adoptó cinco principios para el uso ético de la IA: responsable, equitativo, trazable, fiable y gobernable. Este último -gobernable- es el que lo cambia todo. Exige que los sistemas de IA posean la capacidad de desconectar o desactivar sistemas desplegados que muestren un comportamiento no deseado. Un arma totalmente autónoma que selecciona y ataca objetivos sin supervisión humana es, por diseño, ingobernable en el momento que más importa: el instante de la fuerza letal.

Como argumentó Jorrit Kamminga en War on the Rocks, los principios éticos del Departamento de Defensa fueron un compromiso público que ahora obliga a Estados Unidos a informar sobre sus progresos y a rendir cuentas por las discrepancias entre sus políticas y sus prácticas reales. Los principios no son mero escaparate; representan un compromiso performativo que restringe la acción futura. Ya se consideren como una postura ética genuina o como un movimiento estratégico para reclamar la superioridad moral, el efecto práctico es el mismo: el marco institucional no permite la eliminación totalmente autónoma.

Estados Unidos no actúa en solitario. En octubre de 2021, la OTAN adoptó sus propios Principios de Uso Responsable de la IA en Defensa, y en octubre de 2022 publicó un Resumen del Plan de Implementación de Autonomía de la OTAN que dejaba explícita la posición de la Alianza. El plan establece que el uso de sistemas autónomos por parte de la OTAN debe basarse en sus normas, valores y compromiso con el derecho internacional. De forma crucial, se alinea con los principios rectores respaldados por las partes de la Convención sobre Ciertas Armas Convencionales (CCW), que afirman que el derecho internacional humanitario se sigue aplicando plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de Sistemas de Armas Letales Autónomos (LAWS, por sus siglas en inglés).



La OTAN también estableció una Junta de Revisión de Datos e IA (DARB) para operacionalizar estos principios. El marco de la Alianza exige explícitamente que las fuerzas armadas aliadas dispongan de vías claras para implementar sistemas autónomos habilitados por IA de conformidad con los Principios de Uso Responsable de la OTAN y el derecho internacional. La frase clave que aparece a lo largo de toda la documentación de la OTAN es "niveles adecuados de juicio humano". Una formulación que, aunque deliberadamente flexible, excluye categóricamente el escenario de juicio humano cero que implica la autonomía total.


El muro del Derecho Internacional Humanitario

Incluso sin los principios del Departamento de Defensa o los marcos de la OTAN, las armas totalmente autónomas chocarían contra los cimientos del derecho internacional humanitario. Los principios de distinción y proporcionalidad —codificados en los Convenios de Ginebra y sus Protocolos Adicionales— requieren un juicio humano contextual y situacional que la IA actual simplemente no puede replicar.

Gunawan et al., en su estudio sobre la responsabilidad de mando de las armas autónomas bajo el derecho internacional humanitario, argumentan que el marco existente del DIH se construyó sobre la premisa de que un comandante humano toma las decisiones críticas en un conflicto armado. La doctrina de la responsabilidad de mando hace a los superiores responsables de las acciones de sus subordinados. Pero cuando el "subordinado" es una máquina que opera de forma autónoma, toda esta estructura se derrumba. ¿De quién es responsable el comandante? ¿De un algoritmo escrito por un ingeniero que dejó la empresa contratista de defensa hace tres años? ¿De un conjunto de datos de entrenamiento compilado a partir de imágenes satelitales de un teatro de operaciones diferente?

Esto no es un mero rompecabezas teórico. El capítulo sobre armas autónomas letales en Disruptive Technology and the Law of Naval Warfare (Oxford University Press) examina cómo el derecho de la guerra naval existente lidia con la autonomía, concluyendo que el régimen legal exige juicio humano en el punto de aplicar la fuerza letal. El trabajo de la Universidad de Duke sobre sistemas de armas letales autónomos, subtitulado Reconciliando el mito de los robots asesinos con la realidad del campo de batalla moderno, llega a una conclusión similar: la brecha entre la imaginación pública y la realidad legal es enorme.



RTVE

Ucrania: la prueba de realidad

Si las armas totalmente autónomas estuvieran listas para el mundo real, seguramente la guerra convencional más intensa en Europa desde 1945 las habría revelado. No ha sido así. Tanto Rusia como Ucrania presumieron en diversos momentos de la guerra de haber desplegado drones guiados por IA capaces de identificar y atacar objetivos sin que un operador humano los guiara hasta el impacto. Sin embargo, la revolución nunca se materializó. Un análisis del Center for a New American Security (CNAS) descartó el impacto de los drones con IA en pocas líneas, y un análisis independiente sugirió que Rusia había desactivado la función de guiado por IA de su dron Lancet tras un rendimiento inadecuado.

El consenso de los expertos fue revelador: la tecnología necesita muchas más pruebas e iteraciones. Ambos bandos quieren hacerlo bien antes de escalar. Pero más allá de la inmadurez técnica, las restricciones legales y doctrinales permanecen. Incluso si la IA funcionara a la perfección, desplegar un dron que decide autónomamente matar colocaría a la nación que lo despliega en violación directa de sus propios principios declarados y, posiblemente, del derecho internacional humanitario.


La dimensión nuclear

Las implicaciones se vuelven aún más vertiginosas cuando consideramos la IA y las armas nucleares. Incluso si la tecnología lo permitiera, la toma de decisiones por IA que afecte directamente a las funciones de mando y control nuclear no debería delegarse en máquinas. Los algoritmos que subyacen en los complejos sistemas autónomos actuales son demasiado impredecibles, demasiado vulnerables a ciberataques, demasiado opacos (el problema de la "caja negra") y demasiado frágiles para confiarles decisiones que podrían desencadenar una escalada nuclear.

La compresión de los plazos de decisión que permite la IA es precisamente lo que la hace peligrosa en un contexto nuclear. Si ambos bandos aceleran sus kill chains hasta el punto de exprimir el juicio humano, el riesgo de un error de cálculo catastrófico se dispara. Esto no es una hipótesis; es la consecuencia lógica de eliminar el control humano de sistemas capaces de desencadenar respuestas a nivel estratégico.



Entonces, ¿dónde nos deja esto?

La situación es paradójica. Todas las grandes potencias militares occidentales están invirtiendo masivamente en IA para defensa. Todas las grandes potencias militares occidentales han adoptado también principios, directrices e interpretaciones legales que prohíben el despliegue de armas letales totalmente autónomas. La doctrina de la kill chain exige juicio humano en los puntos de decisión críticos. El derecho internacional humanitario exige distinción, proporcionalidad y precaución, y estos juicios requieren comprensión contextual humana. La responsabilidad de mando exige una cadena humana de responsabilidad. Y el propio plan de implementación de la OTAN vincula explícitamente los sistemas autónomos al uso responsable y al cumplimiento del derecho internacional.

Esto no significa que la IA en la guerra sea inofensiva, ni que estos principios no puedan erosionarse. La tensión entre velocidad y diligencia ética es real y creciente. La tentación de dejar que los algoritmos se hagan cargo de cada vez más partes del proceso de selección de objetivos, especialmente bajo la presión de la competición entre potencias similares, es enorme. Y la brecha entre los principios declarados y la práctica real podría ampliarse.

Pero a día de hoy, la arquitectura legal, doctrinal e institucional de las democracias occidentales hace que las armas totalmente autónomas (máquinas que deciden por sí solas quién vive y quién muere) no sean solo éticamente cuestionables, sino legalmente inadmisibles.
La kill chain sigue requiriendo una mano humana. La pregunta es si tendremos la disciplina para mantenerla ahí.

Ya veremos.






Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons