Inteligencia artificial, robótica, historia y algo más.

2/3/26

Por qué las armas totalmente autónomas no pueden existir legalmente (todavía)

Cada pocos meses, un titular anuncia que los robots asesinos ya están aquí. Un nuevo dron alcanza un objetivo, un algoritmo identifica una amenaza, un contratista de defensa presenta un prototipo, y la imaginación colectiva salta a escenarios tipo Terminator en los que las máquinas libran guerras por su cuenta. Pero esta es la incómoda verdad que ni Hollywood ni el ciclo de exageración del sector defensa quieren que escuches: bajo los marcos legales y doctrinales que actualmente rigen la guerra entre las democracias occidentales, desplegar armas letales totalmente autónomas es esencialmente imposible desde el punto de vista legal.

No se trata de una limitación tecnológica. Es una limitación legal e institucional. Y las pruebas provienen de los propios documentos, doctrinas y marcos éticos que los aliados de la OTAN y el Departamento de Defensa de EE.UU. han construido meticulosamente durante la última década.




¿Qué entendemos por "totalmente autónomo"?

Primero, aclaremos la terminología. Un sistema de armas totalmente autónomo sería aquel capaz de buscar, identificar, seleccionar y atacar objetivos de forma independiente, sin ninguna intervención humana. Sin humano en el bucle (in the loop). Sin humano sobre el bucle (on the loop). La máquina decide quién muere.

Como han demostrado los investigadores Taddeo y Blanchard en su análisis comparativo de las definiciones de sistemas de armas autónomos, ni siquiera la comunidad internacional se pone de acuerdo en una definición precisa. Pero la línea divisoria fundamental está clara: un sistema en el que un humano mantiene un control significativo sobre la decisión de usar la fuerza, frente a otro en el que la máquina actúa enteramente por su cuenta. Es esta última categoría la que el derecho vigente prohíbe de forma efectiva.



La doctrina de la Kill Chain

El concepto de la "kill chain" (cadena de eliminación) es central para entender por qué la autonomía total es legalmente inviable. La kill chain es el proceso paso a paso que utiliza el ejército para atacar un objetivo: encontrar, fijar, rastrear, apuntar, atacar y evaluar. En cada etapa, se espera que el juicio humano garantice el cumplimiento de los principios del derecho internacional humanitario (DIH): distinción entre combatientes y civiles, proporcionalidad en el uso de la fuerza y precaución en el ataque.


CNAS


Tenemos ya evidencia de que la Fuerza Aérea de EE.UU ya ha desplegado algoritmos de IA en cadenas operativas reales de selección de objetivos Estos algoritmos tenían el objetivo de acelerar la kill-chain. Pero acelerar la kill chain y eliminar a los humanos de ella son cosas fundamentalmente distintas. Sin embargo, el impulso actual hacia una toma de decisiones más rápida y asistida por máquinas evita con demasiada frecuencia la pregunta crítica: ¿en qué punto la velocidad elimina la posibilidad de un juicio humano significativo? El ataque con dron en Kabul de agosto de 2021, que mató a diez civiles, incluidos siete niños, es un doloroso recordatorio de que incluso con humanos en el bucle se producen errores en la selección de objetivos. Eliminar a los humanos por completo haría que la rendición de cuentas por tales tragedias fuera prácticamente imposible.

No obstante, diferentes artículos publicados en medios especializados de tecnología militar desmienten que en el caso de usar algoritmos haya un vacío de responsabilidad, ya que el comandante militar es siempre directa e individualmente responsable del empleo de todos los métodos y medios de guerra. La responsabilidad del comandante impregna el campo de batalla. Este marco de rendición de cuentas, enraizado en el Código Uniforme de Justicia Militar y en el derecho de los conflictos armados, simplemente no puede funcionar si una máquina toma decisiones letales de forma independiente, porque no se puede someter a un consejo de guerra a un algoritmo.

No debemos obviar la importancia de un proceso deliberado de rendición de cuentas: cuando algo sale mal (y en la guerra, siempre sale algo mal) debe existir una cadena rastreable de decisiones humanas que pueda ser investigada. Un sistema totalmente autónomo, por definición, rompe esa cadena.


Los propios principios éticos del Departamento de Defensa dicen que no


En febrero de 2020, el Departamento de Defensa de EE.UU. adoptó cinco principios para el uso ético de la IA: responsable, equitativo, trazable, fiable y gobernable. Este último -gobernable- es el que lo cambia todo. Exige que los sistemas de IA posean la capacidad de desconectar o desactivar sistemas desplegados que muestren un comportamiento no deseado. Un arma totalmente autónoma que selecciona y ataca objetivos sin supervisión humana es, por diseño, ingobernable en el momento que más importa: el instante de la fuerza letal.

Como argumentó Jorrit Kamminga en War on the Rocks, los principios éticos del Departamento de Defensa fueron un compromiso público que ahora obliga a Estados Unidos a informar sobre sus progresos y a rendir cuentas por las discrepancias entre sus políticas y sus prácticas reales. Los principios no son mero escaparate; representan un compromiso performativo que restringe la acción futura. Ya se consideren como una postura ética genuina o como un movimiento estratégico para reclamar la superioridad moral, el efecto práctico es el mismo: el marco institucional no permite la eliminación totalmente autónoma.

Estados Unidos no actúa en solitario. En octubre de 2021, la OTAN adoptó sus propios Principios de Uso Responsable de la IA en Defensa, y en octubre de 2022 publicó un Resumen del Plan de Implementación de Autonomía de la OTAN que dejaba explícita la posición de la Alianza. El plan establece que el uso de sistemas autónomos por parte de la OTAN debe basarse en sus normas, valores y compromiso con el derecho internacional. De forma crucial, se alinea con los principios rectores respaldados por las partes de la Convención sobre Ciertas Armas Convencionales (CCW), que afirman que el derecho internacional humanitario se sigue aplicando plenamente a todos los sistemas de armas, incluido el posible desarrollo y uso de Sistemas de Armas Letales Autónomos (LAWS, por sus siglas en inglés).



La OTAN también estableció una Junta de Revisión de Datos e IA (DARB) para operacionalizar estos principios. El marco de la Alianza exige explícitamente que las fuerzas armadas aliadas dispongan de vías claras para implementar sistemas autónomos habilitados por IA de conformidad con los Principios de Uso Responsable de la OTAN y el derecho internacional. La frase clave que aparece a lo largo de toda la documentación de la OTAN es "niveles adecuados de juicio humano". Una formulación que, aunque deliberadamente flexible, excluye categóricamente el escenario de juicio humano cero que implica la autonomía total.


El muro del Derecho Internacional Humanitario

Incluso sin los principios del Departamento de Defensa o los marcos de la OTAN, las armas totalmente autónomas chocarían contra los cimientos del derecho internacional humanitario. Los principios de distinción y proporcionalidad —codificados en los Convenios de Ginebra y sus Protocolos Adicionales— requieren un juicio humano contextual y situacional que la IA actual simplemente no puede replicar.

Gunawan et al., en su estudio sobre la responsabilidad de mando de las armas autónomas bajo el derecho internacional humanitario, argumentan que el marco existente del DIH se construyó sobre la premisa de que un comandante humano toma las decisiones críticas en un conflicto armado. La doctrina de la responsabilidad de mando hace a los superiores responsables de las acciones de sus subordinados. Pero cuando el "subordinado" es una máquina que opera de forma autónoma, toda esta estructura se derrumba. ¿De quién es responsable el comandante? ¿De un algoritmo escrito por un ingeniero que dejó la empresa contratista de defensa hace tres años? ¿De un conjunto de datos de entrenamiento compilado a partir de imágenes satelitales de un teatro de operaciones diferente?

Esto no es un mero rompecabezas teórico. El capítulo sobre armas autónomas letales en Disruptive Technology and the Law of Naval Warfare (Oxford University Press) examina cómo el derecho de la guerra naval existente lidia con la autonomía, concluyendo que el régimen legal exige juicio humano en el punto de aplicar la fuerza letal. El trabajo de la Universidad de Duke sobre sistemas de armas letales autónomos, subtitulado Reconciliando el mito de los robots asesinos con la realidad del campo de batalla moderno, llega a una conclusión similar: la brecha entre la imaginación pública y la realidad legal es enorme.



RTVE

Ucrania: la prueba de realidad

Si las armas totalmente autónomas estuvieran listas para el mundo real, seguramente la guerra convencional más intensa en Europa desde 1945 las habría revelado. No ha sido así. Tanto Rusia como Ucrania presumieron en diversos momentos de la guerra de haber desplegado drones guiados por IA capaces de identificar y atacar objetivos sin que un operador humano los guiara hasta el impacto. Sin embargo, la revolución nunca se materializó. Un análisis del Center for a New American Security (CNAS) descartó el impacto de los drones con IA en pocas líneas, y un análisis independiente sugirió que Rusia había desactivado la función de guiado por IA de su dron Lancet tras un rendimiento inadecuado.

El consenso de los expertos fue revelador: la tecnología necesita muchas más pruebas e iteraciones. Ambos bandos quieren hacerlo bien antes de escalar. Pero más allá de la inmadurez técnica, las restricciones legales y doctrinales permanecen. Incluso si la IA funcionara a la perfección, desplegar un dron que decide autónomamente matar colocaría a la nación que lo despliega en violación directa de sus propios principios declarados y, posiblemente, del derecho internacional humanitario.


La dimensión nuclear

Las implicaciones se vuelven aún más vertiginosas cuando consideramos la IA y las armas nucleares. Incluso si la tecnología lo permitiera, la toma de decisiones por IA que afecte directamente a las funciones de mando y control nuclear no debería delegarse en máquinas. Los algoritmos que subyacen en los complejos sistemas autónomos actuales son demasiado impredecibles, demasiado vulnerables a ciberataques, demasiado opacos (el problema de la "caja negra") y demasiado frágiles para confiarles decisiones que podrían desencadenar una escalada nuclear.

La compresión de los plazos de decisión que permite la IA es precisamente lo que la hace peligrosa en un contexto nuclear. Si ambos bandos aceleran sus kill chains hasta el punto de exprimir el juicio humano, el riesgo de un error de cálculo catastrófico se dispara. Esto no es una hipótesis; es la consecuencia lógica de eliminar el control humano de sistemas capaces de desencadenar respuestas a nivel estratégico.



Entonces, ¿dónde nos deja esto?

La situación es paradójica. Todas las grandes potencias militares occidentales están invirtiendo masivamente en IA para defensa. Todas las grandes potencias militares occidentales han adoptado también principios, directrices e interpretaciones legales que prohíben el despliegue de armas letales totalmente autónomas. La doctrina de la kill chain exige juicio humano en los puntos de decisión críticos. El derecho internacional humanitario exige distinción, proporcionalidad y precaución, y estos juicios requieren comprensión contextual humana. La responsabilidad de mando exige una cadena humana de responsabilidad. Y el propio plan de implementación de la OTAN vincula explícitamente los sistemas autónomos al uso responsable y al cumplimiento del derecho internacional.

Esto no significa que la IA en la guerra sea inofensiva, ni que estos principios no puedan erosionarse. La tensión entre velocidad y diligencia ética es real y creciente. La tentación de dejar que los algoritmos se hagan cargo de cada vez más partes del proceso de selección de objetivos, especialmente bajo la presión de la competición entre potencias similares, es enorme. Y la brecha entre los principios declarados y la práctica real podría ampliarse.

Pero a día de hoy, la arquitectura legal, doctrinal e institucional de las democracias occidentales hace que las armas totalmente autónomas (máquinas que deciden por sí solas quién vive y quién muere) no sean solo éticamente cuestionables, sino legalmente inadmisibles.
La kill chain sigue requiriendo una mano humana. La pregunta es si tendremos la disciplina para mantenerla ahí.

Ya veremos.






Comparte:

23/2/26

Por qué Amazon y Microsoft quieren poner sus centros de datos en Aragón (y por qué no deberías preocuparte)

Algo muy gordo está pasando en Aragón y no estoy seguro de que nos hayamos enterado del todo.

Amazon va a invertir 15.700 millones de euros. Microsoft otros 6.600 millones. Blackstone ha anunciado 7.500 millones más. Box2bit, 3.400 millones. Si sumas todos los proyectos anunciados, la cifra supera los 30.000 millones de euros en inversiones comprometidas para los próximos años.

Para ponerlo en perspectiva: el PIB de Aragón ronda los 40.000 millones. Estamos hablando de que una industria va a invertir en una década casi lo que produce toda la comunidad en un año.

La pregunta obvia es: ¿por qué aquí? ¿Qué tiene Aragón que no tenga Baviera, el norte de Italia o el sur de Francia?

Y la segunda pregunta, la que preocupa a mucha gente: ¿van a secarnos los grifos?

Voy a intentar responder a las dos.



La tormenta perfecta aragonesa

Mapa de cobertura 5G 



Cuando hablas con gente del sector, te cuentan que Aragón tiene una combinación de factores que no se da en casi ningún otro sitio de Europa.

Primero, la geografía. Zaragoza está en el centro del 80% del PIB español. Madrid, Barcelona, Valencia y Bilbao quedan a unos 300 kilómetros. Para un centro de datos, la latencia (el tiempo que tarda la información en viajar) importa, y estar en el centro del mapa reduce esa latencia para la mayoría de usuarios.

Segundo, el espacio. Aragón es la cuarta comunidad autónoma más grande de España, casi 1,5 veces Bélgica, pero con apenas 1,3 millones de habitantes. Hay suelo industrial disponible a precios razonables. Solo Amazon va a ocupar 150 hectáreas. Intenta encontrar eso cerca de Múnich o Milán.

Tercero, la energía renovable. Aragón produce más energía de la que consume, y buena parte es eólica y solar. Las tecnológicas se han comprometido públicamente con objetivos de cero emisiones, y necesitan ubicaciones donde puedan decir que funcionan con renovables. Aragón les permite cumplir esa promesa.

Cuarto, la administración. El gobierno aragonés ha creado figuras como los PIGA (Proyectos de Interés General de Aragón) que agilizan trámites. Lo que en otras comunidades lleva años, aquí puede resolverse en meses. Cuando manejas inversiones de miles de millones, cada mes de retraso tiene un coste enorme.

Quinto, y esto es más geopolítico de lo que parece: Zaragoza tiene una base aérea de la OTAN. Para ciertos clientes (gobiernos, defensa, infraestructura crítica), saber que sus datos están cerca de instalaciones militares aliadas es un factor de decisión.

Todo esto explica por qué las tecnológicas quieren venir. Pero no responde a la pregunta que mucha gente se hace.



El elefante en la habitación: el agua


Vamos a hablar del agua, porque sé que es lo que preocupa.

He seguido este tema durante meses. He leído los estudios, he analizado los datos de Estados Unidos donde llevan años con esta industria. Y la conclusión a la que he llegado es que .

Pero voy a explicar por qué, porque la intuición nos dice lo contrario.


Los números que nadie cuenta

A nivel nacional en Estados Unidos, los centros de datos consumen aproximadamente el 0,2% del total de agua potable. En estados como Texas, esa cifra cae al 0,005%.

Ahora comparemos con otros usos. En Arizona, uno de los estados con más estrés hídrico del país y también con más centros de datos, la distribución es esta:

Agricultura: 86% del consumo de agua
Campos de golf: 3,8% del consumo de agua
Centros de datos: 0,12% del consumo de agua

Los campos de golf de Arizona consumen 32 veces más agua que todos los centros de datos del estado juntos. Pero nadie pide cerrar los campos de golf.

Y hay otro dato que me parece revelador: por cada litro de agua consumido, los centros de datos generan aproximadamente 50 veces más ingresos fiscales que los campos de golf. Consumen muchísimo menos y aportan muchísimo más.



Virginia: donde más centros de datos hay del mundo


Si los centros de datos subieran los precios de la electricidad (o del agua), el sitio donde deberían notarse más esas subidas es Virginia. El norte de Virginia tiene la mayor concentración de centros de datos del planeta.

¿Qué ha pasado con los precios de la electricidad en Virginia? Han subido, sí. Pero menos que la media nacional estadounidense. Un 28% frente al 35% de media.

Y si miras los 15 estados con más centros de datos de Estados Unidos, 11 de ellos han tenido subidas de precios por debajo de la media nacional. Solo 4 subieron más, y por márgenes pequeños.

Los datos simplemente no apoyan la narrativa de que los centros de datos disparan los precios.



¿Y en Aragón qué va a pasar?


España no es Estados Unidos, y Aragón no es Arizona. Pero hay algunas cosas que juegan a nuestro favor.

Primero, el Ebro. Aragón ocupa cerca del 50% del territorio de la Cuenca Hidrográfica del Ebro. Los recursos hídricos potencialmente utilizables en Aragón ascienden a 15.000 hectómetros cúbicos al año. No es el sureste peninsular ni Almería. Los embalses de la cuenca del Ebro están ahora mismo al 81% de capacidad.

Segundo, la tecnología ha cambiado. Los nuevos centros de datos que se están construyendo en España usan sistemas de refrigeración de circuito cerrado que no consumen agua (o consumen cantidades mínimas). Microsoft, Amazon y los demás saben que en Europa el escrutinio público sobre el agua es mayor, y están diseñando instalaciones con consumo muy reducido.

Tercero, la percepción importa. Las tecnológicas saben que competir por el grifo con la población en un país mediterráneo es una batalla que no pueden ganar en imagen pública. Por eso están invirtiendo en tecnologías de refrigeración por aire y en circuitos cerrados que no dependen del agua local.



Hay algo que me llama la atención en este debate: nos preocupamos mucho por el agua que van a consumir los centros de datos, pero no nos hacemos la pregunta inversa.

Nosotros pasamos, de media, el 50% de nuestro tiempo despiertos utilizando internet. Cada vez que mandas un WhatsApp, ves un vídeo en YouTube, consultas el tiempo o usas Google Maps, estás usando un centro de datos.

Que todas esas comunicaciones y servicios esenciales solo requieran el 0,2% del agua potable de un país es, técnicamente, extraordinariamente eficiente.

¿Preferirías no tener internet para ahorrar ese 0,2%?




Lo que sí debería preocuparnos (y lo que no)


No digo que haya que dar carta blanca a cualquier proyecto. Hay preguntas legítimas que hacer:

¿Los centros de datos van a usar tecnología de refrigeración sin agua?
¿Están ubicados en zonas donde el agua no está ya comprometida?
¿Los beneficios fiscales para la comunidad compensan el uso de recursos?
¿Hay transparencia sobre los consumos reales?
Y para mí la pregunta más importante y difícil, ¿está el sistema eléctrico preparado para abastecer a estos centros de datos?

Pero la idea de que los centros de datos van a secar Aragón no se sostiene con los datos disponibles. Ni en Estados Unidos, donde llevan décadas con esta industria, han visto ese efecto.

Lo que sí vamos a ver es una transformación económica de la región. Miles de empleos durante la construcción (y cientos permanentes después), ingresos fiscales que pueden financiar servicios públicos, y una industria que pone a Aragón en el mapa tecnológico europeo.

¿Es un intercambio justo? Eso es lo que tenemos que decidir como sociedad. Pero decidámoslo con datos, no con titulares que confunden sedimento en pozos con sequías causadas por la nube.

Ya veremos.




Comparte:

14/2/26

Tinder, San Valentín y los patrones oscuros: Cuando el amor es un algoritmo tragaperras

Es 14 de febrero. Millones de personas entran hoy a una aplicación con la esperanza, o quizás la desesperación, de encontrar una conexión humana. Pero detrás de la interfaz limpia y colorida de Tinder, no hay un cupido digital trabajando para que encuentres el amor y borres la aplicación. Hay un casino. Y como en cualquier casino, la casa siempre gana cuando tú te quedas jugando, no cuando te llevas el premio y te vas.

Para entender por qué nos sentimos tan agotados pero incapaces de dejar de deslizar, hay que hablar de los "patrones oscuros", sobre los cuales ya hablé profundamente en este post. Este concepto de diseño se refiere a interfaces creadas meticulosamente no para ayudar al usuario, sino para explotar sus vulnerabilidades psicológicas. En el caso de Tinder y el ecosistema de Match Group, la estrategia es la "gamificación de la soledad".

El gesto de deslizar a la derecha o a la izquierda, conocido como el swipe, no es una decisión ergonómica inocente; es la traducción digital de la palanca de una máquina tragaperras. Tinder opera bajo un esquema de refuerzo intermitente variable. Si siempre encontraras gente fea, te irías. Si siempre encontraras gente guapa que te corresponde, encontrarías pareja y te irías. La aplicación te mantiene en un limbo calculado: te ofrece perfiles atractivos que te ignoran y perfiles que no te interesan, salpicados ocasionalmente con un "It’s a Match" que libera una dosis de dopamina exacta para mantenerte enganchado. La ansiedad de no saber cuál será la siguiente carta es lo que te mantiene en la mesa de juego.

Además, Tinder monetiza activamente la frustración. Utiliza patrones oscuros de ocultación de información para venderte sus planes Gold o Platinum. Te dice que "tienes 10 likes esperando", pero desenfoca las fotos, creando una brecha de curiosidad dolorosa. Te hace sentir invisible para venderte un "Boost". La lógica es perversa: su modelo de negocio entra en conflicto directo con su promesa de marca. Si son eficientes emparejándote, pierden un cliente recurrente. Por tanto, su éxito financiero depende de su fracaso amoroso.

Hace poco, en 2024, un grupo de usuarios intentó llevar esta realidad ante los tribunales en Estados Unidos, demandando a Match Group por diseñar un algoritmo depredador que fomenta la adicción compulsiva en lugar de las citas reales. Sin embargo, el pasado 13 de diciembre de 2024, la justicia bloqueó la demanda colectiva dando la razón a Match Group. ¿El motivo? La letra pequeña. La sentencia dictaminó que, al crear la cuenta de Tinder, todos estamos firmando una cláusula de arbitraje obligatorio que nos prohíbe ir a los tribunales ordinarios. Tinder no ganó demostrando que su app sea sana; ganó demostrando que ha diseñado una trampa legal perfecta para que no podamos quejarnos de su trampa psicológica.".

Aquí es donde la historia da un giro interesante y nos lleva al caso de ByteDance y TikTok. Seguro que os suena que también su algoritmo adictivo está teniendo problemas con la justicia:

La Comisión Europea acaba de publicar sus conclusiones preliminares contra TikTok. Apunta al “diseño adictivo” y concreta los mecanismos que lo articulan: scroll infinito, autoplay, notificaciones push, recomendador hiperpersonalizado. Según Bruselas, la aplicación "recompensa constantemente" a los usuarios con nuevo contenido, alimentando la urgencia de seguir haciendo scroll y poniendo el cerebro en modo piloto automático.

Señala además que TikTok ha ignorado indicadores importantes de uso compulsivo, como el tiempo que los menores pasan en la app por la noche o la frecuencia con la que la abren. La Comisión aboga por un cambio en el diseño básico del servicio: desactivar el scroll infinito progresivamente, implementar pausas efectivas —incluidas las nocturnas— y modificar el sistema de recomendación. TikTok ha respondido que las conclusiones presentan una descripción "categóricamente falsa" de su plataforma. No estamos ante la decisión final: ahora TikTok puede defenderse. Si se confirma la infracción, la DSA permite sanciones de hasta el 6% de la facturación global y exigir esos cambios en la aplicación

Casi en paralelo, en California se ha iniciado el primer juicio civil contra Meta (Instagram), Google (YouTube) y ByteDance (TikTok) por la demanda de K.G.M., una joven de 19 años que afirma que su adicción a estas plataformas desde los ocho años le provocó depresión e ideación suicida. Lo central del caso no es qué vídeos vio, sino si el diseño mismo de estas plataformas (de nuevo, el scroll infinito, la reproducción automática, las notificaciones, los algoritmos de recomendación) constituye un “producto defectuoso” que causa daño. 

(Blog Error500)


Si Tinder se ha librado, ¿por qué los titulares de las últimas semanas hablan de condenas y demandas masivas contra la empresa china por ser adictiva? ¿No hacen lo mismo?

La respuesta corta es que sí, hacen lo mismo, pero TikTok lo lleva a cabo con una "droga" más potente y, lo que es crucial, vendida a un público diferente. La justicia estadounidense ha puesto a ByteDance contra las cuerdas no solo por usar patrones oscuros, sino por aplicarlos a menores de edad. Mientras que a un adulto en Tinder se le supone responsabilidad propia, la ley considera que un niño de trece años no tiene las herramientas cognitivas para defenderse de un algoritmo diseñado por los mejores ingenieros conductuales del mundo.

Las investigaciones y los documentos internos revelados en el proceso contra TikTok han mostrado lo que los fiscales llaman la "pistola humeante": la empresa sabía que su diseño de scroll infinito impedía que el cerebro humano encontrara un punto de parada natural. Sabían que las notificaciones estaban diseñadas para interrumpir el sueño y sabían, de forma interna, que sus supuestas herramientas de "límite de tiempo" eran poco más que teatro de seguridad, ineficaces y fáciles de ignorar. A diferencia del caso de Tinder, aquí no se juzga la frustración de un usuario, sino el daño deliberado al desarrollo cerebral de una generación y la crisis de salud mental derivada de ello.

TikTok ha sido señalada porque su algoritmo de "interés" es mucho más agresivo y rápido aprendiendo vulnerabilidades que el de cualquier otra red social, actuando como una inyección directa de estímulos sin fricción. Además, no podemos ignorar el factor geopolítico; es mucho más fácil para un fiscal estadounidense atacar a una empresa china que a una local, aunque eso está cambiando.

Source


De hecho, sería un error pensar que esto es una cruzada exclusiva contra TikTok. Meta, la matriz de Instagram y Facebook, enfrenta una demanda conjunta de cuarenta y un estados que es, en esencia, idéntica a la de ByteDance. Se les acusa de haber copiado esos mismos mecanismos adictivos a sabiendas del daño que causaban a los adolescentes, priorizando el crecimiento sobre la seguridad. Por otro lado, Tinder y su matriz, tienen otros problemas bastante serios en la UE por la no-explicabilidad de su algoritmo, pero de eso hablaremos próximamente.

En este San Valentín, la lección que nos deja el panorama legal y tecnológico es clara. Tinder puede seguir jugando con tu soledad porque la ley asume que eres un adulto capaz de marcharte del casino cuando quieras, aunque psicológicamente sea una trampa. Pero cuando esa misma lógica de casino se aplica a los niños en TikTok, la sociedad ha decidido trazar una línea roja. Al final, todos somos ratones en un laberinto digital, solo que algunos laberintos tienen la puerta cerrada con llave y otros simplemente nos han convencido de que no queremos salir.




Comparte:

7/2/26

El modelo car sharing no es rentable en ninguna parte del mundo

Es 2026 y el discurso sigue siendo el mismo. No necesitarás comprar un coche. No necesitarás ni siquiera conducirlo. Una flota de vehículos autónomos estará disponible 24/7 para llevarte adonde quieras. Más barato que mantener tu propio vehículo, más eficiente que el transporte público, más relajado, más limpio que ambos. Una visión seductora. 

Ciudades sin atascos porque los algoritmos optimizan cada ruta. Aparcamientos transformados en parques porque los coches nunca duermen. Accidentes reducidos a anécdotas históricas porque los humanos imperfectos han sido relegados al asiento trasero. Espacios de ciudades reaprovechables para zonas verdes y construcción de viviendas, ya que el espacio para aparcamientos ya no será necesario: los coches estarán continuamente en movimiento.

Pero hay un detalle incómodo en esta historia: la versión simple de este futuro ya existe, y está fracasando estrepitosamente. Y es que el carsharing, o el negocio de compartir coche, no está funcionando en ninguna parte del mundo.



El mal negocio del coche compartido


Durante años, empresas como ShareNow (la fusión de los gigantes Daimler y BMW), Zity, Wible o Free2Move han inundado nuestras ciudades con coches eléctricos relucientes. Nos convencieron de que esto era el futuro. Nos dijeron que estábamos aprendiendo a dejar de comprar coches para empezar a comprar trayectos.

Pero tras estas apps bonitas y coches silenciosos, se esconde una pesadilla contable.

Y es que el carsharing no es rentable en casi ninguna parte del mundo. ShareNow tuvo que huir de Norteamérica y Reino Unido. Bolloré quebró su Autolib en París. Incluso en Madrid, la capital europea del carsharing, las cuentas de resultados se escriben con tinta roja.





Un infierno logístico 


Un coche compartido sufre un desgaste acelerado. Pero el verdadero lastre del margen de beneficio es lo que en la industria llaman redistribución de flota (fleet rebalancing). Si todos los usuarios cogen un coche en el centro de la ciudad por la mañana para ir a trabajar a las afueras, a las 10:00 AM tienes todos tus activos parados en polígonos industriales donde nadie los va a usar hasta las 18:00.

Para solucionar esto, las empresas tienen que pagar a empleados para que vayan, recojan los coches y los muevan de nuevo a zonas de alta demanda. A eso hay que añadir el coste de la limpieza, la recarga eléctrica (que requiere inmovilizar el activo), los seguros (carísimos en este sector) y el vandalismo.

El resultado es paradójico: intentamos construir el futuro de la movilidad automatizada utilizando un modelo de negocio que requiere una intervención humana masiva y costosa.



¿El carsharing como preámbulo a la movilidad del futuro?


Aquí es donde la narrativa de "el futuro será autónomo y compartido" choca con la realidad actual.

La promesa de los gurús es que el coche autónomo solucionará esto. Al eliminar al conductor (como en Uber) y eliminar a los operarios de redistribución (porque el coche se irá solo a recargar y a buscar clientes), los costes operativos caerán en picado, haciendo que el viaje sea más barato que un billete de autobús.

Pero estamos atrapados en un valle de la muerte tecnológico. La conducción autónoma total está tardando mucho más de lo que Elon Musk prometió. Y mientras tanto, las empresas de carsharing actuales no pueden sostener las pérdidas eternamente.

Si el modelo de negocio de "flotas compartidas" quiebra hoy por falta de rentabilidad, ¿quién pondrá la infraestructura para los coches autónomos de mañana?

Hay algo más: incluso si mañana resolviéramos todos los problemas técnicos de la conducción autónoma  muchos de los costes permanecen. Los vehículos autónomos no eliminan el mantenimiento; de hecho, vehículos operando 24/7 requieren más. No eliminan la limpieza, ni el vandalismo (un coche sin conductor es un objetivo más fácil). No resuelven mágicamente el problema de los picos de demanda que obliga a dimensionar flotas para el peor momento del día.

Entonces, ¿por qué siguen operando marcas como Zity, Wible o Free2Move? En primer lugar, para marcas como Kia (Wible), Renault (Zity) o Stellantis (Free2Move), tener miles de coches rodando por Madrid o París es una campaña de publicidad gigante. Además, consiguen que miles de personas prueben sus coches eléctricos. Si te gusta el coche, quizás te compres uno. Además, ayuda a los fabricantes a cumplir con las normativas de emisiones de la UE. Y por último, estos coches recopilan millones de datos sobre cómo conducimos y cómo nos movemos por las ciudades, lo cual es valioso para el desarrollo de futuros vehículos y conducción autónoma.



Conclusión: ¿El fin de la propiedad de los vehículos?


Nos están vendiendo que en el futuro no tendremos coches, pero el mercado actual nos está diciendo que gestionar una flota de coches ajenos es un negocio ruinoso.

Quizás el futuro no sea esa utopía socialista-tecnológica de flotas estatales o corporativas llevándonos a todas partes. Quizás, mientras los robots aprenden a conducir y los contables intentan cuadrar los números, seguiremos haciendo lo único que, financieramente, sigue teniendo sentido para la mayoría: tener nuestro propio coche aparcado en la puerta.

El futuro necesita hacer las cuentas. Y las cuentas no siempre son fáciles.

Ya veremos.






Comparte:

2/2/26

El alcalde de Londres y el fin de los empleos de niveles junior

Era una fría tarde de jueves a mediados de enero de 2026 cuando el alcalde de Londres, Sadiq Khan, se subió al estrado de Mansion House y lanzó una bomba retórica que silenció la sala. No habló de la crisis de la vivienda ni de las huelgas de transporte. En cambio, miró a la élite financiera de la ciudad y calificó la inteligencia artificial como un potencial «arma de destrucción masiva para el empleo».

Era el tipo de titular sensacionalista que encanta a los políticos, pero, por una vez, los datos sugieren que podría estar minimizando la situación. Khan advirtió que Londres se encuentra en el «borde más afilado» de un cambio que amenaza con acabar con la economía de cuello blanco, y anunció la creación de un «grupo de trabajo de IA» de emergencia para intentar detener la hemorragia. Pero mientras el alcalde habla en tiempo futuro sobre una crisis inminente, los sectores financiero y tecnológico ya han comenzado silenciosamente la demolición.

Fuente


Si quieres ver el alcance de la explosión, no mires al Ayuntamiento. Mira los balances de las empresas más grandes del mundo. Apenas unos días antes del discurso de Khan, Goldman Sachs publicó un escalofriante informe en el que advertía de que los despidos por «eficiencia impulsada por la IA» que vimos en 2025 eran solo el preludio. Sus analistas predicen que en 2026 se producirá una «nueva ola» de recortes, no porque la economía se esté hundiendo, sino porque es lo suficientemente estable como para que las empresas finalmente lleven a cabo la «reestructuración» que llevan años planeando.

Las pruebas se acumulan a una velocidad brutal. Amazon comenzó el año 2026 eliminando 16.000 puestos corporativos, una medida que, según los expertos, supone un giro directo hacia operaciones más ágiles y potenciadas por la IA. Google siguió la tendencia y recortó cientos de puestos de trabajo en sus unidades globales de negocio y nube, citando específicamente las «ganancias de eficiencia» de sus nuevos modelos de IA. No se trata de empresas en crisis, sino de empresas que se están optimizando para un futuro en el que los seres humanos son el pasivo más caro del balance.

Pero lo más insidioso de esta historia no es quién está siendo despedido, sino quién no está siendo contratado.

En lo más profundo de los debates técnicos de la blogosfera de Substack, voces como la de Gergely Orosz (The Pragmatic Engineer) están documentando un fenómeno más específico y aterrador. Se le llama «la muerte del desarrollador junior».

Durante décadas, la industria tecnológica funcionó con un modelo de aprendizaje sencillo. Se contrataba a recién graduados que no sabían nada, se les pagaba para que arreglaran pequeños errores y redactaran documentación, y cinco años después, se tenía un ingeniero senior. Era una inversión cara e ineficaz, pero era la única forma de formar talento.

Esa escalera ha sido eliminada. A finales de 2025 y principios de 2026, la contratación para puestos de ingeniería de nivel inicial se desplomó casi un 60 % en algunos sectores. La lógica es implacablemente simple: un agente de IA como GitHub Copilot o Claude ahora puede generar código repetitivo, escribir pruebas y depurar errores más rápido y más barato que un graduado de 22 años. El «trabajo pesado» que solía enseñar a los jóvenes cómo ser veteranos se ha automatizado.

Estamos asistiendo a la creación de una «brecha de aprendizaje». Los ingenieros sénior se están convirtiendo en superhumanos, utilizando la IA para hacer el trabajo de tres personas, lo que justifica la congelación de las contrataciones. Pero esto crea una bomba de relojería demográfica. Si hoy nadie contrata a jóvenes, en 2030 no habrá sénior. Estamos, en efecto, comiéndonos nuestras propias semillas, cambiando la mano de obra futura por ganancias de eficiencia trimestrales.

Esta es la «destrucción» que preocupa a Sadiq Khan, aunque quizá no se da cuenta de lo quirúrgica que es en realidad. No solo estamos perdiendo puestos de trabajo, sino también el camino hacia la competencia. El peligro no es que los robots nos sustituyan a todos mañana. El peligro es que estamos construyendo una «economía de barra»: una pequeña élite de arquitectos que manejan la IA en la cima, una enorme clase baja de trabajadores temporales que verifican los resultados de la IA en la base y absolutamente nada en el medio.

Mientras miramos fijamente hacia 2026, la pregunta no es si estamos preparados para el futuro. Es si ya estamos viviendo en el pasado. El arma ha sido detonada, las consecuencias son invisibles y el único mensaje de error que recibimos es «Puesto de nivel inicial: cerrado».

Ya veremos. 







Comparte:

19/1/26

¿Es realista un Muro Antidrones para defender Europa?

Durante décadas, la frontera oriental de Europa se definió por barreras tangibles, minas y alambre de espino. Hoy, esa línea divisoria se ha vuelto tridimensional, invisible y terriblemente porosa. La propuesta de seis países de la OTAN de levantar un "muro antidrones" no surge del vacío teórico, sino de un mes de septiembre frenético que encendió todas las alarmas en Bruselas

La urgencia se materializó cuando un dron militar ruso se estrelló en la parroquia de Gaigalava, en el este de Letonia. Las fuerzas armadas confirmaron que era un Shahed cargado de explosivos que simplemente se adentró en la OTAN y cayó. Casi simultáneamente, Rumanía tuvo que emitir alertas de combate tras detectar grupos de drones atacando infraestructura ucraniana a escasos metros de su frontera fluvial, y en Polonia, un objeto volador penetró 25 kilómetros antes de desaparecer, desencadenando una búsqueda de diez días sin resultados.

Ante este caos, la idea de un escudo de drones en toda la frontera Este de Europa, propuesta por 6 países de la OTAN, suena reconfortante. Pero antes de diseccionar por qué es una pesadilla de ingeniería, hay que entender qué se está planteando realmente. No hablamos de ladrillos. El "muro" es, en teoría, una red integrada de vigilancia masiva: miles de radares, sensores acústicos, sistemas ópticos, drones de reconocimiento y satélites, todo atado por una inteligencia artificial central que coordine la intercepción. El objetivo es crear una burbuja de negación de área desde Finlandia hasta el Mar Negro. Sin embargo, cuando se baja de la retórica política al barro de la operativa real, el proyecto choca contra ocho barreras formidables que amenazan con convertirlo en el que sería uno de los proyectos militares más caros de la historia.


BBC

La tiranía de la geografía y el "ruido"


El primer enemigo de este muro no es Rusia, sino el mapa. La frontera oriental es una cicatriz geográfica inmensa y variada que alterna bosques densos, cadenas montañosas y costas marítimas. La física del radar es implacable: para detectar drones pequeños que vuelan a ras de los árboles (tácticas nap-of-the-earth), necesitas una línea de visión directa. Esto obliga a una densidad de nodos sensores absurda para evitar los "puntos ciegos".

Si en tierra es difícil, en el mar es un infierno técnico. Las zonas costeras añaden el problema del "clutter" (ruido de fondo) marino y la dificultad de mantener radares estables sobre el agua. Además, el objetivo a detectar no es un caza bombardero metálico, sino drones de materiales compuestos o espuma con una firma de radar (RCS) minúscula. Distinguir un dron de vigilancia Orlan-10 o un Shahed pintado de negro mate de un pájaro grande o una ola, requiere una sensibilidad que multiplica los falsos positivos. Un sistema que alerta de un ataque cada vez que sopla el viento en los Cárpatos es un sistema que acaba siendo ignorado.


Drone Shahed

Disparar en un continente lleno de gente


Supongamos que la red de sensores funciona y detecta un enjambre. Ahora viene el problema: Detectar no es suficiente; hay que neutralizar. Y aquí entran en conflicto la seguridad y la demografía. Europa es un continente densamente poblado. Derribar un dron cargado de explosivos sobre una zona habitada, o cerca de aeropuertos civiles, conlleva un riesgo de daños colaterales y responsabilidad legal que paraliza a los mandos.

Las reglas de enfrentamiento en tiempos de paz (o de "guerra híbrida", esa zona gris donde nos movemos) son una pesadilla legal. ¿Quién autoriza el disparo? La latencia burocrática es el talón de Aquiles de la defensa occidental. Mientras los diferentes ejércitos coordinan la verificación y la decisión de fuego -cruzando barreras de idioma, protocolos de diferentes estados y normativas de aviación civil- , un dron que vuela a 180 km/h ya ha alcanzado su objetivo o ha desaparecido. La interoperabilidad real, donde un radar polaco guíe a un interceptor alemán en tiempo real sin fricción política, es algo que la OTAN lleva décadas persiguiendo sin éxito total.

Incluso si resolvemos la física y la burocracia, nos queda la economía. La guerra de drones es una guerra de costes asimétricos. Construir, desplegar y mantener esta infraestructura 24/7 requiere un presupuesto faraónico, no solo en inversión inicial, sino en las actualizaciones y el mantenimiento. Y todo para enfrentarse a una amenaza que muta cada semana.

El adversario es adaptativo. Si construimos un muro optimizado para detectar los Shahed actuales, Rusia cambiará a enjambres más pequeños, usará navegación puramente óptica inmune al jamming (interferencias), o lanzará señuelos de contrachapado que cuestan 500 dólares para que la OTAN gaste misiles de medio millón. Existe el riesgo real de que el "Muro Antidrones" se convierta en lo que los expertos llaman "Teatro de Seguridad": una medida visible y carísima que ofrece una falsa sensación de invulnerabilidad, mientras el enemigo simplemente cambia de táctica o satura el sistema por fuerza bruta. Técnicamente, no es imposible construir algo parecido, pero es imposible que sea infalible.

Parte de toda esta urgencia lo demuestra el hecho de que el pasado 18 de diciembre, el Parlamento Europeo aprobó un informe sobre drones y nuevos sistemas de guerra, en cuyo punto 37 se hace referencia explícita a la necesidad de actualizar el manual del Manual de Sistemas de Protección de Infraestructuras Críticas contra Drones (publicado en 2023).

Así que estoy convencido que por todo esto, y algunas otras razones que se me quedan en el tintero, que el teórico Muro Antidrones de Europa no es más que una gran quimera.

Ya veremos.






Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons