/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

17/11/25

El Drone de Reparto: De la Promesa de Amazon a la Cruda Realidad de los Balances

Dicen que el futuro de la logística es silencioso, sobrevuela el tráfico y llega a tu puerta en media hora. La visión de Amazon Prime Air, Walmart o Wingcopter prometiendo la entrega de última milla con drones (ese paquete de cinco libras o menos que te saca de un apuro) es, sin duda, seductora. Es la quintaesencia de la eficiencia: evitar el colapso urbano, reducir las emisiones en un 80-85% por paquete respecto a un vehículo de combustión, e ignorar los atascos.

En el corazón de esta transformación se encuentran gigantes del comercio minorista y la logística, como Amazon y Walmart, que han invertido considerablemente en la materialización de esta utopía aérea. El proyecto más emblemático, Amazon Prime Air, fue concebido no solo como una mejora logística, sino como un intento radical de redefinir el comercio electrónico, ofreciendo un servicio de entrega instantánea inigualable. Jeff Bezos postuló, ya en 2013, que ver drones de Amazon sería tan común como ver camiones de correos en la carretera.

Pero si el modelo es tan brillante, ¿por qué no estamos ya enterrados bajo un manto de drones zumbadores? La respuesta no está en la tecnología, sino en la regulación y, más crudamente, en la economía de la unidad operativa. 

Para diseccionar esta brecha entre la promesa y la rentabilidad, no se me ha ocurrido nada mejor que analizar el modelo de negocio y resultados financieros de una empresa cotizada en Bolsa (en este caso, canadiense) que está luchando en esta arena: Volatus Aerospace Inc. (TSXV: FLT). Sus estados financieros y su estrategia revelan los desafíos que gigantes como Amazon o DHL deben superar para que sus proyectos de reparto sean algo más que costosos ejercicios de marketing. Es importante conocer que Volatus Aerospace es el resultado de la fusión que culminó en 2024, entre dos empresas del sector: Drone Delivery Canada (DDC) y Volatus Aerospace, de cuyo resultado nació Volatus Aerospace Inc.

Este post será un poco más largo que los habituales, pero pretendo demostrar en qué punto de este escenario tecnológico de ciencia ficción estamos, y más allá de los grandes titulares, cómo se puede hacer una empresa de reparto de mercancías con drones, alcance la tan deseada rentabilidad. Y sobre todo, ¿cómo se justifica este comportamiento en Bolsa de la acción de Volatus, capaz de estremecer a los inversores más calmados?



El cuello de botella regulatorio: la clave del negocio


El obstáculo principal de la logística con drones es el requisito de la Línea Visual (VLOS). Durante años, la normativa exigía que un operador mantuviera el control visual directo de su aeronave. Esto limita las misiones a distancias cortas y obliga a tener un operador por dron (o, con suerte, por un puñado de drones en una zona pequeña), disparando el coste operativo.

La verdadera viabilidad económica y la escalabilidad del negocio residen en el BVLOS (Beyond Visual Line of Sight).

Volatus Aerospace ha logrado convertir esta dificultad en su principal ventaja competitiva. Han obtenido un Certificado de Operaciones de Vuelo Especial (SFOC) de Transport Canada que autoriza operaciones BVLOS escalables a nivel nacional.

Su secreto está en la tecnología de Detección y Evitación (DAA). Volatus utiliza una integración de tres componentes:
1.    Radar MatrixSpace: Un sistema ligero que detecta aeronaves pequeñas y no cooperativas (otros drones).
2.    Kongsberg IRIS Terminal: Una plataforma de software para la conciencia del espacio aéreo.
3.    Operations Control Center (OCC): Un centro neurálgico para la gestión remota.

Al certificar un sistema DAA robusto, Volatus ha convencido al regulador de que la seguridad ya no depende del ojo humano, sino de la tecnología, permitiendo a la empresa reducir drásticamente la proporción de personal por dron. Esto es lo que se traduce en rentabilidad.

Tal y como mencionaba antes, Volatus se fusionó con Drone Delivery Canada (DDC) para consolidar el mercado canadiense. DDC se centraba en la logística y entrega de mercancías autónoma, especialmente en el suministro a comunidades y áreas remotas del norte de Canadá. La lógica de esta consolidación es simple: en un sector donde la regulación es la barrera más alta, la unión de permisos regulatorios y la eficiencia del capital son las estrategias de supervivencia.

La principal debilidad de DDC y de la industria en general era el complejo y lento marco regulatorio que impide una rápida escalabilidad, junto con los altos costos iniciales. Sus gastos operativos superan los ingresos, resultando en pérdidas netas continuas.

Al unirse a Volatus, DDC pudo combinar su tecnología propietaria (software FLYTE, drones como el Sparrow) y su enfoque en nichos rentables (suministros médicos y carga de alto valor/urgente en comunidades remotas) con la ventaja regulatoria BVLOS y la infraestructura OCC certificada de Volatus. La fusión consolida un liderazgo regulatorio y tecnológico en el nicho geográfico canadiense. De hecho, Volatus es especialista en la entrega de paquetería en zonas de difícil acceso y poblaciones mal comunicadas, precisamente, el nicho que más sentido cobra en este negocio.


Lección para los Gigantes (Amazon, UPS): El moat de la logística aérea no es el dron más rápido, sino la certificación regulatoria y la infraestructura tecnológica DAA que permite la automatización total.2 Aunque la FAA ha aumentado las exenciones BVLOS (190 a octubre de 2024, frente a solo 6 en 2020) 5, el camino hacia una operación verdaderamente escalable y sin observadores visuales fuera de sitios de prueba designados sigue siendo lento y complejo.



El negocio real: cuando los sueños se estrellan contra el excel


Un error común es asumir que la rentabilidad vendrá solo del reparto de paquetes de última milla. Los documentos de Volatus revelan una estrategia de negocio diversificada, diseñada para generar flujo de caja mientras se construye la infraestructura BVLOS de alto valor.

Volatus Aerospace no es Amazon. Es una empresa canadiense-americana que opera en tres frentes: vende drones de otros fabricantes, ofrece servicios aéreos (inspecciones, vigilancia, transporte) y forma pilotos. En el segundo trimestre de 2025 facturaron 10,6 millones de dólares canadienses. Para ponerlo en perspectiva: Amazon gasta más que eso en café corporativo cada semana.

Pero precisamente por ser pequeña, Volatus nos muestra la anatomía económica del sector sin el maquillaje de las grandes corporaciones. Y los números son brutales.

El margen bruto del 32% que consiguieron en Q2 2025 esconde dos realidades muy distintas. Los servicios aéreos (vuelos de inspección, transporte de carga) generan márgenes entre el 40% y el 50%. Respetable. Rentable, incluso. Pero la venta de equipos (drones físicos) apenas roza el 20-25%, típico de cualquier negocio de distribución.

Y aquí viene lo interesante: en el trimestre analizado, el 48% de sus ingresos vino de vender cacharros, no de volar. ¿Por qué? Porque las guerras —concretamente, la demanda de la OTAN por drones militares tras la invasión rusa de Ucrania— han disparado las ventas de hardware. Volatus vendió un 114% más de equipos que el año anterior. Pero ese boom defensivo no dice nada sobre la viabilidad del reparto comercial.


El agujero negro operativo


Aquí está el problema estructural que Amazon no cuenta en sus keynotes: Volatus perdió casi 4 millones de dólares en el trimestre. Y no es una startup quemando capital para crecer: llevan operando desde 1987 (originalmente como empresa de aviación tripulada). Han volado 75.000 horas. Tienen certificaciones regulatorias que Amazon pagaría millones por conseguir. Y aun así, pierden dinero.

Desglosemos sus gastos operativos trimestrales:

Personal: 2,2 millones
Costes de oficina: 714.000
Marketing y publicidad: 428.000
Partners externos: 473.000
Depreciación: 1,4 millones

Sumemos: 5,6 millones en costes operativos contra 3,4 millones de beneficio bruto. Pérdida operativa: 2,2 millones. ¿Se entiende ahora la gráfica de la cotización de Bolsa?


Pero lo fascinante está en la nota a pie en los documentos financieros de la compañía: "certain costs increased due to termination expenses, legal fees". Traducción: están despidiendo gente y peleando en tribunales mientras intentan ser rentables. Y también es revelador un dato en la página 13 de estos documentos financieros: comparando con el mismo periodo de 2024 (sumando las dos empresas que se fusionaron para crear Volatus), redujeron gastos operativos en 2,7 millones. Es decir, están adelgazando brutalmente la estructura para no desangrarse.

Veamos los costes estructurales que Volatus nos revela:

Gasto operativo: Gastaron 411.000 dólares en seis meses solo en equipamiento. Cada dron cuesta entre 50.000 y 300.000 dólares según capacidad. Se deprecian en 3-5 años. Se estrellan. Requieren mantenimiento constante.

Operaciones remotas: Volatus presume de su Operations Control Center (OCC) en Toronto, que supervisa vuelos BVLOS remotamente. Suena eficiente hasta que piensas que necesitas operadores humanos certificados monitorizando pantallas. A diferencia de un algoritmo que escala gratis, cada operador cuesta 60.000-100.000 dólares anuales y puede supervisar quizá 10-20 drones simultáneos en el mejor escenario.

Infraestructura: Volatus tiene dos productos patentados: DroneSpot™ (zonas de aterrizaje) y Aeriport (estaciones de carga automática). Cada ubicación requiere inversión física, permisos, electricidad, conectividad. Esto no escala como abrir una cuenta de AWS.

Regulatorio: Las 75.000 horas de vuelo de Volatus les han costado años de trámites, SFOCs (Special Flight Operating Certificates) negociados caso por caso, relaciones con Transport Canada. En EE.UU., la FAA es mucho más restrictiva. Amazon lleva años en "pruebas piloto" porque cada nueva ruta requiere aprobación individual.

Y aquí viene una interesante paradoja: Volatus está cerca de ser rentable precisamente porque NO hace lo que Amazon promete.

Su EBITDA ajustado mejoró un 85% interanual: de perder 1,85 millones a perder solo 276.000 dólares en el trimestre. ¿Cómo? No con reparto urbano masivo, sino con:

- Inspecciones industriales de alto valor: Oleoductos, líneas eléctricas, parques solares. Facturaron la inspección de 760.000 paneles solares en Norteamérica. Una empresa de energía paga 200.000-500.000 dólares por un contrato de inspección que con helicópteros tripulados costaría el doble o triple.
- Ventas B2B de equipos: El 48% de sus ingresos viene de vender drones a gobiernos y empresas. Son un distribuidor especializado, no un operador puro. Amazon nunca hará esto.
- Formación: Han entrenado 114.000 pilotos desde su inicio. Es negocio de margen alto y recurrente. ¿Amazon va a montar academias de pilotos?
- Servicios de defensa: La guerra de Ucrania les disparó la demanda. Drones de vigilancia para militares. Esto es geopolítica, no logística.

¿Qué tienen en común estos negocios? Densidad de valor sobre volumen. Un contrato de inspección de 300.000 dólares con 50 vuelos es viable. Cincuenta entregas de 15 dólares cada una (750 dólares) con la misma infraestructura, no.

Ahora viene la parte que explica por qué Amazon sigue jugando a esto sin resultados. Volatus ha levantado capital desesperadamente:

Mayo 2025: 3 millones
Junio 2025: 5 millones
Julio 2025 (post-trimestre): 10 millones
Agosto 2025: 4,8 millones adicionales

Total: 22,8 millones en tres meses. ¿Para qué? Para no quedarse sin liquidez mientras buscan la rentabilidad.

Miren su estructura de capital: tienen 85,4 millones de warrants (opciones de compra) con precio de ejercicio entre 0,20 y 0,30 dólares. La acción cotiza alrededor de 0,50 dólares. Están diluyendo brutalmente a los accionistas para sobrevivir. Es decir, cada vez emiten más acciones al mercado, y eso hace que las que ya están en él pierdan valor. Están inundando de acciones, y eso no gusta nada a los accionistas (¿se sigue entendiendo ahora la gráfica de la cotización?). Su deuda a largo plazo asciende a 19,7 millones, con préstamos al 12,5-15,5% de interés de inversores privados y el gobierno de Quebec.

Compare esto con Amazon. Bezos puede quemar 500 millones anuales en Prime Air sin pestañear porque Amazon Web Services genera 90.000 millones al año. Prime Air es marketing, es señalización al mercado. No necesita ser rentable nunca.

Pero Volatus, como cualquier empresa normal, tiene que dar beneficios o morir. Y precisamente eso hace su caso tan ilustrativo: están haciendo lo máximo posible con la tecnología actual, las regulaciones reales y las economías de escala alcanzables. Y aun así, apenas sobreviven.



Lecciones de un Sector que Nunca Despegó


La historia de los drones de reparto comercial es una fábula moderna sobre la diferencia entre el bombo tecnológico y la viabilidad económica. No es que la tecnología no funcione: funciona, como Volatus demuestra con sus 75.000 horas de vuelo. Es que los números no funcionan.

El sector del dron comercial será real. Pero será en:

Inspecciones industriales (ya es rentable)
Respuesta a emergencias (valor infinito del tiempo)
Logística rural extrema (donde no hay alternativas)
Aplicaciones militares (presupuestos ilimitados)
Monitorización agrícola (Volatus acaba de firmar contratos nacionales en esto)

No será en entregarle a usted unas pilas en 30 minutos porque se le olvidó comprarlas.

Volatus Aerospace, con sus pérdidas trimestrales y sus rondas de financiación desesperadas, es más honesta que cualquier presentación de Walmart o Amazon. Sus estados financieros son la radiografía de una industria que prometió el futuro y entregó nicho.

La próxima vez que vean un anuncio de drones de reparto, acuérdense de los 276.000 dólares que Volatus sigue perdiendo cada trimestre haciendo exactamente eso, pero con clientes reales, reguladores reales y física real.

El futuro del transporte de carga con drones es prometedor, pero es un juego de alto riesgo y de gran capital. La lección de Volatus es clara: el negocio despegará primero en los mercados verticales de alta demanda (inspección y defensa), y solo después, de forma silenciosa y eficiente, se expandirá a tu buzón. La rentabilidad no es un sprint de marketing, sino una maratón de certificación BVLOS y ejecución de contratos.

El futuro llegó. Solo que no era rentable.


Ya veremos.



Comparte:

3/11/25

La Gran Congelación: cuando las máquinas no roban empleos, simplemente dejan de crearlos

En junio de 2025, Jerome Powell todavía era cauteloso. Ante el Comité Bancario del Senado, el presidente de la Reserva Federal admitía que los efectos de la inteligencia artificial en la economía "probablemente no son grandes en este momento", aunque advertía de su potencial para generar "cambios dramáticos" cuyo momento y magnitud eran "tremendamente inciertos". Era la prudencia característica de un banquero central: reconocer el fenómeno sin alarmarse.

Cuatro meses después, en octubre, esa cautela había desaparecido.

"La creación de empleo está bastante cerca de cero", declaró Powell el 30 de octubre tras la reunión del Comité Federal de Mercado Abierto. Ya no hablaba de potenciales futuros. Hablaba de un presente que se puede medir: "Una cantidad significativa de empresas ha anunciado despidos o congelación de contrataciones, y gran parte del tiempo están hablando de IA y lo que puede hacer".

Algo había cambiado en esos cuatro meses. Y ese algo tenía datos concretos detrás.



Los canarios en la mina


Durante meses, economistas y analistas se frustraban con la misma limitación: las bases de datos públicas que rastrean el mercado laboral no estaban diseñadas para detectar disrupciones específicas en tiempo real. No había forma de saber con confianza qué estaba pasándoles a los desarrolladores de software de entre 22 y 25 años en mayo de 2025. Los datos agregados mostraban estabilidad general, pero nadie podía ver a los canarios en la mina.

Hasta que un equipo de Stanford se asoció con ADP, la mayor empresa de software de nóminas de Estados Unidos, con datos de millones de trabajadores. Y lo que encontraron debería quitarnos el sueño.

El empleo de desarrolladores de software de 22 a 25 años ha caído casi un 20% desde su pico a finales de 2022 —justo cuando se lanzó ChatGPT— hasta julio de 2025. Para los de 26 a 30 años, también hay descenso, aunque menor. Para los mayores de 30, prácticamente ningún cambio. La gráfica es brutal en su claridad: una línea descendente perfecta que comienza exactamente cuando ChatGPT sale al mundo (el paper está bien explicado por uno de sus autores en este hilo de X).



Y no son solo los programadores. Los representantes de atención al cliente, otro trabajo altamente expuesto a la IA, muestran el mismo patrón exacto: caída dramática en los jóvenes, estabilidad en los veteranos. Pero cuando miras trabajos que la IA no puede hacer (auxiliares de enfermería, cuidadores) ves lo contrario: crecimiento robusto precisamente entre los más jóvenes.



El patrón es tan claro que resulta inquietante. Para trabajadores de 22 a 25 años, el empleo está creciendo en los trabajos menos expuestos a la IA y cayendo en los más expuestos. Para trabajadores de 41 a 49 años, no hay diferencia. La IA no está destruyendo empleos de forma indiscriminada. Está cerrando la puerta de entrada.




Automatización versus aumentación


El estudio de Stanford hace otra distinción crucial. No todos los usos de la IA son iguales. Cuando un trabajador usa ChatGPT para escribir un email más rápido, eso es aumentación: la IA amplifica sus capacidades. Pero cuando una empresa rediseña todo un proceso para que funcione sin humanos, eso es automatización.

Usando datos del Índice Económico de Anthropic, que clasifica conversaciones de Claude según si sirven para automatizar o aumentar, los investigadores encontraron algo revelador: en trabajos donde la IA se usa principalmente para automatizar (programación, contabilidad), el empleo juvenil ha colapsado. En trabajos donde se usa para aumentar (gestión, reparaciones), el empleo juvenil crece con normalidad.

Los trabajadores individuales usan la IA para trabajar mejor. Las empresas la usan para trabajar sin ellos.


¿Y los salarios?


Aquí viene lo extraño: a pesar de la caída del 20% en empleo juvenil en sectores expuestos a IA, los salarios no se han movido significativamente. ¿Por qué? Los investigadores tienen hipótesis pero no respuestas definitivas. Quizá el empleo se ajusta más rápido que los salarios. Quizá la IA está cambiando los requisitos de expertise de formas que no se reflejan en el salario promedio. O quizá - y esto es lo más inquietante - estamos en un período de transición donde las empresas simplemente han dejado de contratar juniors mientras experimentan con IA, sin despedir todavía a los seniors. ¿Es la gerontocracia de los puestos laborales?


El panorama completo


Noviembre de 2022. ChatGPT se convierte en la aplicación de más rápido crecimiento de la historia. Casi tres años después, los números macro cuentan una historia extraña. Las ofertas de empleo en Estados Unidos cayeron un 33%, mientras el S&P 500 se disparó un 75%. Es una divergencia sin precedentes: durante décadas, cuando las empresas ganaban dinero, contrataban. Esa lógica acaba de romperse.



Amazon hace 6 días despidió a 14.000 mandos intermedios mientras invertía miles de millones en IA. Según Challenger, Gray & Christmas, las empresas estadounidenses han anunciado casi 946.000 despidos en 2025, la cifra más alta desde 2020. Más de 17.000 están explícitamente vinculados a la IA.

Algunos autores como Derek Thompson, señala acertadamente que no todo es culpa de la IA. Las ofertas de empleo empezaron a caer cuando la Fed subió tipos de interés en marzo de 2022. Los aranceles han golpeado sectores como manufactura y construcción. Pero hay algo que Thompson reconoce: las empresas están diciendo abiertamente que la IA les permite hacer más sin contratar. Marc Benioff, CEO de Salesforce, afirmó que entre el 30% y el 50% del trabajo en su empresa ya lo hace la IA.

La Reserva Federal confirma estos patrones con sus propios datos: cuando cruzan exposición teórica a la IA con tasas de desempleo reales encuentran una correlación de 0,47; cuando miden adopción efectiva de IA frente a incremento del desempleo, la correlación sube a 0,57. Las ocupaciones en informática y matemáticas, precisamente las que más han adoptado herramientas de IA generativa, muestran los mayores incrementos en desempleo.


La pregunta incómoda


Los investigadores de Stanford son cautelosos. No afirman que la IA explique todos los patrones. Probaron explicaciones alternativas: ¿sobrecontratación tech durante la pandemia? Los resultados se mantienen excluyendo el sector tech. ¿Vuelta a la oficina post-COVID? Los patrones aparecen en trabajos que nunca fueron remotos. ¿Peor preparación educativa post-pandemia? El efecto es igual de fuerte en ocupaciones sin título universitario.

Pero aquí viene lo más perturbador del estudio: en trabajos que no requieren educación universitaria, el efecto negativo de la IA se extiende hasta los 40 años. Para trabajadores menos educados, la experiencia no protege tanto. Sugiere algo inquietante: la IA es excepcionalmente buena aprendiendo el tipo de conocimiento que viene de libros o educación formal, pero no tanto el conocimiento tácito que viene de años de experiencia. Y si tu trabajo no requiere mucha experiencia acumulada, la IA te alcanza antes.

Lo que Powell describe, y los datos de Stanford confirman, es una economía en forma de K: arriba, las empresas tecnológicas y los trabajadores seniors; abajo, los jóvenes graduados que descubren que la escalera de ascenso social simplemente ya no está ahí. Los recién graduados universitarios en Estados Unidos tienen una tasa de desempleo superior al 5%, y muchos están optando por volver a la universidad como "tiempo muerto estratégico". "Los consumidores en los segmentos más bajos están teniendo dificultades", dijo Powell en septiembre.

Quizá lo más escalofriante no sean las cifras actuales, sino la normalidad que se perfila: corporaciones más eficientes y rentables mientras la puerta de entrada al mercado laboral se cierra para una generación entera.

En junio, Powell admitía incertidumbre. En octubre, constata una realidad. Ese cambio de tono en cuatro meses, respaldado por datos de millones de nóminas, debería preocuparnos.

Porque el verdadero horror no es que las máquinas nos roben el trabajo. Es que nos dejen sin la posibilidad de conseguir el primero.

Ya veremos.





Comparte:

27/10/25

El Fantasma en la Máquina (equivocada). El futuro de los robots humanoides

Hay una escena que resume a la perfección la extraña esquizofrenia de nuestro momento tecnológico. Ocurrió a principios de 2024. Tesla publicó un vídeo de Optimus, su mesías robótico, doblando una camiseta. La cámara, con esa estética de laboratorio aséptico que tanto gusta en California, mostraba unas manos metálicas cogiendo con parsimonia una prenda negra y plegándola sobre una mesa. El gesto era lento, casi meditabundo. Era, en apariencia, la domesticación definitiva de la máquina: el autómata convertido en amo de casa.

El vídeo, por supuesto, se hizo viral. Pero entonces, los nuevos teólogos de nuestro tiempo, los analistas de frames en redes sociales, notaron algo extraño. Una vacilación casi humana, un temblor impropio de un algoritmo. En la esquina inferior derecha del plano, una mano humana entraba y salía de cuadro, como un director de escena torpe. La sospecha se convirtió en burla cuando el propio Elon Musk, profeta en jefe de esta nueva religión, admitió con la boca pequeña que, bueno, el robot no estaba actuando de forma autónoma. Aún no.



Aquella camiseta mal doblada no es una anécdota. Es el pliegue que revela la verdad: la robótica humanoide de propósito general, tal y como nos la venden, es un espectacular truco de magia. Y para entender el truco, no hay que mirar a los ingenieros, sino a un filósofo francés del siglo XVII y a su crítico más mordaz.

Un Fantasma con un mando de PlayStation


En 1641, René Descartes nos partió por la mitad. Propuso que el ser humano era una extraña amalgama de dos sustancias: la res extensa (el cuerpo, una máquina de carne y hueso sujeta a las leyes de la física) y la res cogitans (la mente, una entidad inmaterial, pensante y libre). El gran problema de su teoría, el que le torturó hasta el final, fue explicar cómo demonios se comunicaban ambas. ¿Cómo un pensamiento, un fantasma inmaterial, podía hacer que un brazo se moviera?

Trescientos años después, en 1949, el filósofo Gilbert Ryle se burló de esta idea acuñando uno de los términos más brillantes de la filosofía del siglo XX: "el fantasma en la máquina". Para Ryle, el dualismo cartesiano era un "error categorial", un disparate lógico como visitar la Universidad de Oxford y, tras ver los colegios, las bibliotecas y los laboratorios, preguntar: "¿Pero dónde está la Universidad?". La mente, decía Ryle, no es un piloto espectral manejando un cuerpo; es, simplemente, el conjunto de todas las habilidades y disposiciones de ese cuerpo.

La ironía es tan deliciosa que casi parece escrita por un guionista. Setenta y cinco años después del rapapolvo de Ryle, la vanguardia de Silicon Valley ha invertido miles de millones de dólares en demostrar que, para hacer funcionar un robot humanoide en 2025, sí necesitas un fantasma en la máquina.

El ejemplo más descarado ocurrió en el evento "We, Robot" de Tesla. Allí, los robots Optimus no solo doblaban camisetas, sino que servían bebidas, jugaban y posaban con una naturalidad pasmosa. Parecía el futuro, servido en bandeja de plata. La realidad, revelada por la propia compañía, es que gran parte de esa autonomía era una farsa. Era teleoperación. En una sala contigua, fuera de plano, un ejército de fantasmas muy materiales, con cascos de realidad virtual y mandos de control, movían los hilos. El robot no era un ser autónomo; era una marioneta carísima. El fantasma en la máquina existe, solo que ahora cobra por horas y, probablemente, usa un mando de PlayStation.



El Casino del Aprendizaje y la Venganza del Mundo Real


Los defensores de esta tecnología argumentan que esto es solo una fase temporal. Que el verdadero salto vendrá del Aprendizaje por Refuerzo (RL), y más concretamente, del Deep Reinforcement Learning (Deep RL). La idea es seductora: en lugar de programar cada movimiento, creas una simulación por ordenador y dejas que la IA "aprenda" por sí misma a base de millones de intentos y errores, recibiendo recompensas virtuales cuando hace algo bien. Es como entrenar a un perro, pero con una paciencia infinita y una factura eléctrica monumental.

El problema es que este método tiene la misma relación con la realidad que una partida de póker online con sobrevivir en la selva. En el casino digital de la simulación, el robot puede permitirse fallar un millón de veces para aprender a coger un objeto. El coste de cada fallo es cero. En el mundo real, un solo fallo puede significar un jarrón de la dinastía Ming hecho añicos, un cortocircuito o un dedo amputado.

Esta brecha insalvable es lo que los ingenieros llaman el problema del sim-to-real transfer. Y es aquí donde la Paradoja de Moravec, esa vieja ley no escrita de la robótica, vuelve para reírse en nuestra cara. Conseguimos que una IA componga sinfonías o descubra nuevas proteínas (tareas que nos parecen el culmen de la inteligencia), pero fracasamos estrepitosamente en enseñarle a caminar sobre una alfombra arrugada o a abrir un bote de pepinillos (tareas que un niño de tres años domina).

La razón es que el mundo físico es un infierno computacional. La fricción, la gravedad, la elasticidad, la luz impredecible... cada interacción con la realidad es una negociación con un caos de variables que ninguna simulación puede replicar por completo.


Inversores, ingeniería control y el Problema de la Mano


Entonces, si los desafíos son tan fundamentales, ¿por qué vemos estas demostraciones espectaculares? ¿Por qué se invierten miles de millones en humanoides que, en el fondo, son poco más que actores de doblaje corporal?

La respuesta está en la audiencia. Quienes firman los cheques no suelen ser expertos en ingeniería de control. Un inversor de capital riesgo entiende una curva de crecimiento exponencial en el rendimiento de un software; entiende mucho menos las limitaciones físicas de un actuador o la intratabilidad del problema del contacto en robótica. Es infinitamente más fácil vender un PowerPoint con la promesa de una "IA general encarnada" que explicar por qué una bisagra sigue siendo un problema de ingeniería no resuelto.

Lo que Tesla y otras startups están vendiendo no es un producto, es una narrativa. Una resurrección del sueño cartesiano: la promesa de que un "alma" de software (un modelo de lenguaje gigante, una red neuronal) puede descargarse en un cuerpo y, por arte de magia, darle vida y sentido. De hecho, ¡Tesla se encuentra ahora atrapado en un problema enorme, el Problema de la Mano Robótica!

La mano humana tiene 27 grados de libertad y está controlada por 20 músculos de la mano y 20 del antebrazo. La mayor parte de la potencia la desarrollan los músculos del antebrazo y los músculos intrínsecos de la mano, cruciales para el control preciso. Los músculos intrínsecos de la mano son esenciales para el control preciso y la propiocepción, cruciales para tareas como tocar el piano o desmontar un coche. La mano de Tesla Optimus tenía 22 grados de libertad. Todo esto requiere un 80 % de todo el esfuerzo de ingeniería para replicar su versatilidad y destreza en una mano robótica.

Fabricar la mano robótica a escala es 100 veces más difícil que diseñarla, según Elon Musk, y convierte este problema en uno enorme y jerárquico, ya que algunos músculos no pueden moverse de forma independiente.


Pero como Gilbert Ryle nos advirtió, es un error de categoría. La inteligencia no es un fantasma que se pueda trasplantar. Es el resultado de un cuerpo y un cerebro que han evolucionado juntos durante millones de años en una danza constante con la brutal y maravillosa física del mundo real.

No digo que los humanoides no vayan a existir, pero hay muchos desafíos por resolver antes de que la economía de los humanoides pueda funcionar. El progreso es asombroso, pero lograr que el valor supere el costo es realmente difícil: habrá que encontrar robots de muy bajo costo y de alta productividad.

El robot que doble nuestra ropa llegará, probablemente. Pero no será el resultado de un software milagroso instalado en un maniquí con ínfulas. Será la culminación del trabajo de esos "fontaneros" olvidados de la ingeniería que luchan con la fricción, el equilibrio y la fragilidad de un mundo que no se puede simular. Mientras tanto, seguiremos asistiendo a un teatro de marionetas de alta tecnología, aplaudiendo al fantasma y haciendo como que no vemos los hilos. Y también queda una pregunta importante: ¿de verdad la gente quiere humanoides en sus casas? 

Ya veremos.





Comparte:

20/10/25

El Último Experimento

Durante siglos, la ciencia se basó en una regla sencilla, casi moral: si un experimento no puede reproducirse, no es ciencia. Era una especie de mandamiento laico según el cual cualquiera debía poder verificar lo que uno afirmaba, y la verdad se ganaba con transparencia, método y paciencia. 

Hoy, ese principio suena tan pintoresco como un teléfono de disco. En la era de la inteligencia artificial, reproducir un experimento puede costar decenas o cientos de millones de dólares y requerir el suministro eléctrico de una ciudad pequeña. La curiosidad ya no es suficiente; ahora se necesita un centro de datos.

OpenAI, Google DeepMind, Anthropic, Meta: estos son los monasterios de la ciencia moderna, lugares donde los fieles siguen creyendo en el progreso, pero ya no pueden ver los rituales que hay detrás. Sus servidores son catedrales de computación: templos vastos y sellados donde se entrenan nuevas inteligencias, utilizadas por todos y comprendidas por nadie. La academia, mientras tanto, se queda con las oraciones, pero no con los recursos. 

Una universidad en Europa probablemente podría reproducir un experimento de los años 50, quizá incluso algo de física cuántica, pero replicar el entrenamiento de un modelo como GPT-4, cuyo coste se estima en casi 80 millones de dólares, sería tan realista como construir un acelerador de partículas en el sótano. Como resultado, la industria produce la gran mayoría de los modelos de aprendizaje automático más notables, mientras que las universidades, que tradicionalmente eran el motor de la investigación fundamental, se quedan atrás, perpetuando un desequilibrio donde casi el 70% de los nuevos doctores en IA son contratados directamente por el sector privado. Las universidades todavía forman científicos; simplemente tienen cada vez menos ciencia que hacer y menos poder para retener el talento. A esto se suma el nuevo coste de la visa para profesionales especializados que Trump acaba de anunciar: 100.000 $. Una chuchería para las empresas, pero una utopía para las facultades.


La caja negra y la nota de prensa


La inteligencia artificial se está convirtiendo en el primer campo de la ciencia sin un verdadero escrutinio externo. Las empresas publican resultados que nadie puede verificar, comparan sus modelos con baremos que ellas mismas diseñan y elaboran pruebas que siempre consiguen superar. La revisión por pares (ese ritual de humildad en el que los colegas podían desmontar tu argumento) ha sido sustituida por comunicados de prensa bien coordinados. 

Este problema no es exclusivo de la IA; otras disciplinas, como la psicología o la biomedicina, llevan años lidiando con su propia "crisis de reproducibilidad", donde un porcentaje alarmante de estudios no puede ser reproducido por otros investigadores. Sin embargo, la diferencia fundamental es que en esos campos la falta de reproducibilidad es un escándalo que destapa un fallo del sistema, mientras que en la IA se está convirtiendo en el sistema mismo. No hay malicia inherente en esto, solo economía. Y dondequiera que los negocios dictan el ritmo del descubrimiento, la verdad se convierte en un lujo, no en un deber.

Hace poco, Retraction Watch informó del caso de un anestesista que tuvo que retractarse de más de 220 artículos científicos (de momento), una cifra absurda que equivale a la producción de toda una vida de un grupo de investigación mediano. Su caída fue pública, dolorosa y, sobre todo, posible: alguien comprobó, alguien verificó, alguien encontró el fraude. Esa es la diferencia. En los escándalos científicos más antiguos, existía al menos una red de escrutinio, alguien más que podía dudar de ti. 

Los grandes modelos lingüísticos actuales, en cambio, son cajas negras. Nadie fuera de la empresa sabe cómo fueron entrenados, qué datos utilizaron o qué sesgos incorporaron. Y la parte más inquietante es que, incluso con las mejores intenciones, nadie podría replicar el experimento. La investigación en IA ya no se comparte, se licencia. El conocimiento se ha convertido en propiedad intelectual, sujeto a acuerdos de confidencialidad y secretos comerciales. La transparencia, que antes era un principio ético, es ahora un riesgo competitivo. En lugar de reproducir resultados, los investigadores se conforman con reproducir titulares: "OpenAI anuncia", "Google publica", "Anthropic mejora".

En el futuro, si alguna universidad llega a tener un millón de GPUs y puede comprobar ciertas afirmaciones, quizás a más de uno le saquen los colores.

Incluso los baremos se han vuelto corporativos. Cada empresa define su propio estándar, establece su propia prueba y se califica a sí misma, lo que genera dudas sobre su validez y conduce a un sobreajuste donde los modelos se optimizan para la prueba en lugar de para una capacidad general. Es como si cada estudiante trajera su propio examen y lo calificara con una estrella de oro. 


Suscríbase a la ciencia


La ciencia solía ser pública: llena de errores, revisiones, retractaciones. Ahora es privada, alojada en servidores remotos y protegida por términos de servicio. La pregunta no es solo quién es el dueño de los datos, sino quién es el dueño del derecho a equivocarse.

Quizá el futuro de la ciencia no dependa de la reproducción, sino de la fe. Fe en el comunicado de prensa, en el baremo, en el fundador visionario que jura que esta vez la máquina entiende de verdad. El problema no es que la verdad haya muerto, es que ha sido externalizada. 

El siguiente paso del método científico puede que no sea el experimento en absoluto, sino la clave de una API. Y quizá, dentro de unos años, el acto más radical de rebelión intelectual sea volver a hacer lo imposible: reproducir algo con nuestras propias manos.

Ya veremos.




Comparte:

13/10/25

El piloto que nunca duerme: lecciones del accidente de Tesla y la ilusión del control

En agosto de 2025, un jurado de Miami dictaminó que Tesla debía pagar 243 millones de dólares por un accidente en el que su sistema Autopilot estaba activado. No fue el primer siniestro de un coche “inteligente”, pero sí el primero que acabó con un veredicto: la tecnología no era inocente. Es el primer juicio que Tesla ha perdido.

La noticia viajó rápido: un coche eléctrico, software de conducción autónoma, una colisión mortal y una sentencia. La narrativa perfecta para una película distópica —solo que esto no era Black Mirror, sino el tráfico real de Florida.

El jurado declaró a Tesla responsable en un 33 %. El resto, al conductor, que había bajado la vista para buscar su teléfono mientras el vehículo hacía lo que mejor sabía hacer: creer que podía con todo.



De Prometeo a Autopilot


La historia de la tecnología está plagada de momentos en los que el ser humano, seducido por su propia creación, confía demasiado.

Cuando en 1908 Henry Ford lanzó el Modelo T, no solo fabricó un coche: inventó la ilusión de control. Cualquier persona podía sentarse detrás del volante y mover una máquina de una tonelada a más de 60 km/h. Aquello era casi magia. Pero en la década siguiente, los accidentes mortales en EEUU se dispararon. La velocidad había llegado antes que la prudencia.

Más de un siglo después, Tesla repite el guion con líneas de código en lugar de pistones. La promesa es la misma: relájate, la máquina sabe lo que hace.

El problema es que no siempre lo sabe. Y nosotros, embelesados con las palabras “inteligencia artificial”, olvidamos que sigue siendo solo eso: una inteligencia artificial, diseñada por humanos y, por tanto, sujeta a nuestras mismas limitaciones —solo que a veces más rápidas y menos visibles.

AnalyticsInsight

El mito del piloto automático


El nombre “Autopilot” nunca fue inocente. Suena a los sistemas de navegación aérea que mantienen un avión nivelado mientras el piloto consulta el radar. Pero el Autopilot de un Tesla no es eso. Es un copiloto que intenta hacerlo todo, pero necesita que alguien supervise su entusiasmo digital.

El accidente de 2019 (juzgado en 2025) ocurrió cuando el sistema cruzó una intersección sin reconocer una señal de alto. Los sensores, los algoritmos y las promesas de marketing no bastaron para evitar lo inevitable.

Y sin embargo, el debate que abrió el veredicto no fue sobre coches, sino sobre culpa y autonomía.

¿Quién es responsable cuando una máquina toma una mala decisión?
¿El conductor, el programador, la empresa, el algoritmo?


El derecho moderno aún no tiene respuesta definitiva. Y mientras tanto, seguimos entregando más y más decisiones al software —desde el tráfico hasta los diagnósticos médicos o las sentencias judiciales predictivas—, convencidos de que la automatización es sinónimo de objetividad.


El sueño de Turing


En 1950, Alan Turing escribió que algún día las máquinas pensarían. Lo dijo como un reto intelectual, no como un manual de usuario. Hoy, la discusión ha cambiado: las máquinas no solo piensan, actúan. Pero lo hacen en un entorno humano, lleno de variables que ni siquiera los humanos comprendemos del todo.

Un coche autónomo no es solo un conjunto de sensores: es una interpretación del mundo. Decide qué objeto es un peatón, qué movimiento es una amenaza, cuándo un brillo es un charco o una sombra. Cada error de interpretación puede costar una vida.

La paradoja es que cuanto más confiamos en la IA, más nos alejamos de entenderla. Como escribió Norbert Wiener, el padre de la cibernética, en 1949:

“Podemos delegar tareas, pero no la responsabilidad.”


Lo que el veredicto nos deja


El caso Tesla de 2025 es un punto de inflexión simbólico. Por primera vez, una corte reconoció que la inteligencia artificial no es solo una herramienta neutral, sino un actor con impacto moral y legal. No significa que los robots tengan culpa, pero sí que las empresas que los diseñan deben asumir las consecuencias de su poder.

Tesla apelará, claro. Pero el precedente ya está ahí. Y con él, una lección para toda la industria de la automatización: la promesa de que los algoritmos eliminarían el error humano empieza a mostrar grietas.

En algún momento, los coches conducirán mejor que nosotros. No es una cuestión de fe, sino de tiempo y datos. Pero el camino hacia ese futuro será irregular, lleno de dilemas éticos y legales.
Mientras tanto, los humanos seguiremos haciendo lo que mejor sabemos hacer: confiar un poco más de la cuenta.

Tal vez el verdadero futuro no dependa de crear un piloto que nunca duerma, sino de aceptar que ningún piloto —humano o artificial— está exento de error.

Y que, por ahora, lo más inteligente que podemos hacer es seguir prestando atención al camino.


Ya veremos.



Comparte:

30/9/25

Leibniz y la utopía lógica: cuando la ética se redujo a un cálculo

La ética computacional se siente como un problema puramente del siglo XXI. Se debate en Silicon Valley y en foros de la ONU: ¿Cómo programamos la moralidad en una Inteligencia Artificial? ¿Quién es responsable cuando un algoritmo se equivoca? Sin embargo, la ambición de reducir los dilemas morales a una fórmula matemáticano es nueva. Sus raíces se hunden más de tres siglos, en la mente de un genio que soñó con zanjar todas las disputas con un simple cálculo: Gottfried Wilhelm Leibniz (1646-1716).

La conexión entre el filósofo alemán y la ética de la IA, el software y el manejo de datos, es más profunda de lo que parece. Leibniz no solo fue codescubridor del cálculo infinitesimal y el creador del sistema binario (la base de toda la informática moderna), sino que también propuso una solución radical para la moralidad: un "Cálculo Moral" o Calculus Moralis.



La máquina que zanjó disputas: El origen de una utopía lógica


Leibniz estaba obsesionado con el orden. Creía que la mayoría de los conflictos humanos—ya fueran filosóficos, legales o morales—se originaban en la ambigüedad del lenguaje. Si las palabras podían ser confusas, ¿por qué no reemplazarlas con símbolos?

Así concibió dos proyectos monumentales: la Characteristica Universalis (un lenguaje universal de símbolos lógicos) y el Calculus Ratiocinator (un método para calcular con esos símbolos). El sueño de Leibniz era que, una vez traducido un problema a su lenguaje universal, dos personas en desacuerdo simplemente se sentarían y dirían: "¡Calculemos!" ("Calculemus!").

El Cálculo Moral era la extensión natural de esta utopía lógica a la ética. Leibniz sugería que los juicios morales podían ser racionalizados estimando dos factores: la probabilidad de un resultado y la deseabilidad (o Perfección) de ese resultado. La acción correcta sería la que maximizara la deseabilidad ponderada por la probabilidad. Por ejemplo, cuando un sistema de IA toma una decisión de vida o muerte en un vehículo autónomo, está realizando un "cálculo moral" leibniziano: sopesar probabilidades y daños.



La intervención de Bentham: del cálculo moral a la máquina hedónica


Décadas después de Leibniz, el filósofo inglés Jeremy Bentham dio al "cálculo moral" su forma más influyente: el Utilitarismo.

Bentham reemplazó la vaga "deseabilidad/perfección" de Leibniz con un valor concreto y medible: la felicidad o el placer. Sostuvo que la acción moralmente correcta es la que produce la mayor felicidad para el mayor número de personas.

Bentham incluso propuso un procedimiento detallado llamado Cálculo Felicífico (o Cálculo Hedónico) para sopesar formalmente el valor moral de una acción basándose en cualidades medibles del placer y el dolor, tales como:

- Intensidad (¿cuán fuerte es el placer/dolor?)
- Duración (¿cuánto tiempo dura?)
- Certeza (¿qué tan seguro es que sucederá?)
- Fecundidad (¿qué tan probable es que produzca más placer o dolor después?)

El cálculo de Bentham se convirtió en el modelo filosófico para la ética algorítmica moderna. Cuando los ingenieros de IA programan un coche autónomo para minimizar daños, están aplicando esencialmente una versión digital del cálculo de Bentham: el algoritmo intenta encontrar la ruta que minimice las consecuencias negativas (dolor) para la mayoría.



Lecciones de la Moralidad Algorítmica: ¿Es la Ética Computable?


Las visiones de Leibniz y Bentham nos obligan a enfrentar la pregunta central de la ética computacional: ¿Es realmente posible programar el comportamiento ético en una máquina?*

Hoy, la Inteligencia Artificial intenta este "cálculo moral" ya sea mediante programación explícita clásica (estableciendo reglas) o con técnicas de *machine learning que infieren patrones éticos a partir de grandes conjuntos de datos. El objetivo es basar la ética en cantidades medibles evaluadas por algoritmos de decisión.

Sin embargo, el intento contemporáneo de crear una moralidad algorítmica ha revelado limitaciones profundas que desafían la utopía de una cálculo moral completo:

1.  La ética no es un juego de imitación. Si bien las máquinas pueden copiar patrones de comportamiento de los datos, la moralidad va más allá de la simple imitación; implica juicio y contexto.
2.  Las consecuencias importan, pero el utilitarismo no basta. Aunque debemos considerar las consecuencias de nuestras acciones, el intento de cuantificar la moralidad, como propone el utilitarismo estricto de Bentham, es problemático. Es imposible "calcular la felicidad" o el valor moral de una vida con una fórmula universal.
3.  No existe un algoritmo moral universal. Al igual que la lógica ha demostrado que no existe un algoritmo universal para distinguir lo verdadero de lo falso, tampoco parece haber un algoritmo infalible para distinguir lo correcto de lo incorrecto.

Si la mejor opción fuera computable con absoluta certeza, ¿cómo podría no ser obligatoria? Y si la máquina solo ejecutara ciegamente las acciones dictadas por un algoritmo de decisión, ¿qué le quedaría a la voluntad humana? La ética perdería su esencia deliberativa y se convertiría en una simple tarea de ejecución.

El Calculus Moralis de Leibniz y el Cálculo Felicífico de Bentham nos llevan a una paradoja moderna: El comportamiento ético no parece ser puramente computable. El código binario que Leibniz descubrió nos dio el poder de las máquinas, pero la complejidad de la moralidad humana, ese espacio para la voluntad y el juicio, se resiste a ser traducida por completo a ceros y unos.

En la era de la IA, quizás debamos aceptar que el objetivo no es programar la moralidad, sino diseñar máquinas que nos fuercen a ser más conscientes de los límites de nuestra propia ética.

Ya veremos.





Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons