/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

19/3/25

El auge y caida de los robots para restaurantes

A mediados de la década de 2010, Silicon Valley estaba en plena efervescencia con una nueva frontera: la robótica para restaurantes. El capital riesgo se volcó en startups que prometían revolucionar la forma de fabricar, distribuir y consumir alimentos mediante la automatización. La premisa era convincente: solucionar la escasez de mano de obra, mejorar la uniformidad, reducir costes y ofrecer mejores alimentos más rápidamente. ¿Qué podía salir mal?

Casi una década después, el panorama está plagado de empresas desaparecidas, ambiciones reducidas y giros que se alejan de las visiones originales centradas en los robots. Tras pasar años observando este sector, quiero examinar qué ha pasado con la gran revolución robótica en el sector de la alimentación y qué podemos aprender de sus dificultades.


La gran fiebre del oro de los robots

Podría decirse que la revolución de los robots en el sector de la restauración comenzó en torno a 2015 en San Francisco. En pocos años, vimos aparecer la automatización en todas las etapas de la producción de alimentos:

    - Zume Pizza utilizó robots para preparar y cocinar pizzas.
    - Cafe X y Truebird desplegaron quioscos de café robotizados                    
    - Creator y Miso Robotics volteaban hamburguesas.
    - Spyce sirvió cuencos de cereales autónomos
    - Blendid preparaba batidos
    - Hyphen automatizó líneas de montaje de alimentos
    - Nuro y Coco se encargaban del reparto robotizado

Entonces llegó COVID, que debería haber sido el momento de la robótica alimentaria. En un momento en que los restaurantes se enfrentaban a retos laborales sin precedentes y los clientes exigían un servicio sin contacto, la propuesta de valor de la automatización parecía más fuerte que nunca.


La caída: Por qué los robots no lograron tomar el relevo

A pesar de la tormenta perfecta de oportunidades, la revolución se estancó. Las empresas que en su día recibieron una cobertura mediática impresionante desaparecieron en silencio:

Zume Pizza, una vez valorada en más de 2.000 millones de dólares, cerró sus operaciones de pizza en enero de 2020 y se retiró por completo en 2023. Cafe X, Truebird y BBox cerraron o redujeron sus operaciones. Creator cerró sus puertas. Spyce fue adquirida, pero su tecnología se abandonó en gran medida.

¿Qué ha fallado? Los problemas parecen clasificarse en varias categorías.




Por qué los robots alimentarios no escalan

El sector de la robótica hostelera se enfrentó a tres retos fundamentales que impidieron su adopción generalizada. En primer lugar, el desarrollo de hardware resultó excepcionalmente difícil en los restaurantes. Los espacios reducidos de las cocinas, la variabilidad natural de los alimentos y los problemas de mantenimiento crearon obstáculos importantes. Los aspectos económicos rara vez funcionaban: a menos que un robot eliminara por completo un puesto a tiempo completo, la rentabilidad de la inversión seguía siendo poco convincente para los operadores que se enfrentaban a elevados costes iniciales.

En segundo lugar, a la mayoría de las empresas les faltaba poner el foco en algo concreto. «A todo el mundo se le decía que hiciera de todo», y se lanzaban proyectos al azar antes de que nadie determinara su viabilidad. Este patrón de empresas que se presentaban como plataformas en lugar de perfeccionar aplicaciones específicas dispersaba peligrosamente los recursos.

En tercer lugar, muchas startups crearon primero una tecnología impresionante y luego buscaron problemas que resolver. Este enfoque retrógrado dio lugar a innovaciones que los restaurantes sencillamente no necesitaban.


Zume: Cómo se esfumaron 445 millones de dólares

La historia de Zume es la más aleccionadora de la robótica alimentaria. Inicialmente llamó la atención por sus robots pizzeros con nombres italianos como «Pepe» y «Bruno», pero las ambiciones de su fundador, Alex Garden, se expandieron rápidamente más allá de la pizza. Presentó a Zume como «el Amazon de la alimentación», con la visión de controlarlo todo, desde la agricultura hasta el envasado. Masayoshi Son, de SoftBank, quedó tan cautivado que invirtió 375 millones de dólares, valorando Zume en 2.500 millones.

Esta inversión masiva aceleró la caída de Zume en lugar de evitarla. Al parecer, Garden «vio la financiación de SoftBank como un mandato para volverse loco», adquiriendo una empresa de envasado, lanzando proyectos agrícolas a Arabia Saudí, explorando tecnologías de seguimiento de alimentos, invirtiendo en otra cadena de pizzerías e incluso comprando un autobús de dos pisos personalizado con un sistema audiovisual de 100.000 dólares, todo ello mientras el negocio principal de pizzas perdía aproximadamente 150 dólares por pizza entregada.

Cuando la fallida salida a bolsa de WeWork obligó a SoftBank a exigir autosuficiencia a las empresas de su cartera, Zume se derrumbó rápidamente, despidiendo a 560 empleados a lo largo de dos rondas en 2020 antes de su liquidación final en 2023.


Situación actual de la automatización en restaurantes

A pesar de estos contratiempos, la automatización hostelera no ha desaparecido por completo. El mercado se ha racionalizado y las empresas se centran en aplicaciones más modestas y prácticas:

    - La automatización de la trastienda: Empresas como Hyphen y Vebu han recibido inversiones del fondo Cultivate Next de Chipotle, centrándose en tareas específicas de cocina en lugar de la automatización completa.

    - Automatización digital: Las cadenas de restaurantes han adoptado ampliamente los quioscos de pedidos y la IA para la toma de pedidos en el drive-thru de empresas como SoundHound y Google. Estas tecnologías reasignan la mano de obra sin necesidad de costosos robots.

    - Aplicaciones especializadas: Algunos casos de uso específicos, como el robot de servicio XI de SoftBank y el robot de limpieza Scrubber 50 Pro, están encontrando una adopción limitada cuando la tarea es sencilla y repetitiva.

Las empresas que han sobrevivido comparten rasgos comunes: resuelven problemas específicos, tienen una economía unitaria realista y mejoran las métricas básicas de los restaurantes en lugar de limitarse a exhibir una tecnología atractiva.


Lecciones aprendidas

El auge y el declive de la robótica en restaurantes ofrecen valiosas lecciones tanto para los emprendedores como para los inversores:

    1- Empezar por el problema, no por la tecnología: Las innovaciones de éxito abordan problemas reales en lugar de desplegar la tecnología porque sí.

    2- La concentración vence a la grandiosidad: Las empresas que perfeccionan una única aplicación antes de ampliar su visión tienen mayores tasas de supervivencia.

   3- Evite las ideas locas: Ni la historia más convincente puede superar modelos de negocio insostenibles.

    4- El hardware es diferente del software: El enfoque de «moverse rápido y romper cosas» no funciona bien cuando hay equipos físicos y seguridad alimentaria de por medio.

    5- A veces es mejor simplificar: Un empleado humano a 17 dólares la hora puede ser más rentable que un sistema robotizado de un millón de dólares.

La revolución de los robots en el sector alimentario no ha muerto, pero ha sido humillada. La próxima oleada vendrá probablemente de las empresas que aprendan estas lecciones, centrándose en mejoras graduales de los problemas reales de los restaurantes en lugar de promesas de reinventar toda la industria.

Hasta entonces, los humanos seguirán haciendo la mayoría de nuestras comidas, aunque a veces les ayuden máquinas cada vez más inteligentes. Es probable que el futuro de la restauración no esté totalmente automatizado, sino más bien potenciado de forma que mejore lo que los humanos ya hacen bien.

Ya veremos.





Comparte:

12/3/25

Tras el hype de las demostraciones de robots humanoides

Hace unos días, Figure, una de las empresas de robótica más avanzadas especializada en el desarrollo de robots humanoides impulsados por IA, lanzó un nuevo vídeo de demostración de sus innovaciones para presentarnos su sistema Helix.


La demostración tiene lugar en una cocina: una persona trae una bolsa de la compra y saca los artículos que contiene en una mesa frente a los robots. A continuación, la persona sale de la habitación y los robots empiezan a inspeccionar los productos y a trabajar juntos para introducirlos en el frigorífico.

No es casualidad que la empresa anunciara que Helix representa un gran avance para los robots que manipulan paquetes en entornos de almacenamiento y logística. Hablaré de logística más adelante, pero antes, sigamos explicando el sistema Helix.

Según Figure -fundada en 2022-, Helix es un sistema de aprendizaje basado en imágenes y texto que permite a los robots aprender a interactuar con su entorno. La empresa ha publicado dos artículos sobre Helix, uno de los cuales es la nota de prensa, y el otro es una explicación técnica más detallada de este desarrollo técnico. En este segundo artículo, también se detalla que Figure ha entrenado a los robots durante 500 horas, y que la comida que la persona saca de la bolsa y muestra a los robots, son «objetos» que los humanoides nunca han visto durante su entrenamiento.

Las 500 horas de entrenamiento, en mi opinión, se quedan cortas. En ese tiempo se puede entrenar al robot para que realice muy pocas tareas, y aprender a andar no es, desde luego, una de ellas. Entonces, ¿qué intenta demostrar Figure con esta demostración?

Supongo que la empresa pretendía que cualquier espectador exclamara asombrado «wow», al ver robots humanoides colaborando. Sin embargo, como profesional de la robótica que soy, me surgen varias preguntas: ¿están obligados los robots a colaborar entre sí, puede un solo robot meter artículos en la nevera sin ayuda del otro, son los dos robots totalmente autónomos, o hay una inteligencia central, algo así como una inteligencia de colmena, que controla a los dos robots juntos, o hay una inteligencia central, algo así como una inteligencia de colmena, que controla a los dos robots juntos? Me encantaría entender ese truco.


Los robots humanoides de las demostraciones no son autónomos

Anteriormente, Figure colaboraba con OpenAI, que dotaba a sus robots de inteligencia artificial. Sin embargo, supongo que la presentación de Helix es una beneficiosa operación de marketing para anunciar que ya han sustituido a la empresa de Sam Altman.

Desde la época de Boston Dynamics, los vídeos de demostración de robots tienen un nivel muy alto. Pero mucho me temo que la mayoría de esas demostraciones son en gran medida marketing. Y hay que tener en cuenta que la mayoría de esas coreografías de humanoides son teleoperadas por humanos, como esos robots de Tesla preparando cócteles.

Quizá una de las mayores ideas falsas sobre los robots de Boston Dynamics es que completan estas acciones sin ayuda externa. En realidad, no es ningún secreto que la ayuda humana sigue siendo muy necesaria. En realidad, la mayor parte del trabajo lo hacen los humanos y por control remoto, pero también hay computación a bordo.

Estos robots no son autónomos en el sentido en que lo somos nosotros. Siguen una serie de rutinas bien definidas, no tienen capacidad para decidir por sí mismos qué hacer.


La logística es el objetivo a largo plazo de los humanoides

Comparado con la movilidad sobrehumana del robot humanoide de Boston Dynamics, el robot que actualmente está trastornando el sector de los almacenes puede parecer positivamente aburrido.

Stretch es uno de los primeros robots comerciales diseñados para realizar una de las tareas más tediosas y agotadoras del almacén: descargar cajas. Aunque menos llamativo que el anticuado Atlas, Stretch no es menos sobrehumano, está construido sobre una base técnica compartida y ofrece una potente funcionalidad y rentabilidad para las operaciones de almacén.

Stretch ayuda a los empleados a evitar lesiones frecuentes en el trabajo de descarga manual. Así pueden dedicarse a otras tareas del almacén, como el control de calidad y la preparación de pedidos, que se benefician del razonamiento y la destreza humanos. Stretch está preparado para asumir el trabajo monótono y agotador de descargar contenedores en varios turnos, siete días a la semana.

Aunque el robot Stretch de hoy no se parece mucho a la versión comercial de Atlas anunciada recientemente, ambos surgieron de la misma investigación inicial sobre manipulación móvil. De hecho, la idea de diseñar un robot de almacén surgió después de que los clientes respondieran a un vídeo de 2016 de un robot Atlas levantando y transportando cajas. Un nuevo mercado acudió a la llamada.

«Estábamos haciendo una investigación interna sobre la manipulación con Atlas, y casualmente utilizamos cajas para esta demostración», confiesa un responsable de la empresa. «Cuando publicamos este vídeo, recibimos muchas llamadas diciendo que Atlas sería perfecto para un almacén y: 'Queremos comprar uno'. Sabíamos que no era realmente el producto adecuado en ese momento, pero nos dimos cuenta de que era un indicio de una necesidad del mercado.»




Así que esto da una idea clara de lo que se necesita todavía en la industria. Y de momento, no estoy seguro de que los robots humanoides estén preparados para largas sesiones de trabajo haciendo precisamente esto:




El robot Atlas de Boston Dynamics, aunque impresiona por sus capacidades, aún se enfrenta a importantes limitaciones para un trabajo sostenido en el mundo real. En 2023, ArsTechnica escribió un interesante artículo en el que informaba de la demostración realizada por Boston Dynamics de las nuevas manos de agarre de Atlas y de tareas relacionadas con la construcción. El robot podía manipular objetos «inercialmente significativos» y realizar movimientos complejos mientras transportaba objetos pesados, pero sigue teniendo problemas de equilibrio, precisión y durabilidad. El artículo muestra numerosos casos en los que Atlas se cae y falla, y sus garras dañan los materiales que manipula. El robot funciona con capacidades de visión limitadas (sólo una cámara en color y LiDAR) y requiere movimientos preprogramados en lugar de una verdadera autonomía. Estas limitaciones indican que, a pesar de sus espectaculares habilidades en demostraciones controladas, Atlas aún no está preparado para el trabajo adaptable y sostenido que se requiere en entornos impredecibles del mundo real, como una obra de construcción real.

Tampoco puedo imaginar cómo Figure podría ser en este momento mejor en el seguimiento de la actividad que una empresa especializada como Vanderlande:








Comparte:

2/3/25

¿Por qué no tenemos aún robots mejores?

En el campo de la robótica, en rápida evolución, ha surgido una tesis provocadora: «Los datos son todo lo que necesitas». Este concepto, que se basa en el famoso artículo Attention is All You Need (La atención es todo lo que necesitas), que revolucionó el procesamiento del lenguaje natural, representa una nueva perspectiva sobre cómo podríamos conseguir por fin robots capaces y de uso general.

Este enfoque es fascinante porque no rechaza la ingeniería robótica tradicional en favor del puro aprendizaje automático. En su lugar, aboga por un enfoque híbrido que combine lo mejor de ambos mundos: métodos de aprendizaje basados en datos junto con lo que podría llamarse «ingeniería a la antigua» (GOFE, Good Old Fashioned Engineering), un bonito homenaje a la GOFAI (Good Old Fashioned Artificial Intelligence) de los primeros tiempos de la investigación en IA.

La idea central es que los robots, a diferencia de los sistemas de IA puramente digitales, deben interactuar con el impredecible mundo físico. Esta realidad significa que incluso las redes neuronales más sofisticadas deben basarse en sólidos principios de ingeniería que respeten las limitaciones físicas y los requisitos de seguridad.

Fuente

Grandes modelos de acción robótica (LRAM)

En el centro de esta visión se encuentran los modelos de acción de grandes robots (LRAM, Large Robotic Action Models), paralelos a los grandes modelos lingüísticos que han transformado la IA. Estos LRAM aprenden de vastos conjuntos de datos de acciones, comportamientos y resultados de robots en diversos entornos y tareas.

Lo que hace poderoso a este enfoque es su capacidad de generalización. En lugar de programar robots para tareas específicas, las LRAM pueden aprender patrones subyacentes de estrategias de manipulación exitosas que se transfieren a distintos escenarios. Un robot que aprende a coger un lápiz puede aplicar principios similares para coger un destornillador sin necesidad de reprogramación explícita.

En la charla TED «¿Por qué aún no tenemos mejores robots?», el investigador Ken Goldberg aborda una pregunta que muchos nos hemos hecho. La respuesta es sorprendentemente directa: la robótica se enfrenta a retos de datos únicos que han ralentizado el progreso en comparación con otros dominios de la IA. A diferencia del reconocimiento de imágenes o el procesamiento del lenguaje natural, donde los datos son abundantes y fáciles de recopilar a escala, las interacciones de los robots con el mundo físico son:

  • costosas de generar (requieren hardware físico)

  • consumen mucho tiempo (las acciones físicas requieren tiempo real)

  • difíciles de paralelizar (a diferencia de las tareas puramente computacionales).


Sin embargo, algunos indicios apuntan a un nuevo momento ChatGPT en robótica.


Las dos revoluciones de los datos: Simulación y recogida en el mundo real

Dos desarrollos paralelos pueden estar convergiendo para hacer realidad la visión de «Los datos son todo lo que necesitas»: los entornos de simulación de alta fidelidad y la recopilación generalizada de datos de RA/VR.

La revolución de la simulación de NVIDIA

NVIDIA se ha situado a la vanguardia de la simulación robótica con plataformas como Isaac Sim y Omniverse. Estos entornos permiten a los robots entrenarse en mundos virtuales fotorrealistas que modelan con precisión la física, los materiales y las interacciones entre objetos. Lo que antes llevaba meses de entrenamiento de robots físicos ahora puede hacerse en entornos virtuales acelerados, generando millones de muestras de interacción de la noche a la mañana.

Este planteamiento resuelve varios problemas detectados en el campo de la robótica:

  • Escala: Las simulaciones pueden ejecutar miles de escenarios paralelos

  • Diversidad: Los entornos virtuales pueden variar infinitamente.

  • Seguridad: Los robots pueden fallar catastróficamente en la simulación sin consecuencias en el mundo real.

  • Rentabilidad: Sin depreciación ni daños en el hardware físico


Las simulaciones de NVIDIA encajan perfectamente con la visión de LRAM, ya que generan los enormes conjuntos de datos de interacción necesarios para la generalización entre tareas. Sin embargo, la simulación por sí sola se enfrenta a un reto crítico: la brecha de la realidad. Los entornos virtuales, por sofisticados que sean, siguen siendo diferentes del impredecible mundo real.

Fuente



La estrategia de datos del mundo real de META

Aquí es donde META y las gafas de realidad mixta de otros gigantes tecnológicos entran en escena, cerrando potencialmente la brecha entre simulación y realidad. Dispositivos como las Quest de Meta, las gafas inteligentes de Ray-Ban y otros productos similares de Apple, Google y otros representan mecanismos de recopilación de datos del mundo real sin precedentes.

Estas gafas, que llevan millones de usuarios en entornos cotidianos, capturan datos visuales de cómo los seres humanos interactúan de forma natural con su entorno. Cada vez que alguien coge un objeto de forma extraña, sortea obstáculos inesperados o se adapta a condiciones de luz cambiantes, genera precisamente el tipo de datos de casos extremos que las simulaciones se esfuerzan por producir. Esta recogida pasiva de datos de las interacciones entre las personas y el entorno podría ser el eslabón que falta entre el entrenamiento simulado y el rendimiento robótico en el mundo real.

Fuente


Aunque los problemas de privacidad son importantes y deben abordarse, el potencial técnico es enorme. Combinando las capacidades de simulación de NVIDIA con los datos de observación del mundo real de META, los investigadores en robótica podrían entrenar modelos que salvaran la brecha de la realidad, aprendiendo tanto los fundamentos basados en la física como las adaptaciones matizadas necesarias para el éxito en el mundo real.

El resultado podría ser exactamente lo que la tesis «Data is All You Need» imagina: Grandes modelos de acción robótica entrenados a partir de datos diversos y multimodales que se generalicen en distintos entornos y tareas.

La convergencia: Simulación, realidad e ingeniería


Imaginemos este círculo virtuoso:

  • Los robots se entrenan inicialmente en entornos simulados de NVIDIA.

  • Las gafas de realidad aumentada de META captan cómo los humanos interactúan con los robots y los corrigen.

  • Estos datos de retroalimentación mejoran tanto los entornos de simulación como los modelos de robot
  • Los principios de ingeniería garantizan la seguridad y la fiabilidad en todo momento


Esta visión emergente sugiere que nos estamos acercando a un punto de inflexión en la robótica. A medida que estos métodos complementarios de recopilación de datos maduren y los LRAM se vuelvan más sofisticados, es posible que asistamos a un salto discontinuo en las capacidades de los robots similar al que hemos visto con los grandes modelos lingüísticos.

Para quienes esperan con impaciencia los robots ayudantes prometidos por décadas de ciencia ficción, esta convergencia ofrece un optimismo realista. De hecho, se avecinan mejores robots, impulsados por las capacidades de recopilación de datos sin precedentes de las plataformas de simulación y los dispositivos de realidad aumentada y realidad virtual de uso cotidiano, combinadas con sólidos fundamentos de ingeniería.

Puede que los datos no sean literalmente «todo lo que se necesita», pero podrían ser el ingrediente crítico que finalmente convierta a los robots de uso general en una realidad práctica.
Y la próxima vez que alguien pregunte por qué su casa aún no se parece a «Los Jetsons», puedes explicarle cómo las gafas META de su amigo podrían estar ayudando silenciosamente a resolver ese mismo problema.



Comparte:

11/2/25

¿Debería el Gobierno alemán salvar a Lilium eVTOL de la quiebra?

Mientras que los LLMs, OpenAI, DeepSeek y todas estas empresas atraen la mayoría de los titulares hoy en día, me gustaría escribir este post y recordar una vez más, que los LLMs podrían no ser la única idea tecnológica a la que deberíamos prestar atención. Como muchos adivinaréis, apuesto fuerte por la revolución robótica que se avecina, y como una pequeña pieza de todos esos cambios, recordemos la situación del mercado de eVTOL (aerotaxis). En particular, la situación de Lilium.

En octubre de 2024 advertí en este blog que en el mercado eVTOL habría sangre.

Como puede leerse en el post anterior, Lilium se enfrentaba a la quiebra si no recibía un préstamo del Gobierno alemán. Dos semanas después, la empresa planeaba declararse insolvente y solicitar una reestructuración supervisada por el Gobierno, según una declaración presentada ante la Comisión del Mercado de Valores de Estados Unidos. Esto significa que Lilium se enfrentaba a un riesgo significativo de quiebra o cierre si no conseguía fondos adicionales.

La empresa había solicitado un préstamo de 50 millones de euros (54 millones de dólares) al Gobierno alemán, pero los legisladores denegaron la petición este mes, según la presentación. El mercado de eVTOL es un sector que requiere mucho capital. Las reglas de la competición eVTOL son sencillas: invertir todo el dinero que se pueda en conseguir la certificación necesaria para volar y la producción en serie -que ahora cuesta unos 1.500 millones de dólares-, y conseguir dinero de los inversores para seguir quemando efectivo. El primero que lo consiga, gana la partida.

El flujo de caja operativo fue de 159 millones de euros en el primer semestre de 2024. 100 millones de euros ni siquiera bastaron para cubrir un semestre. Es un gasto impresionante para una empresa que no genera beneficios. Lilium ha gastado casi 1.500 millones de euros desde el principio hasta la construcción de los primeros prototipos para la campaña de pruebas de vuelo.

Esto podría hacernos pensar que OpenAI no es rentable en absoluto. De hecho, podría ser un modelo de negocio horrible. Pero Microsoft y el Gobierno de EE.UU. tienen fe en mantener las pérdidas financieras de esta empresa hasta que alcance la AGI, que según el acuerdo entre Microsoft y OpenAI se logrará cuando la startup pueda generar al menos 100.000 millones de dólares de beneficios en un año.



Sin embargo, Lilium ha adoptado una estrategia peligrosa, culpando de su difícil situación financiera a la falta de apoyo de los gobiernos europeos. Argumentan que, a diferencia de sus homólogos estadounidenses o chinos, Europa no ofrece un apoyo adecuado a las nuevas empresas de alta tecnología. En consecuencia, la dirección afirma que las opciones de la empresa se reducen a la insolvencia o al traslado al extranjero.

Puede que sea cierto, pero no debemos descartar las voces críticas que también se han alzado sobre esta empresa alemana. Una de las voces técnicamente más firmes que he encontrado procede de Iceberg Research, una sociedad de inversión que identifica importantes tergiversaciones de beneficios e irregularidades contables en los estados financieros emitidos por empresas públicas. Similar a Gotham City, o a muchas otras. Cito aquí las palabras exactas del informe de Iceberg Research (en traducción libre personal):

Después de nueve años y un gasto de 1.500 millones de dólares, el avión de Lilium es incapaz de volar más de unos minutos.


Si se leen las relaciones públicas de Lilium, es fácil tener la impresión de que la empresa está muy cerca de comercializar su eVTOL. El bombardeo de relaciones públicas es una serie de grandes hitos, desde nuevos «clientes» y asociaciones, hasta una nueva línea de montaje, una «revolucionaria tecnología de baterías», etc. Todo parece listo.

Pero la pregunta es sencilla: «¿Durante cuánto tiempo puede volar ese eVTOL?». La respuesta es apenas cinco minutos y medio -sin pasajeros ni carga-, según los últimos datos disponibles. Después de nueve años y un gasto de 1.500 millones de dólares, Lilium ha construido lo que es esencialmente un gran dron de corto alcance. Esto es aún más problemático para una empresa que se ha posicionado como proveedor de transporte regional, más que como empresa de movilidad aérea urbana.

En cambio, su competidor Joby Aviation ha demostrado su capacidad para volar 154,6 millas en 1 hora y 17 minutos. En los últimos cuatro años, Joby ha realizado más de 1.500 vuelos de prueba, entre ellos unos 100 con piloto a bordo. Toyota se alegró de invertir otros 500 millones de dólares en Joby a principios de mes. Los inversores de Lilium, como Tencent o el vehículo de inversión del fundador de Skype, parecen cansados de verter dinero en este pozo sin fondo.


En el origen de estos problemas se encuentran las malas decisiones tomadas desde el principio, cuando unos pocos jóvenes licenciados eligieron ventiladores en conducto para la propulsión, mientras que la mayoría de sus colegas optaron por hélices. Numerosos expertos en aeronáutica criticaron desde el principio el diseño de los ventiladores en conducto, demasiado ambicioso para las baterías disponibles en la actualidad y en un futuro próximo. No se les dio importancia, pero el tiempo les ha dado la razón. Le sugiero que no pierda de vista este informe técnicamente asequible.



La historia de Lilium no es simplemente la de unos directivos demasiado optimistas que eligieron la tecnología equivocada. Ante el escepticismo sobre la autonomía de sus baterías, Lilium optó por engañar a sus inversores sobre las capacidades de sus baterías y parece bastante improbable que esas baterías cumplan las condiciones que la empresa promete.

Por otra parte, esta empresa eVTOL, con sus operaciones en Alemania y su registro holandés, se presenta como un candidato natural para recibir ayudas del gobierno europeo. Sin embargo, su accionariado está cada vez más dominado por la china Tencent Holdings.

Actualmente, Tencent posee el 22,0% de Lilium, y esa participación podría aumentar hasta el 38,1%, a través de 160,2 millones de warrants en circulación, que Tencent recibió a cambio de aportar 100 millones de dólares de financiación en mayo de 2023.




Sin embargo, ¡la historia continúa! El 24 de diciembre de 2024, Lilium anunció la firma de un acuerdo de compra de activos con Mobile Uplift Corporation GmbH, una empresa creada por un experimentado consorcio de inversores de Europa y Norteamérica. La empresa eVTOL esperaba obtener financiación suficiente para reiniciar sus operaciones comerciales. De hecho, se anunció que los nuevos accionistas tenían previsto invertir más de 200 millones de euros en la empresa insolvente.

Lamentablemente, en el momento de escribir estas líneas, todavía no se han pagado los salarios de enero de 2025 y el futuro de la empresa sigue siendo muy dudoso.

Ya veremos.





Comparte:

26/1/25

El nuevo Proyecto Manhattan y la carrera por la inteligencia artificial general

En junio de 2024, un documento sacudió a la comunidad tecnológica. «Situational Awareness: The Decade Ahead», escrito por el antiguo investigador de OpenAI Leopold Aschenbrenner, presentaba una visión detallada y sorprendentemente precisa del futuro de la inteligencia artificial. Sin embargo, la historia que hay detrás del autor me llama tanto la atención como el documento.

Leopold Aschenbrenner dejó la empresa apenas un mes antes que el responsable de su equipo, Ilya Sutskever, a quien dedicó su artículo. Leopold, que ahora tiene 23 años, es un becario de Emergent Ventures de Tyler Cowen. Fue a la Universidad de Columbia con 15 años y se graduó en 2021 como valedictorian.

Aschenbrenner, que trabajó en el equipo encargado de desarrollar una IA segura de OpenAI durante los años críticos del desarrollo de GPT-4, fue despedido en circunstancias controvertidas a principios de 2024. Se dijo que había filtrado información confidencial de OpenAI, aunque el grado de secreto de esta información es inexistente, según él. Su marcha coincidió con un periodo de intenso debate interno sobre la seguridad y el ritmo de desarrollo de la IA. A pesar de su salida, o quizá debido a ella, publicó un tratado de 165 páginas sobre el futuro de la IA, «Situational Awareness», un análisis exhaustivo que ha demostrado ser notablemente preciso en sus predicciones sobre el desarrollo de la IA.

Lo que hace especialmente fascinante este documento es su asombrosa capacidad para predecir varios avances clave en IA que hemos visto materializarse en los últimos meses. Desde el crecimiento explosivo de la capacidad computacional hasta los problemas de seguridad nacional, las predicciones de Aschenbrenner han demostrado ser algo más que meras especulaciones...




Coincidencias

Leopold opina que Estados Unidos debería ponerse en pie de guerra para desarrollar una IA avanzada y utilizarla para dominar el mundo, para que China no llegue antes. En opinión de Leopold, la próxima media década aproximadamente será el periodo más decisivo de la historia de la humanidad y las siguientes citas están extraídas de su documento (las negritas son mías):

La carrera hacia la AGI ha comenzado. Estamos construyendo máquinas que pueden pensar y razonar. Para 2025/26, estas máquinas superarán a muchos graduados universitarios. Al final de la década, serán más inteligentes que usted o yo; tendremos superinteligencia, en el verdadero sentido de la palabra. En el camino, se desatarán fuerzas de seguridad nacional no vistas en medio siglo, y en poco tiempo, El Proyecto estará en marcha.


Y considera que es su deber dar la voz de alarma:

Dentro de poco, el mundo despertará. Pero ahora mismo, hay unos pocos cientos de personas, la mayoría en San Francisco y en los laboratorios de IA, que tienen conciencia de la situación. Por alguna peculiar fuerza del destino, me he encontrado entre ellos. Hace unos años, estas personas eran tachadas de locas, pero confiaban en las líneas de tendencia, lo que les permitió predecir correctamente los avances de la IA en los últimos años. Queda por ver si estas personas también aciertan en los próximos años. Pero son personas muy inteligentes, las más inteligentes que he conocido, y son las que están construyendo esta tecnología. Quizá sean una extraña nota a pie de página en la historia, o quizá pasen a la historia como Szilard, Oppenheimer y Teller. Si están viendo el futuro aunque sea de forma correcta, nos espera un viaje salvaje.



He leído rápidamente el artículo. Este es mi crudo resumen de su tesis:

- Quien controle la AGI tendrá un poder abrumador, económico, militar y de otro tipo. Por lo tanto, quien llegue primero estará en posición de gobernar el mundo, potencialmente a perpetuidad.

- Sería malo que se tratara del pueblo equivocado, por ejemplo, China. La única forma de evitarlo es que Estados Unidos y sus aliados lleguen primero.

- Es probable que todo esto ocurra en 2030.

- Alcanzar la AGI, especialmente a ese ritmo, requerirá inversiones multimillonarias en chips, generación de electricidad y otras necesidades. Por lo tanto, nosotros (de nuevo, Estados Unidos y sus aliados) deben ponerse en pie de guerra: reunir recursos, suspender las protecciones medioambientales e imponer estrictos requisitos de seguridad.

Tal vez te hayas asombrado como yo al darte cuenta de que suspender las protecciones medioambientales y la fuerte inversión en chips es exactamente lo que Donald Trump ha firmado esta semana en sus primeras órdenes ejecutivas.



Paralelismo con el Proyecto Manhattan

Quizá lo más importante es que Aschenbrenner previó la transformación del desarrollo de la IA en una prioridad de seguridad nacional. La creciente implicación de las agencias gubernamentales y la creciente preocupación por las vulnerabilidades de seguridad de los laboratorios de IA han validado sus advertencias. La entrada de la NSA en el consejo de OpenAI, o los primeros acuerdos entre el Departamento de Defensa de EEUU y las Big Techs de GenAI lo demuestran (noticia de dic 2024).

Una de las contribuciones más significativas de Aschenbrenner fue poner de manifiesto las graves vulnerabilidades de seguridad de los principales laboratorios de IA. Sus advertencias sobre posibles robos de datos y espionaje precedieron a varios incidentes de gran repercusión, como la reciente detención de un ciudadano chino por el presunto robo de código de IA de una importante empresa tecnológica.

China ya se dedica al espionaje industrial generalizado; el director del FBI declaró que la RPC tiene una operación de piratería mayor que «todas las grandes naciones juntas». Y hace solo un par de meses, el Fiscal General anunció la detención de un ciudadano chino que había robado código clave de IA de Google para llevárselo a la RPC (en 2022/23, y probablemente solo sea la punta del iceberg).



La predicción más controvertida de Aschenbrenner -que el desarrollo de la IA acabaría requiriendo un proyecto dirigido por el gobierno similar al Proyecto Manhattan- suscitó inicialmente escepticismo. Sin embargo, el anuncio esta semana del Proyecto Stargate ha sido calificado por muchos expertos como la Carrera Espacial del siglo XXI, o el Nuevo Proyecto Manhattan. En esencia, el Proyecto Stargate AI es una asociación entre OpenAI, Oracle y SoftBank que pretende construir una red de centros de datos de última generación para dar forma al futuro del desarrollo de la IA. La iniciativa comienza con una inversión de 100.000 millones de dólares en su primera fase, que se ampliará a 500.000 millones en cuatro años. ¿El objetivo? Impulsar las innovaciones de vanguardia en IA al tiempo que se crean más de 100.000 nuevos puestos de trabajo, estableciendo a EE.UU. como líder mundial en infraestructura y desarrollo de IA.

Aunque algunos tachan a Aschenbrenner de alarmista, su historial de predicciones acertadas exige atención. A medida que asistimos a la aceleración del desarrollo de la IA, sus advertencias sobre la necesidad de una mayor seguridad, un desarrollo responsable y la cooperación internacional se hacen cada vez más difíciles de ignorar.

La cuestión no es si las predicciones de Aschenbrenner se harán realidad -muchas ya lo han hecho. La cuestión es si tendremos en cuenta sus advertencias sobre los retos que nos esperan y tomaremos las medidas necesarias para garantizar un desarrollo seguro y responsable de la IA.

Ya veremos.





Comparte:

9/1/25

OpenAI supera el Muro con o3. ¿Estamos más cerca de la IA general?

Hace unos días, en los últimos coletazos de 2024, OpenAI dio un auténtico bombazo en el mundo tecnológico con el lanzamiento de su sistema de inteligencia artificial o3. Desde entonces, ha dado lugar a muchísimo debate y especulaciones sobre cómo de cerca estamos respecto de la inteligencia artificial general, y si finalmente, hemos tirado abajo el Muro del que se venía hablando en los últimos meses. Lo que ha presentó se está considerando como un antes y un después en el desarrollo de estos sistemas de grandes modelos de lenguaje. Para explicar en qué ha consistido este hito, hoy os traigo este artículo del blog. Empecemos por el inicio:

A lo largo del último par de años, no hemos parado de sorprendernos con distintos lanzamientos de los sistemas LLM (Large Language Model, Grandes Modelos de Lenguaje). Para no enrollar demasiado el post, me voy a centrar exclusivamente en OpenAI, dejando a un lado a su competencia:

La empresa liderada por Sam Altman parecía que había entrado en una espiral de éxito sin parangón y que iba a la cabeza de la carrera tecnológica por el dominio de esta tecnología de inteligencia artificial. En 2021 empezó a rompernos la cabeza y prendió la mecha con su modelo GPT3, posteriormente en 2022 desarrolló ChatGPT, y en marzo de 2023 finalmente lanzó GPT4. Parecía imparable. Cada vez "alucinaba" menos en sus respuestas, y era capaz de entender textos más complejos y tener una comprensión mayor del lenguaje natural, y además, los GPT se volvieron multimodales y comenzaron a aceptar texto, imágenes y audio.


Sin embargo, a partir del lanzamiento de GPT4, OpenAI fue perdiendo comba, y sus rivales le fueron alcanzando en la carrera tecnológica. Según parecía, GPT5 tardaría en salir, y los progresos no estaban siendo todo lo rápidos que a Sam Altman le gustaría. Por si eso no fuera poco, el jefazo de la empresa sufrió un golpe de estado a final de 2023 por parte de su directiva, con su posterior vuelta a la empresa unas semanas más tarde y la purga de casi todos sus compañeros de mesa. Pero volvamos al meollo técnico: OpenAI nunca se ha caracterizado por dar muchas explicaciones de cómo construía sus LLM, por eso, solo podíamos elucubrar sobre cómo funcionaba su inteligencia artificial, y por qué estaba fallando para llegar al próximo GPT5 y acercarnos un poco más a la inteligencia artificial general, que es oficialmente la esencia de la existencia de OpenAI.

Aparentemente, avanzar en el desarrollo de esta inteligencia artificial era cuestión de incorporar más datos y de escalar el sistema. Es decir, lo que parecía que buscaban las empresas eran textos con los que entrenar a sus grandes sistemas, y que el avance en este sistema de inteligencia artificial era cuestión de tamaño. Pero había varios problemas. Por un lado, por aquella época se especuló si los datos reales, los generados por usuarios, se habían agotado. Quizás era la hora de echar mano de lo que llamamos datos sintéticos.

Por otro lado, entrenar con sus servidores y tarjetas GPU requería tal cantidad de recursos, que OpenAI tuvo que hacer una maniobra empresarial para poder levantar más capital de Microsoft y afrontar todos los gastos. Además, entrenar con tantos miles de millones de datos requería una cantidad de energía sin parangón.

Pero es que además, entrenar con más cantidad de datos no estaba dando resultado.

El genio técnico detrás de todos los GPT, Ilya Sutskever, era uno de los que defendía que hacía falta esa cantidad de nueva información. Sin embargo, cuando fue purgado de la junta directiva de OpenAI y se lanzó a crear su nueva startup, comenzó a defender justo lo contrario, y argumentaba que el empleo de más datos para mejorar la inteligencia artificial estaba llegando a sus límites. Donde dije Digo digo Diego. A este fenómeno, es lo que una voz referente de la inteligencia artificial, Gary Marcus, es lo que llamó "el Muro". Acuñó la expresión deep learning is hitting a wall en marzo de 2022. Era el muro que los algoritmos empleados hasta la fecha no podían superar.


Por lo que se había logrado descubrir, OpenAI empleaba un tipo de entrenamiento para sus redes de transformers basados en aprendizaje supervisado, y deep learning. Posteriormente, de cara al afinado de los modelos, empleaba la técnica conocida como aprendizaje por refuerzo con retroalimentación humana (RLHF).

Pero ya por fin nos plantamos en 2024, y concretamente en septiembre del ya pasado año, OpenAI cambió la denominación de sus LLM y lanzó el modelo o1. Este modelo dejó muy buenas sensaciones, ya que parecía que la empresa de Altman volvía a la senda del progreso, y además este modeló demostró que lograba muy buenos resultados en distintos tipos de problemas matemáticos para los cuales GPT4 ofrecía muy malas respuestas. También el modelo o1 fue un cambio de paradigma, y es que comenzó a emplear para el entrenamiento de sus datos el algoritmo del aprendizaje por refuerzo como su técnica principal.

Para entender este concepto y que nos hagamos una idea del cambio de propuesta, podemos imaginar que a los modelos antiguos (los GPTs) los investigadores de OpenAI les daban la mejor vuelta rápida que hacía un Formula 1, y los LLM se dedicaban a imitar esa trayectoria, velocidad, giros de volante, etc. Sin embargo, con o1 los investigadores han comenzado a entrenar a sus LLM dándoles el dibujo del circuito, y que los algoritmos descubran cuál es la vuelta rápida por ellos mismos. Con este cambio, o1 se volvió un modelo que tardaba más tiempo que sus predecesores en dar una respuesta a nuestros prompts, pero era capaz de "razonar" parecido a un humano y de dar respuestas mucho más acertadas a ese tipo de problemas de ingenio.

Finalmente, como colofón a este nuevo impulso y entusiasmo por los nuevos modelos, y casi por sorpresa, OpenAI presentó en diciembre su modelo o3 (no nos hemos perdido: la compañía se ha saltado el modelo o2 por posibles problemas de copyright con la empresa de telecomunicaciones).

El sistema o3 ha sorprendido aún más a la comunidad tecnológica por su capacidad de razonamiento y por obtener una nota muy alta en el test ARC-AGI, creado por François Chollet. Chollet es un investigador francés y uno de los referentes en inteligencia artificial. Se hizo famoso hace algunos años gracias a su extenso artículo On the measure of intelligence, a lo largo del cual se planteaba cómo se podía medir la inteligencia y el progreso de las máquinas, y las dificultades para hacerlo. Y para hacerlo, desarrolló su test, que consiste principalmente en la resolución de problemas de ingenio representados mediante gráficos y diferentes imágenes, los cuales deberían ser resueltos por el humano medio. En el ARC-AGI, o3 logró un 75,7% en modo “bajo coste” y un 87,5% en modo “alto coste, lo cual es un salto enorme, ya que el modelo o1 logró un 21%. Es un test que hasta ahora ningún modelo de inteligencia artificial había sido capaz de estar tan cerca de resolver.



El o3 consume una barbaridad de recursos de entrenamiento y empleo, además de que tarda muchísimo en proporcionar las respuestas que se le piden. Por esta razón, nosotros no lo tendremos a nuestra disposición hasta dentro dentro de un tiempo, durante el cual la velocidad de los algoritmos y su consumo energético se hayan optimizado.

Por lo tanto, muchos titulares han corrido a afirmar que OpenAI por fin ha roto el Muro que le impedía avanzar. ¿Estamos más cerca de una inteligencia artificial general? No tanto, ya que o3 demostró que aunque es capaz de resolver problemas de ingenio y matemáticos mejor que sus predecesores, ofrece peores respuestas en el lenguaje natural. Es decir, parece que la gente de OpenAI no logra una generalización de su LLM y que sirva para todo. Así que puede que se haya roto un muro, pero que surjan nuevos obstáculos en el futuro. Pero eso es harina de otro costal, y tenemos 2025 por delante para ver lo que nos deparará el futuro.

Estamos viviendo una época fascinante.




Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons