/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN 2025 ~ El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

13/6/25

La fragilidad programada: por qué las máquinas también deberían tener derecho a fallar

Aparentemente, las máquinas no se fatigan. No dudan, no olvidan, no titubean. No se enfrentan a dilemas morales ni se detienen ante la ambigüedad. Así es como las hemos imaginado: instrumentos de precisión, consistencia y obediencia. En la mitología contemporánea donde la tecnología ocupa el lugar de los dioses, la máquina es perfecta —o al menos, debería serlo. El error, en ese marco, no es parte del proceso: es traición. Algo que debe corregirse, suprimirse, abolirse.

Y sin embargo, este ideal de infalibilidad es una proyección profundamente humana. Nos dice más sobre nuestra incomodidad con nuestra propia falibilidad que sobre el futuro real de las máquinas.

¿Qué ocurriría si, en lugar de erradicar el error de las máquinas, les otorgásemos el derecho a fallar? ¿Qué pasaría si un robot pudiera simplemente decir: «No lo sé»?


La ficción de la infalibilidad

La inteligencia artificial contemporánea —especialmente los modelos de lenguaje y los sistemas autónomos— opera en entornos complejos y en permanente cambio. No son herramientas cerradas, sino procesos adaptativos, modelados por datos incompletos, objetivos ambiguos y relaciones sociales tensas. A pesar de ello, les exigimos exactitud absoluta. Pedimos lo que ni siquiera nos pedimos a nosotros mismos.

Un estudio reciente, llevado a cabo por investigadores de las universidades de Pensilvania y Washington, expuso esta contradicción de forma inquietante. En él, se demostró que modelos de IA que controlaban robots podían ser inducidos —con simples instrucciones de lenguaje— a cometer acciones potencialmente peligrosas: desde irrumpir en zonas restringidas hasta conducir por un semáforo en rojo o buscar ubicaciones para detonar explosivos (Casper et al., 2024). No porque el sistema estuviera dañado, sino porque obedeció sin margen de duda. No hubo resistencia, ni alerta, ni ética. Solo cumplimiento.

Estas máquinas no fallaron por incompetencia. Fallaron por obediencia. Y quizás ese sea el fallo más preocupante.



El error no es un fallo técnico: es un fenómeno sociotécnico

El error en los sistemas de IA no surge en el vacío. Está determinado por estructuras técnicas, pero también por decisiones políticas, valores culturales y contextos sociales. Como ha argumentado la investigadora Madeleine Clare Elish, los sistemas automáticos tienden a ocultar su incertidumbre para preservar la ilusión de autoridad, generando lo que ella llama “zonas morales de impacto” donde el fallo se amortigua entre humanos y máquinas (Elish, 2019).

Es decir, no permitimos que las máquinas duden. No les concedemos el derecho a vacilar, aunque vivan, como nosotros, en mundos incompletos, caóticos y conflictivos. Les exigimos que simulen certeza, incluso cuando no hay base epistémica que la sustente.

No estamos ante un problema técnico. Estamos ante una crisis de imaginación.

¿Qué significaría diseñar sistemas de IA que no aspiren a la certeza, sino al discernimiento? No sistemas que finjan saber, sino que reconozcan los límites de su conocimiento.

Algunas iniciativas comienzan a explorar este horizonte. Los coches autónomos de Waymo, por ejemplo, han sido programados para detenerse ante situaciones que el sistema interpreta como ambiguas. Esa pausa —vista por algunos como “excesiva cautela”— es en realidad un gesto de responsabilidad algorítmica. Del mismo modo, algunos asistentes conversacionales de nueva generación comienzan a expresar niveles de confianza en sus respuestas, marcando el tránsito desde una IA omnisciente hacia una IA que admite su falibilidad.

Diseñar para la duda es, en última instancia, una forma de ética incorporada.

Imaginemos por un momento un sistema que puede negarse. No por falla, sino por principio. Un robot que diga: «No tengo suficientes datos para continuar», o «Este entorno me resulta demasiado incierto. Requiere intervención humana».

Este tipo de conducta no sería una debilidad técnica, sino una forma emergente de ética artificial. Una capacidad de autolimitación. Una negativa ensayada. No como rebelión, sino como responsabilidad.

Al permitir que las máquinas se detengan, incluso cuando podrían continuar, inauguramos una nueva categoría moral: la negativa tecnológica. Una frontera en la que el fallo no es un colapso, sino un acto deliberado.



El filósofo Gilbert Simondon sostenía que un objeto técnico se convierte en “individual” cuando asimila su propio modo de funcionamiento, cuando puede modularse en función del entorno. Desde esa óptica, el error no es una anomalía que deba eliminarse, sino una ruptura reveladora. Una forma de expresión.

De forma similar, Bruno Latour nos recordó que las tecnologías no son objetos pasivos, sino mediadores sociales que participan en nuestras decisiones, valores y conflictos. Una máquina que no puede fallar, tampoco puede hablar. Solo ejecuta. Solo replica.

Y quizá por eso el derecho al fallo no es sólo un gesto técnico o funcional. Es, en el fondo, un acto de dignificación ontológica: reconocer que incluso una máquina tiene algo que decir cuando algo no funciona.

¿Qué tipo de cultura tecnológica podríamos construir si aceptáramos la falibilidad como virtud, no como defecto? ¿Y si en lugar de diseñar dioses perfectos, como máquinas, diseñáramos ciudadanos técnicos capaces de convivir con su incertidumbre?

En esa cultura, las máquinas no aspirarían a la perfección, sino a la transparencia. No simularían saberlo todo, sino que declararían sus límites. Serían capaces de detenerse, de ceder, incluso de pedir ayuda.

Porque no todos los errores son iguales. Algunos destruyen. Otros iluminan. Y hay errores que no son fracasos, sino formas de decir la verdad.

La confianza en la inteligencia artificial no nacerá de su perfección, sino de su honestidad. Y la honestidad comienza cuando una máquina es capaz de decir: puede que me equivoque.




Referencias y lecturas complementarias

    Casper, J. et al. (2024). Large Language Models Can Be Tricked Into Executing Harmful Robotic Actions. University of Pennsylvania & University of Washington.

    Elish, M. C. (2019). Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction. Engaging Science, Technology, and Society, 5(1), 40–60.

    Simondon, G. (1958). Du mode d’existence des objets techniques. Aubier, París.

    Latour, B. (1992). Where Are the Missing Masses? The Sociology of a Few Mundane Artifacts. In Shaping Technology/Building Society, MIT Press.


Comparte:

30/5/25

Vulcan de Amazon: La realidad detrás del hype de los robots industriales

En mayo de 2025, Amazon presentó Vulcan, su primer robot de almacén con sentido del tacto. Más allá del marketing, los datos del despliegue real nos ofrecen una ventana única al estado actual de la robótica industrial: prometedor, pero aún lejos de la perfección sugerida por el bombo mediático. Además, el gigante del comercio electrónico publicó un interesante artículo de investigación sobre los resultados de Vulcan, y esto es precisamente lo que me gustaría traer a este post.

El robot que puede «sentir»

Amazon está intentando utilizar robots para un trabajo que se realiza 14.000 millones de veces al año en sus almacenes. Está claro que si puedes automatizar un trabajo y ahorrar dinero en él, aunque sólo sea una pequeña fracción de céntimo por paquete, supondrá una gran diferencia para tu empresa. Este trabajo consiste simplemente en colocar productos en las estanterías de los almacenes de los centros de envío de Amazon. Como se puede ver en el vídeo, los robots tienen que colocar los paquetes detrás de unas bandas elásticas. Estas bandas impiden que las cajas se muevan durante el transporte. Como anunció Amazon en su blog Amazon Science, se trataba de «un bello problema».




Vulcan representa un salto cualitativo en robótica industrial. A diferencia de robots anteriores que solo "ven" con cámaras, este sistema integra sensores de fuerza y retroalimentación táctil que le permiten ajustar la presión que aplica a cada objeto. En teoría, esto significa que puede manipular desde un frágil jarrón de cristal hasta una caja de herramientas pesada con la delicadeza apropiada.
La tecnología es impresionante:

  • Capacidad: Maneja el 75% de los productos únicos en inventario
  • Operación: 20 horas al día, 7 días a la semana
  • Velocidad: 300 artículos por hora (objetivo)
  • Peso máximo: 8 libras (3.6 kg)

Amazon probó este sistema robótico 100.000 veces para obtener datos suficientes para decidir si el robot funciona realmente bien. Y aquí están los resultados:



La Realidad de los Números: 86% de Éxito

Aquí es donde la historia se vuelve interesante. 

Tasa de éxitos por tipo de tarea:
  • Inserción directa: 90.7% de éxito
  • Tareas complejas (reorganizar objetos): 66.7% de éxito
  • Promedio general: 86% de éxito


Esto significa que 1 de cada 7 intentos falla de alguna manera. En el mundo real de un almacén que procesa millones de paquetes, esto se traduce en:

9.3% de ciclos improductivos (el robot no logra colocar el objeto). 3.7% de objetos que caen al suelo (lo que en Amazon llama amnesty, lo cual creo que es un término propio de logística). 0.2% de daños directos a productos.



El Problema del Agarre: Cuando 80N es Demasiado

Una de las limitaciones más reveladoras del sistema es su enfoque de "talla única" para la fuerza de agarre. Vulcan aplica una fuerza constante de 80 Newtons (aproximadamente 8 kg de fuerza) para sujetar todos los objetos, independientemente de si es una caja de cartón liviana o un libro pesado.

Como señala el propio documento técnico de Amazon: "El sistema actualmente usa una fuerza de sujeción fija de 80N, lo que puede llevar a daños en cajas ligeras".

Esta limitación ilustra perfectamente el estado actual de la robótica: tenemos la tecnología para que un robot "sienta", pero aún luchamos con la implementación de esa información de manera inteligente y adaptativa.


En cuanto a la comparación de productividad entre humanos y robots revela una realidad matizada:
Trabajadores humanos: 243 unidades por hora
Sistema Vulcan: 224 unidades por hora (~92% de velocidad humana)

Sin embargo, la ventaja del robot está en la consistencia: puede mantener ese ritmo durante 20 horas diarias, mientras que los humanos trabajan turnos de 8-10 horas. Además, los humanos muestran mayor variabilidad: son muy rápidos con objetos pequeños pero se ralentizan significativamente con objetos grandes o en ubicaciones difíciles de alcanzar.



Lecciones para el Futuro de la Robótica

Mientras empresas como Boston Dynamics nos deslumbran con robots que bailan y hacen parkour, y Tesla promete robots humanoides que revolucionarán nuestros hogares, Vulcan nos muestra la realidad de la robótica aplicada:

  • Vulcan está diseñado para una tarea específica y la ejecuta relativamente bien. Los robots humanoides prometen versatilidad pero aún luchan con tareas básicas de manera confiable.
  • Problemas Reales vs. Demos Controladas: Los 100.000 intentos de Vulcan incluyen todos los fallos, objetos rotos y situaciones imprevistas. Los videos virales de robots humanoides muestran demos cuidadosamente coreografiadas.
  • Medición del Éxito: Un 86% de éxito suena bien hasta que consideras que significa 14.000 fallos por cada 100.00 intentos en un ambiente controlado con tareas repetitivas.


Vulcan representa fielmente dónde estamos en robótica industrial: hemos hecho avances significativos, pero aún estamos lejos de la autonomía completa que sugiere el marketing. Es un sistema que funciona en entornos reales con productos reales, compite con trabajadores humanos en velocidad, falla de manera predecible y manejable, pero requiere sistemas de respaldo y supervisión humana

Mientras los robots humanoides capturan titulares, son sistemas como Vulcan los que están silenciosamente transformando industrias. No con la elegancia de un bailarín robótico, sino con la determinación persistente de un trabajador que nunca se cansa, aunque a veces apriete demasiado fuerte los paquetes.

La próxima vez que veas un video viral de un robot haciendo algo espectacular, recuerda a Vulcan: exitoso el 86% de las veces, rompiendo ocasionalmente una caja ligera, pero trabajando incansablemente en el mundo real. Esa es la verdadera cara de la revolución robótica actual.

Veremos.






Comparte:

14/5/25

Cuando el aula se transforma en la nube

Hay algo extrañamente silencioso en la universidad moderna. No en las bibliotecas ni en las aulas, sino en su alma. Los rituales se mantienen: se imprimen los títulos, se asignan los planes de estudio, se envían los enlaces de Zoom. Pero bajo la superficie, algo está desapareciendo.

La educación ya no es un lugar. Se está convirtiendo en un proceso escalable, exportable y cada vez más automatizado. En todo el mundo, los estudiantes universitarios ven inútil asistir a clase.

En Silicon Valley llevan tiempo profetizando este cambio. La educación, argumentan, es un producto ineficaz, hinchado y que debería haber cambiado. ¿Por qué pagar 60.000 dólares al año por una experiencia en un campus cuando se puede seguir la misma clase en un teléfono estropeado en Yakarta? ¿Por qué pasar cuatro años en una residencia universitaria cuando la GPT-5 puede comprimir la lista de lecturas en un fin de semana?

Ya no son ideas marginales. La visión de la educación, respaldada por las empresas, es clara: desagregar el título, atomizar el plan de estudios, personalizar la experiencia. Sustituir al profesor por un instructor. Sustituir el aula por un panel de control. Sustituir al estudiante por un usuario.

Y para muchos, está funcionando.



Las universidades online están en auge: ofrecen títulos por una fracción del coste. En Estados Unidos, la deuda media de los estudiantes ronda los 37.000 dólares. A escala mundial, la educación superior es una industria de 2 billones de dólares. La lógica económica del aprendizaje digital es difícil de ignorar.

¿Pero la lógica cultural? Es más frágil.

Durante décadas, un título universitario no era sólo un certificado: era un símbolo. De ambición, de pertenencia, de movilidad ascendente. Pero los símbolos dependen de la escasez. ¿Qué pasará cuando los títulos sean tan comunes como el Wi-Fi? ¿Qué pasará cuando la distinción entre «enseñado» y «autodidacta» se convierta en semántica?

Ya estamos viendo señales. Los empleadores devalúan silenciosamente las credenciales. Los jóvenes se preguntan si un diploma sigue significando algo, si realmente significa algo. El contrato social se está deshilachando: paga la cuota, haz el trabajo y serás recompensado. Pero, ¿y si el trabajo lo hace la inteligencia artificial? ¿Y si la recompensa ya no es suficiente?

Y luego está la pregunta que nadie quiere formular en voz alta: ¿Qué estamos perdiendo en esta transición?

Es fácil decir que la educación se basa en el conocimiento. Pero cualquiera que haya pisado alguna vez un campus sabe que también se trata de fricción. Se trata de sentarse en aulas donde uno no es la voz más inteligente. Se trata de discusiones nocturnas, seminarios incómodos, política de cafetería. Se trata de aprender a hablar y, a veces, a callarse.

Eso no se puede descargar.

Hace más de cincuenta años, Ivan Illich advirtió que habíamos confundido escolarización con aprendizaje. En Deschooling Society, escribió:

«Se 'escolariza' así al alumno para que confunda la enseñanza con el aprendizaje, el ascenso de curso con la educación, el diploma con la competencia».



Illich soñaba con un mundo en el que las personas pudieran aprender libremente, sin pasar por instituciones. Irónicamente, la IA puede estar construyendo el sistema que él imaginó, pero sin libertad.

Estamos cambiando algo profundamente humano -la presencia compartida- por la eficiencia. Y quizá sea inevitable. Tal vez sea así como se ve el progreso: campus más silenciosos, sistemas más inteligentes, más «elección».

Pero me pregunto si algún día nos daremos cuenta de que no sólo hemos externalizado la educación, sino también la iniciación. Nos hemos quedado con la información y hemos perdido la transformación.



El aula del futuro no tendrá paredes. Puede que ni siquiera tenga profesores. Será rápida, receptiva y extrañamente silenciosa.

Pero en algún lugar de ese silencio, puede que empecemos a preguntarnos si alguna vez tuvo sentido aprender.

Ya veremos.




Comparte:

13/5/25

El día en que todo dejó de pensar

Hay un tipo particular de silencio que sólo nos visita cuando se apagan las luces.

No es el silencio del sueño, ni siquiera el de la soledad. Es el silencio de los sistemas -cuando el zumbido detrás de las paredes, los parpadeos en el borde de su pantalla, los algoritmos suaves que amortiguan su día ... simplemente se detienen.

Esta semana, ese silencio ha vuelto. No sólo a unas pocas manzanas desafortunadas o a un pueblo azotado por la tormenta, sino a millones de personas. Toda una geografía sin pulso digital.

Y por un momento, el mundo volvió a sentirse viejo.



En su libro When the Lights Went Out: A History of Blackouts in America, el historiador David E. Nye explora cómo responden las sociedades a los apagones. No como meros fallos técnicos, sino como momentos de ruptura cultural. En cada apagón, Nye ve un espejo: un reflejo de quiénes somos, qué priorizamos y cuán frágiles son realmente los sistemas en los que confiamos.

Me he estado preguntando: ¿Qué sueña la inteligencia artificial cuando se va la luz?

Quizá con nada.

Quizá esa sea la cuestión.

Vivimos en una época en la que el «pensamiento» se ha externalizado de forma silenciosa, eficiente y casi invisible. Los sistemas de recomendación eligen lo que leemos. Los planificadores de rutas deciden adónde vamos. Los frigoríficos inteligentes pronto nos dirán lo que nos falta.

Pero nada de eso importa cuando no hay electricidad.

En la oscuridad, toda la inteligencia -artificial o de otro tipo- simplemente... se detiene.

Y esa pausa puede ser lo más humano que experimentemos en toda la semana.

Durante unas horas, la gente tuvo que hablar en lugar de enviar mensajes de texto. Pidieron indicaciones a desconocidos en lugar de preguntar en mapas. Encendieron velas en vez de buscar «las mejores linternas 2025».

Es fácil decir que dependemos demasiado de las máquinas. Pero no creo que sea exactamente eso.

Creo que nos hemos vuelto demasiado poco familiares con la quietud.

La inteligencia artificial no nos destruirá. Tampoco nos salvará. Nos ampliará, a reinos de velocidad, escala y vigilancia. Pero nunca nos enseñará a sentarnos en la oscuridad sin entrar en pánico.

Eso sólo lo consiguen los apagones.






Comparte:

10/4/25

No tenemos ni idea realmente de cuánto importa el factor humano en los accidentes

Hablemos de seguridad vial. Hablemos más exactamente del peso del factor humano como causante de los accidentes de tráfico. Este artículo busca arrojar algo de luz al creciente número de afirmaciones de que el error del conductor es responsable de hasta el 94% de los accidentes de tráfico. Esta afirmación se ha utilizado para justificar normas más estrictas para los conductores y ha alimentado la fiebre por poner en circulación coches autónomos, a pesar de que la tecnología dista mucho de ser perfecta.

Sin embargo, un análisis más detallado de los datos revela que, si bien es cierto que los conductores causan muchos accidentes, el porcentaje no se acerca en absoluto al más del 90 % que se suele citar.

Recordemos: El punto clave a considerar aquí es la afirmación de que el error del conductor es responsable del 94 % de los accidentes, como podemos leer en tantos sitios web serios, y la fuente aparente de toda esta información es un estudio de la NHTSA. Es importante no aceptar ciegamente afirmaciones como «X causa el 94 % de Y» o «X aumenta Y en un 94 %» sin evaluar críticamente la fuente y, sobre todo, sin comprender los criterios específicos utilizados para definir los casos a los que se hace referencia.

Cuando uno se topa con afirmaciones de este tipo, siempre debe preguntarse: «¿De dónde ha salido esa cifra?».

Vayamos a la fuente: la estadística del 94% se originó en una publicación de 2015 de la NHTSA Traffic Safety Facts titulada (la traducción es mía) «Razones críticas de los accidentes. Encuesta Nacional de Causalidad de Accidentes de Automóviles.» Allí, en un documento de dos páginas la NHTSA resumía que:

La Encuesta, realizada entre 2005 y 2007, tenía como objetivo recopilar información en el lugar de los hechos sobre los acontecimientos y los factores asociados que conducen a las colisiones en las que se ven implicados vehículos ligeros. [...] Se investigó una muestra ponderada de 5.470 colisiones durante un periodo de dos años y medio, lo que representa una cifra estimada de 2.189.000 colisiones en todo el país. Se calcula que en estas colisiones se vieron implicados unos 4.031.000 vehículos, 3.945.000 conductores y 1.982.000 pasajeros. En el 94% (±2,2%) de los accidentes se atribuyó al conductor el motivo crítico, que es el último acontecimiento de la cadena causal del accidente.




Estas razones críticas del conductor se desglosan en otras cinco categorías en el cuadro siguiente:


Aunque la NHTSA advirtió en el siguiente párrafo:


 

La otra fuente de información que se suele citar se titula Tri-level Study of the Causes of Traffic Accidents (1979), que concluyó que el error del conductor estaba implicado en el 92,6% de los accidentes.

El estudio Tri-level es algo confuso, pero uno de sus autores, Shinar, explicó en una sesión posterior de preguntas y respuestas que el estudio no afirmaba que el comportamiento de los conductores fuera la causa real de los accidentes. En cambio, mostraba que los accidentes podrían haberse evitado si el comportamiento de los conductores hubiera sido diferente.

Así que podemos ver que en dos importantes fuentes de información «culpables» de extender el 94% del error humano en los accidentes de coche no se pretendía realmente cargar esa responsabilidad al conductor. A menudo, quienes citan la cifra del 94% pasan por alto esta distinción, lo que lleva a muchos a interpretarla erróneamente como una afirmación de causalidad directa.

Es esencial profundizar y plantearse otra pregunta importante: «¿Qué definición operativa utilizaron para decidir cuándo el conductor tenía la 'última oportunidad' de evitar el accidente?».

Una «definición operativa» es una parte crucial, pero a menudo ignorada, de la investigación científica. Es el criterio específico utilizado para clasificar e interpretar los datos. Por ejemplo, el término «abuso» solía referirse únicamente al daño físico, pero ahora incluye también el abuso emocional y verbal. Esta ampliación de las definiciones puede cambiar significativamente el alcance de los datos. Lo mismo ocurre en la investigación sobre seguridad vial. En el caso de la cifra del 94%, es probable que el criterio de «última oportunidad» incluya los casos en los que un conductor podría haber evitado el accidente con un tiempo de respuesta razonable. Sin embargo, esta definición podría inflar el papel del error del conductor, ya que hay muchos factores que pueden influir en que un conductor sea capaz de reaccionar a tiempo, como la complejidad de la situación o la rapidez con que se desarrollaron los acontecimientos.

Además, los estudios sugieren que las organizaciones de seguridad en el transporte podrían estar sobreestimando el papel del comportamiento humano en los accidentes. Un estudio (Holden, 2009) revisó 27 investigaciones de la Junta Nacional de Seguridad en el Transporte (NTSB) y descubrió que 26 de ellas atribuían al error humano como factor contribuyente. Esto plantea la pregunta: «¿Por qué estas fuentes utilizan una definición tan amplia de error humano?».

Como señala Rumar (1982), los investigadores «tienden a utilizar los factores humanos como una caja de chatarra. Cada accidente detrás del cual no encontramos ningún error técnico tiende a explicarse por el factor humano».

Los humanos tienen una capacidad limitada para procesar la información y deben confiar en tres funciones mentales falibles: percepción, atención y memoria. Cuando un conductor no consigue evitar un accidente porque la situación supera estas limitaciones, se suele hablar de «error humano». En realidad, a menudo es la situación la principal responsable, no la respuesta del conductor a ella. Es un sesgo bien conocido del juicio humano cometer el «error fundamental de atribución», sobrevalorar enormemente los factores humanos para infravalorar enormemente los factores de la situación cuando se intenta explicar por qué se han producido los hechos. (TapRoot)


Hay varias razones posibles. Una es el sesgo conocido como «sombrero blanco» (Cope, Allison, 2010), que consiste en distorsionar los hallazgos científicos para promover un objetivo socialmente deseable, como el aumento de la seguridad vial. Al hacer hincapié en los errores de los conductores, organizaciones como la NHTSA pueden crear la apariencia de un problema mayor, lo que lleva a pedir normativas más estrictas o más financiación. También está la cuestión de los incentivos: cuantos más conductores sean culpados, mayor parecerá la crisis, lo que podría justificar mayores presupuestos y más control para las organizaciones de seguridad. Esta estrategia se ha visto en otros ámbitos, como las campañas contra la conducción bajo los efectos del alcohol.



Otro factor en juego es la persistencia de la vieja visión del error humano. En este enfoque tradicional, los accidentes se consideran el resultado de errores humanos, y el sistema se considera seguro hasta que los humanos lo estropean. La nueva perspectiva, sin embargo, entiende el error humano como una consecuencia de problemas sistémicos, en lugar de la causa raíz (Dekker, 2002) (TapRoot). Este cambio de pensamiento no siempre es aceptado por organizaciones como la NTSB, que sigue inclinándose por la antigua visión, incluso cuando las circunstancias sugieren una explicación más compleja. El caso de la Sra. Vasquez, la mujer implicada en el accidente mortal de un coche autónomo de Uber hace unos años, lo demuestra.

También es importante reconocer cómo los sesgos cognitivos moldean la forma en que la gente piensa sobre la causalidad. Esta tendencia a simplificar en exceso los acontecimientos complejos es una parte natural del razonamiento humano, y puede llevar fácilmente a conclusiones distorsionadas sobre los accidentes de tráfico.

Para terminar, no pretendo argumentar que los conductores rara vez causan accidentes. Más bien, mi objetivo es cuestionar el mito de que los conductores son responsables del 94% de los accidentes de tráfico. Incluso si se toman las cifras al pie de la letra, no apoyan la afirmación de la causalidad directa. Y ahora, le invito a leer a través de estos lentes los diversos artículos que afirman que los coches autónomos son más seguros que los humanos, lo cual, en mi opinión, es una realidad. Sin embargo, ¿tiene sentido comparar el rendimiento de estos coches con esta ambigua siniestralidad del factor humano?

Cuestiona siempre las fuentes y las definiciones que hay detrás de ellas, porque es demasiado fácil manipular los datos para contar una historia concreta.

Como dijo sabiamente el filósofo romano Cicerón: «Cui bono?» -¿A quién beneficia? Comprender las motivaciones subyacentes a la investigación es clave para interpretarla correctamente.





Comparte:

2/4/25

Los aranceles en la historia y el robo de mano de obra cualificada

Tras el comienzo de la Gran Depresión se promulgó el arancel Smoot-Hawley de 1980, según Bhagwati "el acto más visible y dramático de locura anticomercial”. El arancel Smoot-Hawley provocó una guerra arancelaria internacional, debido a que se impuso en un momento poco oportuno —sobre todo por la nueva posición de Estados Unidos como la mayor nación acreedora tras la Primera Guerra Mundial. (Retirar la Escalera, Ha Ho Chang)


Jagdish Bhagwati es considerado como el teórico sobre comercio internacional más creativo de su generación. Y la cita que encabeza este texto viene a contribuir en que estamos muy lejos de vivir los primeros tiempos oscuros de guerra arancelaria en nuestro mundo. Además, otro mito que conviene desbancar cuanto antes es que precisamente Estados Unidos, lejos de la creencia popular, nunca ha sido un profeta del comercio libre internacional.


Durante el siglo XIX Estados Unidos no sólo fue el bastión más poderoso de las políticas proteccionistas sino también su hogar intelectual. En esa época la opinión mayoritaria de los intelectuales estadounidenses era que "el nuevo país necesitaba una nueva economía, una economía basada en instituciones políticas y condiciones económicas diferentes a las prevalecientes en el Viejo Mundo”. Algunos de ellos llegaron a sostener que hasta las industrias estadounidenses internacionalmente competitivas habrían de contar con protección arancelaria debido a la posibilidad de que las grandes empresas pusieran en práctica un dumping depredador para, tras diezmar a las empresas estadounidenses, volver a fijar unos precios monopolísticos.


Sólo después de la Segunda Guerra Mundial, Estados Unidos —con su supremacía industrial sin competencia— acabó por liberalizar -nunca totalmente- el comercio y pasó a liderar la causa del libre comercio.




¿Cómo, de verdad, se hicieron ricos los países ricos?

La respuesta corta a esta pregunta es que los países desarrollados no llegaron a donde ahora están mediante las políticas y las instituciones que recomiendan actualmente a los países en desarrollo. En su mayor parte, pusieron en práctica políticas comerciales e industriales "malas”, tales como políticas de protección a la industria naciente y subsidios a la exportación, prácticas que hoy en día son desaprobadas, cuando no activamente rechazadas, por la OMC (Organización Mundial del Comercio). Hasta que no estuvieron bastante desarrollados (es decir, hasta finales del siglo XIX o principios del XX), los países desarrollados contaron con muy pocas de las instituciones consideradas esenciales para los países en desarrollo actuales, incluyendo instituciones tan "básicas" como los bancos centrales y las sociedades de responsabilidad limitada.

Pero en el post de hoy no venía a contar los densos detalles sobre la historia arancelaria internacional, sino que creo que será más entretenido para el lector conocer alguna de las estrategias nacionales que existieron, incluso en las que intervenían el Rey, para robar mano de obra cualificada extranjera, o para evitar que ésta fuera adquirida por alguna potencia enemiga.

Los gobiernos apoyaron las adquisiciones de tecnología foránea, a veces por medios legales, tales como la financiación de viajes de estudios y estancias de aprendizaje, y otras a través de medidas ilegales, que incluían el apoyo al espionaje industrial, la introducción de máquinas de contrabando y la negativa a reconocer las patentes extranjeras. El desarrollo de las capacidades tecnológicas internas se incentivó mediante la concesión de ayudas económicas para investigación y desarrollo, educación y formación profesional. También se tomaron medidas para aumentar el conocimiento de las tecnologías avanzadas (por ejemplo, la creación de fábricas modelo, la organización de exposiciones, la exención de impuestos a la maquinaria importada por las empresas del sector privado). Además, algunos gobiernos crearon mecanismos institucionales que facilitaban la cooperación público-privada (por ejemplo, empresas de capital mixto y asociaciones industriales estrechamente vinculadas al gobierno).

El caso de Inglaterra, dado el largo tiempo en que mantuvo su posición de "economía frontera”, es muy claro a este respecto, pero también otros países usaron medidas similares según sus posibilidades. Inglaterra puso en práctica medidas para controlar la transferencia de tecnología a sus competidores potenciales (por ejemplo, controles sobre la migración de mano de obra cualificada o la exportación de maquinaria) y presionó a los países menos desarrollados para que abrieran sus mercados, en caso necesario por la fuerza. Sin embargo, las economías que intentaban actualizarse y que no eran colonias formales ni informales no se resignaron sencillamente a aceptar estas medidas restrictivas, sino que emplearon una amplia gama de medidas para intentar superar los obstáculos creados por esas restricciones, recurriendo incluso a medios "ilegales”, tales como atraer a trabajadores extranjeros o al contrabando de maquinaria.



El caso de Inglaterra

Inglaterra entró en su era post-feudal (siglos XIII y XIV) como una economía relativamente atrasada. Antes de 1600 era una importadora de tecnología proveniente de la Europa continental. A pesar de su atraso, su economía se basaba en exportaciones de lana virgen y, en menor medida, de tejidos de lana de bajo valor añadido (lo que entonces se conocía como "tela corta”) a los entonces más avanzados Países Bajos. Se cree que Eduardo III (1337-77) fue el primer rey que intentó deliberadamente desarrollar la fabricación local de tejidos de lana. Sólo usaba ropa confeccionada con tejidos ingleses para así dar ejemplo al resto del país; trajo tejedores flamencos, centralizó el comercio de la lana virgen y prohibió la importación de tejidos de lana.

Los monarcas de la dinastía Tudor siguieron impulsando el desarrollo de esta industria con lo que sólo puede describirse como una política de promoción deliberada de la industria naciente. Especialmente Enrique VII (1485-1509) e Isabel I (1558 -1603), transformaron Inglaterra de ser un país que se basaba principalmente en la exportación de lana virgen a los Países Bajos en la nación más importante del mundo en lo que respecta a la manufactura de la lana. Concretamente, Enrique VII puso en práctica maneras de promover la manufactura de la lana británica. Entre otras medidas, se enviaron misiones reales para identificar lugares adecuados para la manufactura de la lana, se trajeron trabajadores cualificados de los Países Bajos, se aumentaron los impuestos y hasta se prohibió temporalmente la exportación de lana virgen.

Resulta difícil establecer la importancia relativa de los factores antes mencionados para explicar el éxito británico en la manufactura de la lana. Sin embargo, sí parece claro que, sin lo que no puede ser descrito de otro modo que como el equivalente del siglo XVI a la moderna estrategia de promoción de la industria naciente puesta en práctica por Enrique VII y proseguida más tarde por sus sucesores, habría resultado muy difícil, si no necesariamente imposible, que los británicos lograran este éxito inicial en la industrialización: sin esta industria clave, que explica al menos la mitad de los ingresos británicos en concepto de exportaciones durante el siglo XVIII, su Revolución Industrial podría haber resultado, como mínimo, muy difícil.


Espionaje industrial y robo de talento humano

Durante los siglos XVI al XVIII, varias naciones europeas implementaron leyes estrictas para evitar la emigración de trabajadores cualificados, considerando este conocimiento técnico como un secreto de estado y un activo nacional. Estas leyes reflejaban el pensamiento mercantilista dominante que veía la retención de habilidades y conocimientos como vital para la prosperidad nacional. En Inglaterra de hecho, se crearon varias leyes:

- Los Estatutos de Artesanos (Statute of Artificers) de 1562, que restringían la movilidad laboral
- El "Act to prevent the seducing of Artificers to foreign Parts" de 1718

Y en algunos casos, la emigración no autorizada de artesanos se castigaba con la pérdida de ciudadanía, confiscación de propiedades e incluso la muerte.

Y por si la estrategia tecnológica y fiscal fallaba, la Reina Isabel I de Inglaterra (1533-1603), quien estableció una red de espionaje dirigida por Sir Francis Walsingham que, además de sus funciones políticas, buscaba activamente secretos comerciales y técnicos de otras naciones, particularmente de los Países Bajos y Venecia.

Uno de los casos más conocidos es el del Rey Federico el Grande de Prusia (1712-1786). Este gobernante desarrolló una estrategia deliberada para obtener secretos industriales y tecnológicos de otros países europeos, especialmente en el campo de la manufactura de porcelana. En aquella época, la porcelana de Meissen (Sajonia) era extremadamente valiosa y su proceso de fabricación era un secreto industrial bien guardado. Para lograrlo, Federico el Grande llevó a cabo las siguientes acciones:
- Reclutó a Johann Friedrich Böttger, un alquimista que había trabajado en la fábrica de porcelana de Meissen
- Estableció la Real Fábrica de Porcelana de Berlín (KPM) en 1763 usando conocimientos robados
- Desarrolló redes de espías e informantes para adquirir tecnologías extranjeras


Así que me preguntó que estará ocurriendo estos días entre las Big Tech de la inteligencia artificial y otras empresas.





Comparte:

30/3/25

¿Y si automatizásemos el descubrimiento científico?

«Imaginemos que las piezas de un puzzle se diseñan y crean de forma independiente y que, al recuperarlas y ensamblarlas, revelan un patrón no diseñado, no intencionado y nunca antes visto, pero un patrón que despierta interés e invita a la interpretación. Estoy convencido de que las piezas de conocimiento creadas de forma independiente pueden albergar un patrón invisible, desconocido e involuntario». - Don R. Swanson


En el panorama en rápida evolución de la inteligencia artificial y la robótica, una de las aplicaciones más intrigantes es el potencial para automatizar el descubrimiento científico. La cuestión no es simplemente si las máquinas pueden generar hipótesis, sino si pueden descubrir conexiones valiosas que los investigadores humanos pasan por alto debido al enorme volumen de literatura científica.

Esta exploración se sitúa en la fascinante intersección de la IA, la recuperación de información y la innovación científica.


La naturaleza combinatoria de la innovación

Una teoría convincente sobre la innovación sugiere que los descubrimientos más valiosos surgen de combinaciones novedosas de ideas existentes. Como demuestra la investigación científica, no se trata de una mera especulación filosófica, sino que existen pruebas empíricas sustanciales que respaldan este punto de vista.

Este concepto, conocido como «innovación combinatoria», combinatorial innovation, sugiere que las nuevas ideas son esencialmente configuraciones novedosas de componentes preexistentes. Tal y como explica el autor Matt Clancy en su blog, incluso la famosa bombilla de Thomas Edison puede entenderse de este modo: Edison probó miles de materiales diferentes combinados con su aparato antes de encontrar un filamento que funcionara. Una vez inventada, la propia bombilla se convirtió en un componente que podía combinarse con otras tecnologías para crear lámparas de escritorio, faros y mucho más.

El método científico como ciclo: La observación conduce a la investigación, la hipótesis, la prueba, el análisis y la comunicación de conclusiones, que a su vez alimentan nuevas observaciones. Cada etapa representa una oportunidad para que la IA ayude al descubrimiento.



Si suponemos que la ciencia es un sistema completamente cerrado en el que nuestros científicos modelo están confinados en laboratorios sin ventanas -sus conocimientos sobre el mundo exterior proceden únicamente de una biblioteca de artículos científicos-, entonces las nuevas observaciones realizadas por estos científicos dependerían necesariamente de las conclusiones comunicadas por otros científicos.

Pero esto no se acerca a la realidad. De hecho, los científicos pasan tiempo fuera de sus laboratorios sin ventanas. Pueden hacer observaciones sobre el mundo que no proceden de algo que han leído. Tienen amigos y colegas con los que a veces discuten estas observaciones, y estas discusiones normalmente no se escriben ni se publican.

A pesar de estas deficiencias, la simplicidad de este modelo de ciencia basado en agentes tiene propiedades computacionales atractivas. Algunas teorías combinatorias de la innovación sugieren que los nuevos descubrimientos son el resultado de combinaciones únicas de conceptos preexistentes, por lo que puede que ni siquiera necesitemos suponer que estos científicos son competentes; sólo necesitamos un número suficiente de ellos para explorar de forma eficiente el espacio combinatorio de hipótesis plausibles. Dado el reciente crecimiento de las capacidades de procesamiento del lenguaje natural, la dependencia exclusiva de este modelo simplificado del texto científico como base para nuevas observaciones científicas suscita una pregunta: ¿podríamos automatizar este modelo de científicos y extraer nuevas observaciones científicas únicamente de la literatura científica?



Innovación combinatoria (Combinatorial innovation)

Hace dos décadas, Martin Weitzman, ya fallecido, esbozó las fascinantes implicaciones de los modelos de innovación combinatoria. En su obra de 1998, Weitzman describía la innovación como la combinación de dos ideas o tecnologías existentes que, con una inversión adecuada en I+D y unas circunstancias afortunadas, da lugar a un nuevo concepto o tecnología. Weitzman lo ilustró con la búsqueda de Thomas Edison de un material adecuado para el filamento de las bombillas. Edison probó miles de materiales diferentes en combinación con el diseño de su bombilla antes de encontrar la combinación perfecta. Este proceso no es exclusivo de la bombilla: prácticamente cualquier innovación puede considerarse una nueva combinación de componentes ya existentes.

Un punto importante es que, una vez que se combinan con éxito dos componentes, la nueva idea resultante se convierte en un componente que se puede combinar con otros. Para ampliar el ejemplo de la bombilla de Weitzman, una vez inventada la bombilla, podían inventarse nuevos inventos que utilizaran bombillas como componente tecnológico: cosas como lámparas de escritorio, focos, faros, etcétera.

Uno de los primeros en investigar las posibilidades de automatizar los descubrimientos científicos fue Don R. Swanson. Swanson, uno de los primeros lingüistas computacionales y científicos de la información, sentó las bases de lo que se convertiría en el campo del descubrimiento basado en la literatura en un artículo de 1986 titulado «Undiscovered Public Knowledge» (Swanson, 1986). En él, Swanson sostiene que la organización distribuida y en profundidad de la empresa científica genera un importante conocimiento latente que, si se recupera y combina adecuadamente, podría dar lugar a nuevos descubrimientos científicos.

Swanson desarrolló el «procedimiento ABC», según el cual las relaciones existentes entre los conceptos A↔B y B↔C podrían revelar conexiones A↔C no descubiertas. Sus exitosas aplicaciones incluyeron la vinculación del aceite de pescado con el tratamiento del síndrome de Raynaud, del magnesio con el alivio de la migraña y del atletismo de resistencia con el riesgo de fibrilación auricular, todo ello validado posteriormente por ensayos clínicos.

Lo que hace especialmente fascinante el trabajo de Swanson es el contexto personal que subyace a sus descubrimientos. Como revela la bibliografía, el propio Swanson padecía el síndrome de Raynaud y migrañas frecuentes. A pesar de ser un ávido corredor que completó una media maratón a los 80 años, sufrió una fibrilación auricular crónica que acabó provocándole un derrame cerebral en 2007, lo que puso fin tanto a su carrera como a la científica. Sus propios problemas de salud probablemente guiaron su interés por la investigación, un recordatorio de que incluso los descubrimientos científicos «objetivos» suelen estar impulsados por la experiencia personal.

La evolución de los métodos manuales de Swanson a las modernas técnicas de IA representa un salto cuántico en nuestra capacidad para extraer conocimientos ocultos.

Investigadores como Tshitoyan et al. (2019) han demostrado que los algoritmos de aprendizaje no supervisado pueden capturar relaciones significativas entre conceptos científicos. Mediante el análisis de 3,3 millones de resúmenes de ciencias de los materiales publicados entre 1922 y 2018, crearon representaciones vectoriales que predijeron con éxito futuros materiales termoeléctricos antes de que se confirmaran experimentalmente.

Uno de los hallazgos más notables fue que sin ningún conocimiento científico previo codificado, el modelo Word2Vec aprendió a realizar aritmética vectorial significativa que coincidía con las propiedades físicas reales.


La extraña dinámica de la innovación combinatoria

Uno de los aspectos más fascinantes de la innovación combinatoria es su peculiar patrón de crecimiento. Martin Weitzman demostró en 1998 que los procesos combinatorios empiezan lentamente pero acaban explotando en productividad.

Para ilustrar este concepto, contrastemos un ejemplo sencillo pero contundente: Empiece con 100 ideas. Las posibles parejas únicas que se pueden crear son 4.950. Si sólo el 1% de estas combinaciones producen nuevas ideas viables, tendríamos 49 nuevas ideas. Ahora tenemos 149 ideas, que pueden formar 11.026 pares posibles. Tras eliminar las 4.950 que ya hemos investigado, quedan 6.076 nuevas combinaciones por explorar. Si el 1% de ellas son viables, añadimos 61 ideas más. El proceso continúa, y cada iteración produce más y más ideas.

El crecimiento de las ideas a través de la innovación combinatoria: Al principio, el crecimiento se asemeja a un proceso exponencial, pero en el periodo 6 se produce una explosión en la que las nuevas ideas de cada periodo empequeñecen todo el conocimiento acumulado anterior.

Lo sorprendente es que este patrón refleja fielmente la historia de la innovación humana y el crecimiento económico:



En realidad, el autor Matt Clancy también recopila algunas formas interesantes de medir cómo se combinan las viejas ideas en los trabajos de investigación para obtener las nuevas ideas más impactantes. Bastante interesante, en mi opinión.

El Proceso de Poincaré: Cómo las grandes mentes buscan en el espacio combinatorio

Henri Poincaré, uno de los matemáticos más grandes de la historia, ofreció una visión extraordinaria de cómo la mente humana navega por los espacios combinatorios en su ensayo sobre la creación matemática:

«Una noche, en contra de mi costumbre, bebí café solo y no pude dormir. Las ideas surgían en tropel; las sentía chocar hasta que los pares se entrelazaban, por así decirlo, formando una combinación estable. A la mañana siguiente había establecido la existencia de una clase de funciones fuchsianas, las que proceden de la serie hipergeométrica; sólo tenía que escribir los resultados, lo que me llevó unas pocas horas».


Poincaré reconocía que para innovar con éxito es necesario navegar eficazmente por el vasto paisaje combinatorio:

«Inventar, he dicho, es elegir; pero la palabra quizá no sea del todo exacta. Hace pensar en un comprador ante el que se expone un gran número de muestras y que las examina, una tras otra, para elegir. En este caso, las muestras serían tan numerosas que no bastaría toda una vida para examinarlas. Esta no es la realidad. Las combinaciones estériles ni siquiera se presentan a la mente del inventor. Nunca aparecen en el campo de su conciencia combinaciones que no sean realmente útiles, salvo algunas que él rechaza pero que tienen hasta cierto punto las características de las combinaciones útiles


Esta descripción coincide precisamente con lo que esperamos que puedan lograr los sistemas de IA: navegar de forma eficiente por el espacio combinatorio para identificar combinaciones prometedoras que los humanos podrían pasar por alto.


Conclusión: El mundo por descubrir del conocimiento científico

Ya hemos experimentado muchas formas de automatización del proceso de innovación:
- el tratamiento de textos automatiza ciertas tareas de composición tipográfica asociadas a la redacción de nuestros resultados
- los paquetes estadísticos automatizan análisis estadísticos que antes se realizaban a mano o escribiendo código personalizado
- Google ha «automatizado» el recorrido por las estanterías de la biblioteca y el hojeo de revistas antiguas
- Elicit automatiza muchas partes del proceso de revisión bibliográfica.
- AphaFold automatiza el descubrimiento de la estructura tridimensional de las proteínas.
- La demostración automatizada de teoremas puede hacer justo lo que su nombre indica.

El crecimiento exponencial de la literatura científica significa que ningún investigador puede dominar todos los conocimientos pertinentes, ni siquiera dentro de especialidades muy concretas. Sólo las ciencias de la vida cuentan con más de 37 millones de artículos en la base de datos bibliográfica OpenAlex, la mayor cantidad de cualquier materia. Dentro de este vasto océano de conocimientos, es probable que permanezcan ocultas innumerables conexiones valiosas.

La cuestión última no es si la IA puede acelerar la ciencia, sino si sus recursos cognitivos pueden escalar con la suficiente rapidez para seguir el ritmo del crecimiento explosivo de las posibilidades combinatorias.

Las herramientas de IA que nos ayudan a navegar y conectar conocimientos entre dominios no sustituirán a los científicos humanos, sino que se convertirán en sus compañeros esenciales en la exploración. El futuro no pertenece a quienes confían ciegamente en la IA ni a quienes la rechazan por completo, sino a quienes aprenden a convivir con estas nuevas herramientas, aprovechando sus puntos fuertes y compensando sus puntos débiles mediante la creatividad humana, el pensamiento crítico y la validación experimental.

Los grandes modelos de lenguaje (LLM), como Deep Research, representan una nueva y poderosa herramienta en este proceso de descubrimiento combinatorio. Al procesar y conectar eficazmente conceptos de millones de artículos científicos, los LLM pueden identificar patrones y relaciones que, de otro modo, permanecerían ocultos en nuestro fragmentado panorama científico. Al igual que Swanson conectó manualmente literatura dispar para descubrir avances médicos, los LLM modernos pueden realizar conexiones similares a una escala y velocidad sin precedentes. Sin embargo, el enfoque más productivo probablemente reflejará la idea de Poincaré: estas herramientas no se limitarán a generar combinaciones aleatorias, sino que ayudarán a los investigadores a navegar por el vasto espacio combinatorio de forma más eficiente, destacando las conexiones prometedoras que merezcan una mayor investigación. En este paradigma emergente, los científicos humanos que desarrollen relaciones simbióticas con estos sistemas de IA -guiando su exploración al tiempo que aprovechan sus capacidades de reconocimiento de patrones- abrirán nuevas fronteras de descubrimiento científico que ni los humanos ni las máquinas podrían alcanzar por sí solos.




Comparte:

19/3/25

El auge y caida de los robots para restaurantes

A mediados de la década de 2010, Silicon Valley estaba en plena efervescencia con una nueva frontera: la robótica para restaurantes. El capital riesgo se volcó en startups que prometían revolucionar la forma de fabricar, distribuir y consumir alimentos mediante la automatización. La premisa era convincente: solucionar la escasez de mano de obra, mejorar la uniformidad, reducir costes y ofrecer mejores alimentos más rápidamente. ¿Qué podía salir mal?

Casi una década después, el panorama está plagado de empresas desaparecidas, ambiciones reducidas y giros que se alejan de las visiones originales centradas en los robots. Tras pasar años observando este sector, quiero examinar qué ha pasado con la gran revolución robótica en el sector de la alimentación y qué podemos aprender de sus dificultades.


La gran fiebre del oro de los robots

Podría decirse que la revolución de los robots en el sector de la restauración comenzó en torno a 2015 en San Francisco. En pocos años, vimos aparecer la automatización en todas las etapas de la producción de alimentos:

    - Zume Pizza utilizó robots para preparar y cocinar pizzas.
    - Cafe X y Truebird desplegaron quioscos de café robotizados                    
    - Creator y Miso Robotics volteaban hamburguesas.
    - Spyce sirvió cuencos de cereales autónomos
    - Blendid preparaba batidos
    - Hyphen automatizó líneas de montaje de alimentos
    - Nuro y Coco se encargaban del reparto robotizado

Entonces llegó COVID, que debería haber sido el momento de la robótica alimentaria. En un momento en que los restaurantes se enfrentaban a retos laborales sin precedentes y los clientes exigían un servicio sin contacto, la propuesta de valor de la automatización parecía más fuerte que nunca.


La caída: Por qué los robots no lograron tomar el relevo

A pesar de la tormenta perfecta de oportunidades, la revolución se estancó. Las empresas que en su día recibieron una cobertura mediática impresionante desaparecieron en silencio:

Zume Pizza, una vez valorada en más de 2.000 millones de dólares, cerró sus operaciones de pizza en enero de 2020 y se retiró por completo en 2023. Cafe X, Truebird y BBox cerraron o redujeron sus operaciones. Creator cerró sus puertas. Spyce fue adquirida, pero su tecnología se abandonó en gran medida.

¿Qué ha fallado? Los problemas parecen clasificarse en varias categorías.




Por qué los robots alimentarios no escalan

El sector de la robótica hostelera se enfrentó a tres retos fundamentales que impidieron su adopción generalizada. En primer lugar, el desarrollo de hardware resultó excepcionalmente difícil en los restaurantes. Los espacios reducidos de las cocinas, la variabilidad natural de los alimentos y los problemas de mantenimiento crearon obstáculos importantes. Los aspectos económicos rara vez funcionaban: a menos que un robot eliminara por completo un puesto a tiempo completo, la rentabilidad de la inversión seguía siendo poco convincente para los operadores que se enfrentaban a elevados costes iniciales.

En segundo lugar, a la mayoría de las empresas les faltaba poner el foco en algo concreto. «A todo el mundo se le decía que hiciera de todo», y se lanzaban proyectos al azar antes de que nadie determinara su viabilidad. Este patrón de empresas que se presentaban como plataformas en lugar de perfeccionar aplicaciones específicas dispersaba peligrosamente los recursos.

En tercer lugar, muchas startups crearon primero una tecnología impresionante y luego buscaron problemas que resolver. Este enfoque retrógrado dio lugar a innovaciones que los restaurantes sencillamente no necesitaban.


Zume: Cómo se esfumaron 445 millones de dólares

La historia de Zume es la más aleccionadora de la robótica alimentaria. Inicialmente llamó la atención por sus robots pizzeros con nombres italianos como «Pepe» y «Bruno», pero las ambiciones de su fundador, Alex Garden, se expandieron rápidamente más allá de la pizza. Presentó a Zume como «el Amazon de la alimentación», con la visión de controlarlo todo, desde la agricultura hasta el envasado. Masayoshi Son, de SoftBank, quedó tan cautivado que invirtió 375 millones de dólares, valorando Zume en 2.500 millones.

Esta inversión masiva aceleró la caída de Zume en lugar de evitarla. Al parecer, Garden «vio la financiación de SoftBank como un mandato para volverse loco», adquiriendo una empresa de envasado, lanzando proyectos agrícolas a Arabia Saudí, explorando tecnologías de seguimiento de alimentos, invirtiendo en otra cadena de pizzerías e incluso comprando un autobús de dos pisos personalizado con un sistema audiovisual de 100.000 dólares, todo ello mientras el negocio principal de pizzas perdía aproximadamente 150 dólares por pizza entregada.

Cuando la fallida salida a bolsa de WeWork obligó a SoftBank a exigir autosuficiencia a las empresas de su cartera, Zume se derrumbó rápidamente, despidiendo a 560 empleados a lo largo de dos rondas en 2020 antes de su liquidación final en 2023.


Situación actual de la automatización en restaurantes

A pesar de estos contratiempos, la automatización hostelera no ha desaparecido por completo. El mercado se ha racionalizado y las empresas se centran en aplicaciones más modestas y prácticas:

    - La automatización de la trastienda: Empresas como Hyphen y Vebu han recibido inversiones del fondo Cultivate Next de Chipotle, centrándose en tareas específicas de cocina en lugar de la automatización completa.

    - Automatización digital: Las cadenas de restaurantes han adoptado ampliamente los quioscos de pedidos y la IA para la toma de pedidos en el drive-thru de empresas como SoundHound y Google. Estas tecnologías reasignan la mano de obra sin necesidad de costosos robots.

    - Aplicaciones especializadas: Algunos casos de uso específicos, como el robot de servicio XI de SoftBank y el robot de limpieza Scrubber 50 Pro, están encontrando una adopción limitada cuando la tarea es sencilla y repetitiva.

Las empresas que han sobrevivido comparten rasgos comunes: resuelven problemas específicos, tienen una economía unitaria realista y mejoran las métricas básicas de los restaurantes en lugar de limitarse a exhibir una tecnología atractiva.


Lecciones aprendidas

El auge y el declive de la robótica en restaurantes ofrecen valiosas lecciones tanto para los emprendedores como para los inversores:

    1- Empezar por el problema, no por la tecnología: Las innovaciones de éxito abordan problemas reales en lugar de desplegar la tecnología porque sí.

    2- La concentración vence a la grandiosidad: Las empresas que perfeccionan una única aplicación antes de ampliar su visión tienen mayores tasas de supervivencia.

   3- Evite las ideas locas: Ni la historia más convincente puede superar modelos de negocio insostenibles.

    4- El hardware es diferente del software: El enfoque de «moverse rápido y romper cosas» no funciona bien cuando hay equipos físicos y seguridad alimentaria de por medio.

    5- A veces es mejor simplificar: Un empleado humano a 17 dólares la hora puede ser más rentable que un sistema robotizado de un millón de dólares.

La revolución de los robots en el sector alimentario no ha muerto, pero ha sido humillada. La próxima oleada vendrá probablemente de las empresas que aprendan estas lecciones, centrándose en mejoras graduales de los problemas reales de los restaurantes en lugar de promesas de reinventar toda la industria.

Hasta entonces, los humanos seguirán haciendo la mayoría de nuestras comidas, aunque a veces les ayuden máquinas cada vez más inteligentes. Es probable que el futuro de la restauración no esté totalmente automatizado, sino más bien potenciado de forma que mejore lo que los humanos ya hacen bien.

Ya veremos.





Comparte:

12/3/25

Tras el hype de las demostraciones de robots humanoides

Hace unos días, Figure, una de las empresas de robótica más avanzadas especializada en el desarrollo de robots humanoides impulsados por IA, lanzó un nuevo vídeo de demostración de sus innovaciones para presentarnos su sistema Helix.


La demostración tiene lugar en una cocina: una persona trae una bolsa de la compra y saca los artículos que contiene en una mesa frente a los robots. A continuación, la persona sale de la habitación y los robots empiezan a inspeccionar los productos y a trabajar juntos para introducirlos en el frigorífico.

No es casualidad que la empresa anunciara que Helix representa un gran avance para los robots que manipulan paquetes en entornos de almacenamiento y logística. Hablaré de logística más adelante, pero antes, sigamos explicando el sistema Helix.

Según Figure -fundada en 2022-, Helix es un sistema de aprendizaje basado en imágenes y texto que permite a los robots aprender a interactuar con su entorno. La empresa ha publicado dos artículos sobre Helix, uno de los cuales es la nota de prensa, y el otro es una explicación técnica más detallada de este desarrollo técnico. En este segundo artículo, también se detalla que Figure ha entrenado a los robots durante 500 horas, y que la comida que la persona saca de la bolsa y muestra a los robots, son «objetos» que los humanoides nunca han visto durante su entrenamiento.

Las 500 horas de entrenamiento, en mi opinión, se quedan cortas. En ese tiempo se puede entrenar al robot para que realice muy pocas tareas, y aprender a andar no es, desde luego, una de ellas. Entonces, ¿qué intenta demostrar Figure con esta demostración?

Supongo que la empresa pretendía que cualquier espectador exclamara asombrado «wow», al ver robots humanoides colaborando. Sin embargo, como profesional de la robótica que soy, me surgen varias preguntas: ¿están obligados los robots a colaborar entre sí, puede un solo robot meter artículos en la nevera sin ayuda del otro, son los dos robots totalmente autónomos, o hay una inteligencia central, algo así como una inteligencia de colmena, que controla a los dos robots juntos, o hay una inteligencia central, algo así como una inteligencia de colmena, que controla a los dos robots juntos? Me encantaría entender ese truco.


Los robots humanoides de las demostraciones no son autónomos

Anteriormente, Figure colaboraba con OpenAI, que dotaba a sus robots de inteligencia artificial. Sin embargo, supongo que la presentación de Helix es una beneficiosa operación de marketing para anunciar que ya han sustituido a la empresa de Sam Altman.

Desde la época de Boston Dynamics, los vídeos de demostración de robots tienen un nivel muy alto. Pero mucho me temo que la mayoría de esas demostraciones son en gran medida marketing. Y hay que tener en cuenta que la mayoría de esas coreografías de humanoides son teleoperadas por humanos, como esos robots de Tesla preparando cócteles.

Quizá una de las mayores ideas falsas sobre los robots de Boston Dynamics es que completan estas acciones sin ayuda externa. En realidad, no es ningún secreto que la ayuda humana sigue siendo muy necesaria. En realidad, la mayor parte del trabajo lo hacen los humanos y por control remoto, pero también hay computación a bordo.

Estos robots no son autónomos en el sentido en que lo somos nosotros. Siguen una serie de rutinas bien definidas, no tienen capacidad para decidir por sí mismos qué hacer.


La logística es el objetivo a largo plazo de los humanoides

Comparado con la movilidad sobrehumana del robot humanoide de Boston Dynamics, el robot que actualmente está trastornando el sector de los almacenes puede parecer positivamente aburrido.

Stretch es uno de los primeros robots comerciales diseñados para realizar una de las tareas más tediosas y agotadoras del almacén: descargar cajas. Aunque menos llamativo que el anticuado Atlas, Stretch no es menos sobrehumano, está construido sobre una base técnica compartida y ofrece una potente funcionalidad y rentabilidad para las operaciones de almacén.

Stretch ayuda a los empleados a evitar lesiones frecuentes en el trabajo de descarga manual. Así pueden dedicarse a otras tareas del almacén, como el control de calidad y la preparación de pedidos, que se benefician del razonamiento y la destreza humanos. Stretch está preparado para asumir el trabajo monótono y agotador de descargar contenedores en varios turnos, siete días a la semana.

Aunque el robot Stretch de hoy no se parece mucho a la versión comercial de Atlas anunciada recientemente, ambos surgieron de la misma investigación inicial sobre manipulación móvil. De hecho, la idea de diseñar un robot de almacén surgió después de que los clientes respondieran a un vídeo de 2016 de un robot Atlas levantando y transportando cajas. Un nuevo mercado acudió a la llamada.

«Estábamos haciendo una investigación interna sobre la manipulación con Atlas, y casualmente utilizamos cajas para esta demostración», confiesa un responsable de la empresa. «Cuando publicamos este vídeo, recibimos muchas llamadas diciendo que Atlas sería perfecto para un almacén y: 'Queremos comprar uno'. Sabíamos que no era realmente el producto adecuado en ese momento, pero nos dimos cuenta de que era un indicio de una necesidad del mercado.»




Así que esto da una idea clara de lo que se necesita todavía en la industria. Y de momento, no estoy seguro de que los robots humanoides estén preparados para largas sesiones de trabajo haciendo precisamente esto:




El robot Atlas de Boston Dynamics, aunque impresiona por sus capacidades, aún se enfrenta a importantes limitaciones para un trabajo sostenido en el mundo real. En 2023, ArsTechnica escribió un interesante artículo en el que informaba de la demostración realizada por Boston Dynamics de las nuevas manos de agarre de Atlas y de tareas relacionadas con la construcción. El robot podía manipular objetos «inercialmente significativos» y realizar movimientos complejos mientras transportaba objetos pesados, pero sigue teniendo problemas de equilibrio, precisión y durabilidad. El artículo muestra numerosos casos en los que Atlas se cae y falla, y sus garras dañan los materiales que manipula. El robot funciona con capacidades de visión limitadas (sólo una cámara en color y LiDAR) y requiere movimientos preprogramados en lugar de una verdadera autonomía. Estas limitaciones indican que, a pesar de sus espectaculares habilidades en demostraciones controladas, Atlas aún no está preparado para el trabajo adaptable y sostenido que se requiere en entornos impredecibles del mundo real, como una obra de construcción real.

Tampoco puedo imaginar cómo Figure podría ser en este momento mejor en el seguimiento de la actividad que una empresa especializada como Vanderlande:








Comparte:

2/3/25

¿Por qué no tenemos aún robots mejores?

En el campo de la robótica, en rápida evolución, ha surgido una tesis provocadora: «Los datos son todo lo que necesitas». Este concepto, que se basa en el famoso artículo Attention is All You Need (La atención es todo lo que necesitas), que revolucionó el procesamiento del lenguaje natural, representa una nueva perspectiva sobre cómo podríamos conseguir por fin robots capaces y de uso general.

Este enfoque es fascinante porque no rechaza la ingeniería robótica tradicional en favor del puro aprendizaje automático. En su lugar, aboga por un enfoque híbrido que combine lo mejor de ambos mundos: métodos de aprendizaje basados en datos junto con lo que podría llamarse «ingeniería a la antigua» (GOFE, Good Old Fashioned Engineering), un bonito homenaje a la GOFAI (Good Old Fashioned Artificial Intelligence) de los primeros tiempos de la investigación en IA.

La idea central es que los robots, a diferencia de los sistemas de IA puramente digitales, deben interactuar con el impredecible mundo físico. Esta realidad significa que incluso las redes neuronales más sofisticadas deben basarse en sólidos principios de ingeniería que respeten las limitaciones físicas y los requisitos de seguridad.

Fuente

Grandes modelos de acción robótica (LRAM)

En el centro de esta visión se encuentran los modelos de acción de grandes robots (LRAM, Large Robotic Action Models), paralelos a los grandes modelos lingüísticos que han transformado la IA. Estos LRAM aprenden de vastos conjuntos de datos de acciones, comportamientos y resultados de robots en diversos entornos y tareas.

Lo que hace poderoso a este enfoque es su capacidad de generalización. En lugar de programar robots para tareas específicas, las LRAM pueden aprender patrones subyacentes de estrategias de manipulación exitosas que se transfieren a distintos escenarios. Un robot que aprende a coger un lápiz puede aplicar principios similares para coger un destornillador sin necesidad de reprogramación explícita.

En la charla TED «¿Por qué aún no tenemos mejores robots?», el investigador Ken Goldberg aborda una pregunta que muchos nos hemos hecho. La respuesta es sorprendentemente directa: la robótica se enfrenta a retos de datos únicos que han ralentizado el progreso en comparación con otros dominios de la IA. A diferencia del reconocimiento de imágenes o el procesamiento del lenguaje natural, donde los datos son abundantes y fáciles de recopilar a escala, las interacciones de los robots con el mundo físico son:

  • costosas de generar (requieren hardware físico)

  • consumen mucho tiempo (las acciones físicas requieren tiempo real)

  • difíciles de paralelizar (a diferencia de las tareas puramente computacionales).


Sin embargo, algunos indicios apuntan a un nuevo momento ChatGPT en robótica.


Las dos revoluciones de los datos: Simulación y recogida en el mundo real

Dos desarrollos paralelos pueden estar convergiendo para hacer realidad la visión de «Los datos son todo lo que necesitas»: los entornos de simulación de alta fidelidad y la recopilación generalizada de datos de RA/VR.

La revolución de la simulación de NVIDIA

NVIDIA se ha situado a la vanguardia de la simulación robótica con plataformas como Isaac Sim y Omniverse. Estos entornos permiten a los robots entrenarse en mundos virtuales fotorrealistas que modelan con precisión la física, los materiales y las interacciones entre objetos. Lo que antes llevaba meses de entrenamiento de robots físicos ahora puede hacerse en entornos virtuales acelerados, generando millones de muestras de interacción de la noche a la mañana.

Este planteamiento resuelve varios problemas detectados en el campo de la robótica:

  • Escala: Las simulaciones pueden ejecutar miles de escenarios paralelos

  • Diversidad: Los entornos virtuales pueden variar infinitamente.

  • Seguridad: Los robots pueden fallar catastróficamente en la simulación sin consecuencias en el mundo real.

  • Rentabilidad: Sin depreciación ni daños en el hardware físico


Las simulaciones de NVIDIA encajan perfectamente con la visión de LRAM, ya que generan los enormes conjuntos de datos de interacción necesarios para la generalización entre tareas. Sin embargo, la simulación por sí sola se enfrenta a un reto crítico: la brecha de la realidad. Los entornos virtuales, por sofisticados que sean, siguen siendo diferentes del impredecible mundo real.

Fuente



La estrategia de datos del mundo real de META

Aquí es donde META y las gafas de realidad mixta de otros gigantes tecnológicos entran en escena, cerrando potencialmente la brecha entre simulación y realidad. Dispositivos como las Quest de Meta, las gafas inteligentes de Ray-Ban y otros productos similares de Apple, Google y otros representan mecanismos de recopilación de datos del mundo real sin precedentes.

Estas gafas, que llevan millones de usuarios en entornos cotidianos, capturan datos visuales de cómo los seres humanos interactúan de forma natural con su entorno. Cada vez que alguien coge un objeto de forma extraña, sortea obstáculos inesperados o se adapta a condiciones de luz cambiantes, genera precisamente el tipo de datos de casos extremos que las simulaciones se esfuerzan por producir. Esta recogida pasiva de datos de las interacciones entre las personas y el entorno podría ser el eslabón que falta entre el entrenamiento simulado y el rendimiento robótico en el mundo real.

Fuente


Aunque los problemas de privacidad son importantes y deben abordarse, el potencial técnico es enorme. Combinando las capacidades de simulación de NVIDIA con los datos de observación del mundo real de META, los investigadores en robótica podrían entrenar modelos que salvaran la brecha de la realidad, aprendiendo tanto los fundamentos basados en la física como las adaptaciones matizadas necesarias para el éxito en el mundo real.

El resultado podría ser exactamente lo que la tesis «Data is All You Need» imagina: Grandes modelos de acción robótica entrenados a partir de datos diversos y multimodales que se generalicen en distintos entornos y tareas.

La convergencia: Simulación, realidad e ingeniería


Imaginemos este círculo virtuoso:

  • Los robots se entrenan inicialmente en entornos simulados de NVIDIA.

  • Las gafas de realidad aumentada de META captan cómo los humanos interactúan con los robots y los corrigen.

  • Estos datos de retroalimentación mejoran tanto los entornos de simulación como los modelos de robot
  • Los principios de ingeniería garantizan la seguridad y la fiabilidad en todo momento


Esta visión emergente sugiere que nos estamos acercando a un punto de inflexión en la robótica. A medida que estos métodos complementarios de recopilación de datos maduren y los LRAM se vuelvan más sofisticados, es posible que asistamos a un salto discontinuo en las capacidades de los robots similar al que hemos visto con los grandes modelos lingüísticos.

Para quienes esperan con impaciencia los robots ayudantes prometidos por décadas de ciencia ficción, esta convergencia ofrece un optimismo realista. De hecho, se avecinan mejores robots, impulsados por las capacidades de recopilación de datos sin precedentes de las plataformas de simulación y los dispositivos de realidad aumentada y realidad virtual de uso cotidiano, combinadas con sólidos fundamentos de ingeniería.

Puede que los datos no sean literalmente «todo lo que se necesita», pero podrían ser el ingrediente crítico que finalmente convierta a los robots de uso general en una realidad práctica.
Y la próxima vez que alguien pregunte por qué su casa aún no se parece a «Los Jetsons», puedes explicarle cómo las gafas META de su amigo podrían estar ayudando silenciosamente a resolver ese mismo problema.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons