/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN octubre 2025 ~ El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

27/10/25

El Fantasma en la Máquina (equivocada). El futuro de los robots humanoides

Hay una escena que resume a la perfección la extraña esquizofrenia de nuestro momento tecnológico. Ocurrió a principios de 2024. Tesla publicó un vídeo de Optimus, su mesías robótico, doblando una camiseta. La cámara, con esa estética de laboratorio aséptico que tanto gusta en California, mostraba unas manos metálicas cogiendo con parsimonia una prenda negra y plegándola sobre una mesa. El gesto era lento, casi meditabundo. Era, en apariencia, la domesticación definitiva de la máquina: el autómata convertido en amo de casa.

El vídeo, por supuesto, se hizo viral. Pero entonces, los nuevos teólogos de nuestro tiempo, los analistas de frames en redes sociales, notaron algo extraño. Una vacilación casi humana, un temblor impropio de un algoritmo. En la esquina inferior derecha del plano, una mano humana entraba y salía de cuadro, como un director de escena torpe. La sospecha se convirtió en burla cuando el propio Elon Musk, profeta en jefe de esta nueva religión, admitió con la boca pequeña que, bueno, el robot no estaba actuando de forma autónoma. Aún no.



Aquella camiseta mal doblada no es una anécdota. Es el pliegue que revela la verdad: la robótica humanoide de propósito general, tal y como nos la venden, es un espectacular truco de magia. Y para entender el truco, no hay que mirar a los ingenieros, sino a un filósofo francés del siglo XVII y a su crítico más mordaz.

Un Fantasma con un mando de PlayStation


En 1641, René Descartes nos partió por la mitad. Propuso que el ser humano era una extraña amalgama de dos sustancias: la res extensa (el cuerpo, una máquina de carne y hueso sujeta a las leyes de la física) y la res cogitans (la mente, una entidad inmaterial, pensante y libre). El gran problema de su teoría, el que le torturó hasta el final, fue explicar cómo demonios se comunicaban ambas. ¿Cómo un pensamiento, un fantasma inmaterial, podía hacer que un brazo se moviera?

Trescientos años después, en 1949, el filósofo Gilbert Ryle se burló de esta idea acuñando uno de los términos más brillantes de la filosofía del siglo XX: "el fantasma en la máquina". Para Ryle, el dualismo cartesiano era un "error categorial", un disparate lógico como visitar la Universidad de Oxford y, tras ver los colegios, las bibliotecas y los laboratorios, preguntar: "¿Pero dónde está la Universidad?". La mente, decía Ryle, no es un piloto espectral manejando un cuerpo; es, simplemente, el conjunto de todas las habilidades y disposiciones de ese cuerpo.

La ironía es tan deliciosa que casi parece escrita por un guionista. Setenta y cinco años después del rapapolvo de Ryle, la vanguardia de Silicon Valley ha invertido miles de millones de dólares en demostrar que, para hacer funcionar un robot humanoide en 2025, sí necesitas un fantasma en la máquina.

El ejemplo más descarado ocurrió en el evento "We, Robot" de Tesla. Allí, los robots Optimus no solo doblaban camisetas, sino que servían bebidas, jugaban y posaban con una naturalidad pasmosa. Parecía el futuro, servido en bandeja de plata. La realidad, revelada por la propia compañía, es que gran parte de esa autonomía era una farsa. Era teleoperación. En una sala contigua, fuera de plano, un ejército de fantasmas muy materiales, con cascos de realidad virtual y mandos de control, movían los hilos. El robot no era un ser autónomo; era una marioneta carísima. El fantasma en la máquina existe, solo que ahora cobra por horas y, probablemente, usa un mando de PlayStation.



El Casino del Aprendizaje y la Venganza del Mundo Real


Los defensores de esta tecnología argumentan que esto es solo una fase temporal. Que el verdadero salto vendrá del Aprendizaje por Refuerzo (RL), y más concretamente, del Deep Reinforcement Learning (Deep RL). La idea es seductora: en lugar de programar cada movimiento, creas una simulación por ordenador y dejas que la IA "aprenda" por sí misma a base de millones de intentos y errores, recibiendo recompensas virtuales cuando hace algo bien. Es como entrenar a un perro, pero con una paciencia infinita y una factura eléctrica monumental.

El problema es que este método tiene la misma relación con la realidad que una partida de póker online con sobrevivir en la selva. En el casino digital de la simulación, el robot puede permitirse fallar un millón de veces para aprender a coger un objeto. El coste de cada fallo es cero. En el mundo real, un solo fallo puede significar un jarrón de la dinastía Ming hecho añicos, un cortocircuito o un dedo amputado.

Esta brecha insalvable es lo que los ingenieros llaman el problema del sim-to-real transfer. Y es aquí donde la Paradoja de Moravec, esa vieja ley no escrita de la robótica, vuelve para reírse en nuestra cara. Conseguimos que una IA componga sinfonías o descubra nuevas proteínas (tareas que nos parecen el culmen de la inteligencia), pero fracasamos estrepitosamente en enseñarle a caminar sobre una alfombra arrugada o a abrir un bote de pepinillos (tareas que un niño de tres años domina).

La razón es que el mundo físico es un infierno computacional. La fricción, la gravedad, la elasticidad, la luz impredecible... cada interacción con la realidad es una negociación con un caos de variables que ninguna simulación puede replicar por completo.


Inversores, ingeniería control y el Problema de la Mano


Entonces, si los desafíos son tan fundamentales, ¿por qué vemos estas demostraciones espectaculares? ¿Por qué se invierten miles de millones en humanoides que, en el fondo, son poco más que actores de doblaje corporal?

La respuesta está en la audiencia. Quienes firman los cheques no suelen ser expertos en ingeniería de control. Un inversor de capital riesgo entiende una curva de crecimiento exponencial en el rendimiento de un software; entiende mucho menos las limitaciones físicas de un actuador o la intratabilidad del problema del contacto en robótica. Es infinitamente más fácil vender un PowerPoint con la promesa de una "IA general encarnada" que explicar por qué una bisagra sigue siendo un problema de ingeniería no resuelto.

Lo que Tesla y otras startups están vendiendo no es un producto, es una narrativa. Una resurrección del sueño cartesiano: la promesa de que un "alma" de software (un modelo de lenguaje gigante, una red neuronal) puede descargarse en un cuerpo y, por arte de magia, darle vida y sentido. De hecho, ¡Tesla se encuentra ahora atrapado en un problema enorme, el Problema de la Mano Robótica!

La mano humana tiene 27 grados de libertad y está controlada por 20 músculos de la mano y 20 del antebrazo. La mayor parte de la potencia la desarrollan los músculos del antebrazo y los músculos intrínsecos de la mano, cruciales para el control preciso. Los músculos intrínsecos de la mano son esenciales para el control preciso y la propiocepción, cruciales para tareas como tocar el piano o desmontar un coche. La mano de Tesla Optimus tenía 22 grados de libertad. Todo esto requiere un 80 % de todo el esfuerzo de ingeniería para replicar su versatilidad y destreza en una mano robótica.

Fabricar la mano robótica a escala es 100 veces más difícil que diseñarla, según Elon Musk, y convierte este problema en uno enorme y jerárquico, ya que algunos músculos no pueden moverse de forma independiente.


Pero como Gilbert Ryle nos advirtió, es un error de categoría. La inteligencia no es un fantasma que se pueda trasplantar. Es el resultado de un cuerpo y un cerebro que han evolucionado juntos durante millones de años en una danza constante con la brutal y maravillosa física del mundo real.

No digo que los humanoides no vayan a existir, pero hay muchos desafíos por resolver antes de que la economía de los humanoides pueda funcionar. El progreso es asombroso, pero lograr que el valor supere el costo es realmente difícil: habrá que encontrar robots de muy bajo costo y de alta productividad.

El robot que doble nuestra ropa llegará, probablemente. Pero no será el resultado de un software milagroso instalado en un maniquí con ínfulas. Será la culminación del trabajo de esos "fontaneros" olvidados de la ingeniería que luchan con la fricción, el equilibrio y la fragilidad de un mundo que no se puede simular. Mientras tanto, seguiremos asistiendo a un teatro de marionetas de alta tecnología, aplaudiendo al fantasma y haciendo como que no vemos los hilos. Y también queda una pregunta importante: ¿de verdad la gente quiere humanoides en sus casas? 

Ya veremos.





Comparte:

20/10/25

El Último Experimento

Durante siglos, la ciencia se basó en una regla sencilla, casi moral: si un experimento no puede reproducirse, no es ciencia. Era una especie de mandamiento laico según el cual cualquiera debía poder verificar lo que uno afirmaba, y la verdad se ganaba con transparencia, método y paciencia. 

Hoy, ese principio suena tan pintoresco como un teléfono de disco. En la era de la inteligencia artificial, reproducir un experimento puede costar decenas o cientos de millones de dólares y requerir el suministro eléctrico de una ciudad pequeña. La curiosidad ya no es suficiente; ahora se necesita un centro de datos.

OpenAI, Google DeepMind, Anthropic, Meta: estos son los monasterios de la ciencia moderna, lugares donde los fieles siguen creyendo en el progreso, pero ya no pueden ver los rituales que hay detrás. Sus servidores son catedrales de computación: templos vastos y sellados donde se entrenan nuevas inteligencias, utilizadas por todos y comprendidas por nadie. La academia, mientras tanto, se queda con las oraciones, pero no con los recursos. 

Una universidad en Europa probablemente podría reproducir un experimento de los años 50, quizá incluso algo de física cuántica, pero replicar el entrenamiento de un modelo como GPT-4, cuyo coste se estima en casi 80 millones de dólares, sería tan realista como construir un acelerador de partículas en el sótano. Como resultado, la industria produce la gran mayoría de los modelos de aprendizaje automático más notables, mientras que las universidades, que tradicionalmente eran el motor de la investigación fundamental, se quedan atrás, perpetuando un desequilibrio donde casi el 70% de los nuevos doctores en IA son contratados directamente por el sector privado. Las universidades todavía forman científicos; simplemente tienen cada vez menos ciencia que hacer y menos poder para retener el talento. A esto se suma el nuevo coste de la visa para profesionales especializados que Trump acaba de anunciar: 100.000 $. Una chuchería para las empresas, pero una utopía para las facultades.


La caja negra y la nota de prensa


La inteligencia artificial se está convirtiendo en el primer campo de la ciencia sin un verdadero escrutinio externo. Las empresas publican resultados que nadie puede verificar, comparan sus modelos con baremos que ellas mismas diseñan y elaboran pruebas que siempre consiguen superar. La revisión por pares (ese ritual de humildad en el que los colegas podían desmontar tu argumento) ha sido sustituida por comunicados de prensa bien coordinados. 

Este problema no es exclusivo de la IA; otras disciplinas, como la psicología o la biomedicina, llevan años lidiando con su propia "crisis de reproducibilidad", donde un porcentaje alarmante de estudios no puede ser reproducido por otros investigadores. Sin embargo, la diferencia fundamental es que en esos campos la falta de reproducibilidad es un escándalo que destapa un fallo del sistema, mientras que en la IA se está convirtiendo en el sistema mismo. No hay malicia inherente en esto, solo economía. Y dondequiera que los negocios dictan el ritmo del descubrimiento, la verdad se convierte en un lujo, no en un deber.

Hace poco, Retraction Watch informó del caso de un anestesista que tuvo que retractarse de más de 220 artículos científicos (de momento), una cifra absurda que equivale a la producción de toda una vida de un grupo de investigación mediano. Su caída fue pública, dolorosa y, sobre todo, posible: alguien comprobó, alguien verificó, alguien encontró el fraude. Esa es la diferencia. En los escándalos científicos más antiguos, existía al menos una red de escrutinio, alguien más que podía dudar de ti. 

Los grandes modelos lingüísticos actuales, en cambio, son cajas negras. Nadie fuera de la empresa sabe cómo fueron entrenados, qué datos utilizaron o qué sesgos incorporaron. Y la parte más inquietante es que, incluso con las mejores intenciones, nadie podría replicar el experimento. La investigación en IA ya no se comparte, se licencia. El conocimiento se ha convertido en propiedad intelectual, sujeto a acuerdos de confidencialidad y secretos comerciales. La transparencia, que antes era un principio ético, es ahora un riesgo competitivo. En lugar de reproducir resultados, los investigadores se conforman con reproducir titulares: "OpenAI anuncia", "Google publica", "Anthropic mejora".

En el futuro, si alguna universidad llega a tener un millón de GPUs y puede comprobar ciertas afirmaciones, quizás a más de uno le saquen los colores.

Incluso los baremos se han vuelto corporativos. Cada empresa define su propio estándar, establece su propia prueba y se califica a sí misma, lo que genera dudas sobre su validez y conduce a un sobreajuste donde los modelos se optimizan para la prueba en lugar de para una capacidad general. Es como si cada estudiante trajera su propio examen y lo calificara con una estrella de oro. 


Suscríbase a la ciencia


La ciencia solía ser pública: llena de errores, revisiones, retractaciones. Ahora es privada, alojada en servidores remotos y protegida por términos de servicio. La pregunta no es solo quién es el dueño de los datos, sino quién es el dueño del derecho a equivocarse.

Quizá el futuro de la ciencia no dependa de la reproducción, sino de la fe. Fe en el comunicado de prensa, en el baremo, en el fundador visionario que jura que esta vez la máquina entiende de verdad. El problema no es que la verdad haya muerto, es que ha sido externalizada. 

El siguiente paso del método científico puede que no sea el experimento en absoluto, sino la clave de una API. Y quizá, dentro de unos años, el acto más radical de rebelión intelectual sea volver a hacer lo imposible: reproducir algo con nuestras propias manos.

Ya veremos.




Comparte:

13/10/25

El piloto que nunca duerme: lecciones del accidente de Tesla y la ilusión del control

En agosto de 2025, un jurado de Miami dictaminó que Tesla debía pagar 243 millones de dólares por un accidente en el que su sistema Autopilot estaba activado. No fue el primer siniestro de un coche “inteligente”, pero sí el primero que acabó con un veredicto: la tecnología no era inocente. Es el primer juicio que Tesla ha perdido.

La noticia viajó rápido: un coche eléctrico, software de conducción autónoma, una colisión mortal y una sentencia. La narrativa perfecta para una película distópica —solo que esto no era Black Mirror, sino el tráfico real de Florida.

El jurado declaró a Tesla responsable en un 33 %. El resto, al conductor, que había bajado la vista para buscar su teléfono mientras el vehículo hacía lo que mejor sabía hacer: creer que podía con todo.



De Prometeo a Autopilot


La historia de la tecnología está plagada de momentos en los que el ser humano, seducido por su propia creación, confía demasiado.

Cuando en 1908 Henry Ford lanzó el Modelo T, no solo fabricó un coche: inventó la ilusión de control. Cualquier persona podía sentarse detrás del volante y mover una máquina de una tonelada a más de 60 km/h. Aquello era casi magia. Pero en la década siguiente, los accidentes mortales en EEUU se dispararon. La velocidad había llegado antes que la prudencia.

Más de un siglo después, Tesla repite el guion con líneas de código en lugar de pistones. La promesa es la misma: relájate, la máquina sabe lo que hace.

El problema es que no siempre lo sabe. Y nosotros, embelesados con las palabras “inteligencia artificial”, olvidamos que sigue siendo solo eso: una inteligencia artificial, diseñada por humanos y, por tanto, sujeta a nuestras mismas limitaciones —solo que a veces más rápidas y menos visibles.

AnalyticsInsight

El mito del piloto automático


El nombre “Autopilot” nunca fue inocente. Suena a los sistemas de navegación aérea que mantienen un avión nivelado mientras el piloto consulta el radar. Pero el Autopilot de un Tesla no es eso. Es un copiloto que intenta hacerlo todo, pero necesita que alguien supervise su entusiasmo digital.

El accidente de 2019 (juzgado en 2025) ocurrió cuando el sistema cruzó una intersección sin reconocer una señal de alto. Los sensores, los algoritmos y las promesas de marketing no bastaron para evitar lo inevitable.

Y sin embargo, el debate que abrió el veredicto no fue sobre coches, sino sobre culpa y autonomía.

¿Quién es responsable cuando una máquina toma una mala decisión?
¿El conductor, el programador, la empresa, el algoritmo?


El derecho moderno aún no tiene respuesta definitiva. Y mientras tanto, seguimos entregando más y más decisiones al software —desde el tráfico hasta los diagnósticos médicos o las sentencias judiciales predictivas—, convencidos de que la automatización es sinónimo de objetividad.


El sueño de Turing


En 1950, Alan Turing escribió que algún día las máquinas pensarían. Lo dijo como un reto intelectual, no como un manual de usuario. Hoy, la discusión ha cambiado: las máquinas no solo piensan, actúan. Pero lo hacen en un entorno humano, lleno de variables que ni siquiera los humanos comprendemos del todo.

Un coche autónomo no es solo un conjunto de sensores: es una interpretación del mundo. Decide qué objeto es un peatón, qué movimiento es una amenaza, cuándo un brillo es un charco o una sombra. Cada error de interpretación puede costar una vida.

La paradoja es que cuanto más confiamos en la IA, más nos alejamos de entenderla. Como escribió Norbert Wiener, el padre de la cibernética, en 1949:

“Podemos delegar tareas, pero no la responsabilidad.”


Lo que el veredicto nos deja


El caso Tesla de 2025 es un punto de inflexión simbólico. Por primera vez, una corte reconoció que la inteligencia artificial no es solo una herramienta neutral, sino un actor con impacto moral y legal. No significa que los robots tengan culpa, pero sí que las empresas que los diseñan deben asumir las consecuencias de su poder.

Tesla apelará, claro. Pero el precedente ya está ahí. Y con él, una lección para toda la industria de la automatización: la promesa de que los algoritmos eliminarían el error humano empieza a mostrar grietas.

En algún momento, los coches conducirán mejor que nosotros. No es una cuestión de fe, sino de tiempo y datos. Pero el camino hacia ese futuro será irregular, lleno de dilemas éticos y legales.
Mientras tanto, los humanos seguiremos haciendo lo que mejor sabemos hacer: confiar un poco más de la cuenta.

Tal vez el verdadero futuro no dependa de crear un piloto que nunca duerma, sino de aceptar que ningún piloto —humano o artificial— está exento de error.

Y que, por ahora, lo más inteligente que podemos hacer es seguir prestando atención al camino.


Ya veremos.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons