Inteligencia artificial, robótica, historia y algo más.

15/7/24

El amanecer de los robots humanoides: La próxima frontera de la inteligencia artificial

Durante décadas, los expertos en robótica se han centrado más o menos en controlar los "cuerpos" de los robots -sus brazos, piernas, palancas, ruedas y similares- mediante software orientado a fines específicos. Pero una nueva generación de científicos e inventores cree que el ingrediente hasta ahora ausente de la IA puede dar a los robots la capacidad de aprender nuevas habilidades y adaptarse a nuevos entornos más rápido que nunca. Quizá este nuevo enfoque pueda sacar a los robots de las fábricas y llevarlos a nuestros hogares.

Si está al tanto de la robótica, se habrá dado cuenta de que se ha producido una explosión de nuevas empresas de robots humanoideFs. ¿Por qué? ¿Por qué humanoides? ¿Por qué ahora? Benjie Holson
intenta crear una línea temporal a partir de sus propias conclusiones:

  •     2018: Boston Dynamics publica su primer vídeo de parkour. El movimiento bípedo funciona lo suficientemente bien como para contar con él.
  •     2019: Las redes neuronales profundas convolucionales hacen que la percepción (detección/localización de objetos) funcione lo suficientemente bien como para hacer manipulación.
  •     2022: ChatGPT3 convence a todo el mundo de que el lenguaje natural va a funcionar lo suficientemente bien como para impulsar productos reales.
  •     2023: Tesla publica vídeos de sus robots humanoides. Las empresas de capital riesgo se dan cuenta y la financiación de humanoides es de repente mucho más asequible.
  •     2024: La clonación del comportamiento para su manipulación empieza a funcionar lo suficientemente bien como para demostraciones y vídeos técnicos.


2023 ha sido testigo de un tsunami de avances en el campo de la robótica, impulsado en gran medida por la proliferación de Foundation Models. Este avance no sólo ha sido tecnológico, sino también filosófico en términos de investigación.

Desde el punto de vista tecnológico, hemos visto cómo los avances en robótica han incorporado modelos específicos como GPT-3, PaLI y PaLM. Además, se han adoptado algoritmos de aprendizaje y componentes arquitectónicos como la autoatención y la difusión, aprovechando conjuntos de datos e infraestructuras subyacentes como VQA y CV.

Pero quizá el aspecto más emocionante haya sido el cambio de mentalidad en la investigación robótica. Este año marca un hito en la adopción de la filosofía del modelado de fundamentos: una ferviente creencia en el poder de la escalabilidad, las diversas fuentes de datos, la importancia de la generalización y las capacidades emergentes. Por primera vez, no nos limitamos a teorizar sobre la aplicación de estos principios a la robótica, sino que los ponemos en práctica.

¿Cómo hemos llegado a este apasionante punto?


Todo empezó en 2022, cuando la humanidad descubrió (o creó) lo más parecido a un artefacto mágico alienígena: los Grandes Modelos de Lenguaje (LLM). Estos "artefactos" funcionaban sorprendentemente bien en varios dominios del razonamiento lingüístico, pero no sabíamos muy bien cómo aplicarlos a la robótica.

A mediados de 2022, parecía que podíamos mantener el LLM en una "caja" controlada, ayudando en la planificación y el razonamiento semántico, pero sus resultados seguían siendo abstracciones de alto nivel. Al final de este primer acto, se decidió que el control de bajo nivel -la parte difícil de la robótica- aún debía desarrollarse internamente, quizá inspirándose en el LLM pero manteniéndolo separado de su funcionamiento arcano.

Este primer contacto entre la robótica y los LLM fue intrigante y emocionante, pero aún no transformador. Sin embargo, sentó las bases para los avances revolucionarios que hemos visto en 2023.

El siguiente texto está extraído de la página oficial de NVIDIA (marzo de 2024), y ha sido traducido libremente:

NVIDIA acaba de anunciar el Proyecto GR00T, un modelo básico de propósito general para robots humanoides, diseñado para impulsar su trabajo en pro de la robótica y la IA incorporada.

Como parte de esta iniciativa, la compañía también ha presentado un nuevo ordenador, Jetson Thor, para robots humanoides basado en el sistema en chip (SoC) NVIDIA Thor, así como importantes mejoras en la plataforma robótica NVIDIA Isaac™, que incluyen modelos de base de IA generativa y herramientas para simulación e infraestructura de flujo de trabajo de IA.

Fuente


En otras palabras, no van a construir robots, sino a desarrollar modelos básicos de uso general para robots (humanoides). Es decir, lo que quieren es algo así como desarrollar chips con software para poder entrenar robots más rápidamente, y que éstos sean capaces de entrenarse para muchas tareas.

Uno de los mayores problemas del entrenamiento de robots es que si este entrenamiento se hace con RL (aprendizaje por refuerzo), requiere miles y miles de experimentos, y esto es extremadamente costoso en términos de tiempo.

Los robots impulsados por GR00T, siglas de Generalist Robot 00 Technology, estarán diseñados para entender el lenguaje natural y emular movimientos observando las acciones humanas, con lo que aprenderán rápidamente coordinación, destreza y otras habilidades para navegar, adaptarse e interactuar con el mundo real.


Explicado de forma sencilla, NVIDIA pretende desarrollar el aprendizaje de los robots a través de lo que los investigadores denominan "aprendizaje por imitación". No es una técnica nueva, sino la otra alternativa a la RL para entrenar robots y hacer que aprendan nuevas tareas. En el aprendizaje por imitación, los modelos aprenden a realizar tareas, por ejemplo, imitando las acciones de un humano que teleopera un robot o utilizando un casco de realidad virtual para recoger datos sobre un robot. Se trata de una técnica que ha estado de moda durante décadas, pero que últimamente se ha hecho más popular entre los robots que realizan tareas de manipulación.

Así que, de hecho, NVIDIA está tratando de crear algunos chips que consuman poco y permitan a los robots de otros fabricantes ser capaces de aprender tareas de propósito general con más facilidad. Y de hecho, creo que la reducción del consumo energético será clave para la hipotética masificación de los robots en las industrias y la sociedad. Según Ted Xiao estas son las principales tendencias para el entrenamiento de robots con LLM, que se pueden consultar en su estupendo blog:


En realidad, Google presentó SayTap en julio de 2023 para comunicarse con un perro robot mediante órdenes. Desde entonces, se han logrado grandes avances.


Teniendo en cuenta la interacción humano-robot requerida, ahora tiene sentido para mí la apuesta de Meta por sus gafas VR Ray-Ban, o los movimientos de Apple hacia adelante controlando robots con smartphones, que creo que es el objetivo final.




Comparte:

5/7/24

La historia de la publicación científica (II)

Tal y como describí en mi última post, el sistema actual de revisión por pares tiene su germen en el siglo XVIII, comenzó a involucrar a revisores externos a mediados del siglo XIX y no se volvió habitual hasta mediados del siglo XX.

La revisión por pares se convirtió en la piedra angular del método científico, pero hasta finales del siglo XIX la realizaba a menudo directamente un editor en jefe o un comité editorial. Los editores de revistas científicas en ese momento tomaban decisiones de publicación sin buscar la opinión de expertos externos, y dando por lo tanto más libertad a los propios autores. Por ejemplo, los cuatro artículos revolucionarios de Albert Einstein, comúnmente conocidos como Annus Mirabilis, y publicados en el número de 1905 de Annalen der Physik, fueron evaluados por el editor en jefe de la revista, Max Planck, y su coeditor, Wilhelm Wien, ambos futuros ganadores del Premio Nobel y expertos en los temas de estos artículos. En una ocasión mucho más tarde, Einstein criticó severamente el proceso de revisión externa, diciendo que no había autorizado al editor en jefe a mostrar su manuscrito "a los especialistas antes de imprimirlo" e informándole que "publicaría el artículo en otro lugar." – lo cual hizo, con modificaciones sustanciales.

Si bien algunas revistas médicas comenzaron a designar sistemáticamente revisores externos, sólo a partir de mediados del siglo XX esta práctica se extendió ampliamente y los revisores externos obtuvieron cierta visibilidad dentro de las revistas académicas, incluido el agradecimiento de los autores y editores. ¿Qué pasó? Sigamos detallando la historia.


Las revistas no eran las únicas instituciones destinadas a evaluar la calidad de la ciencia. En los organismos de financiación, la evaluación externa de las propuestas de subvención era bastante rara antes de la Segunda Guerra Mundial. Las organizaciones benéficas, como la Fundación Rockefeller, por ejemplo, generalmente dejaban las decisiones de financiación en manos de sus empleados, a quienes se confiaba la tarea de evaluar internamente si un científico merecía una subvención, independientemente de que entendieran o no la ciencia en juego. Las organizaciones de subvenciones asociadas con gobiernos o sociedades científicas eran más propensas a utilizar arbitraje externo, aunque la práctica no era de ninguna manera universal.

Tanto las revistas como los organismos de financiación comenzaron a poner más énfasis en el arbitraje externo después de la Segunda Guerra Mundial. Una de las razones del cambio hacia el arbitraje en las revistas fue la carga cada vez mayor que pesaba sobre los editores a medida que aumentaba el número de científicos (y artículos científicos) debido a la generosa financiación científica durante la Guerra Fría. Aunque a principios de siglo las revistas hacían todas las tareas de revisión internamente, en la década de 1950, los miembros del consejo editorial del semanario estadounidense Science se quejaron de quela tarea de revisar y sugerir revisiones para cientos de artículos técnicos no un trabajo nada placentero ni satisfactorio”, y acordó comenzar a enviar artículos a expertos externos. De manera similar, cuando se fundó el American Journal of Medicine en 1946, su editor Alexander Gutman quería ofrecer a sus autores una publicación rápida (¿les suena familiar hoy en día?) y decidió gestionar las aceptaciones y rechazos casi exclusivamente por su cuenta. Sin embargo, a medida que la revista se hizo más popular, Gutman no pudo mantener el ritmo de la producción científica y, en la década de 1960, él también comenzó a enviar artículos para obtener opiniones externas.

Pero la creciente carga de trabajo en las revistas científicas no explica cómo el arbitraje se volvió crucial para la idea misma de rigor científico. El vínculo entre el arbitraje y la legitimidad científica parece haber surgido tras el dramático aumento de la investigación patrocinada por el gobierno en los Estados Unidos de la posguerra. Entre 1948 y 1953, el gasto federal en investigación científica en Estados Unidos se multiplicó por 25. La expansión masiva de la financiación gubernamental llevó a una mayor atención pública a los científicos y a peticiones de que la ciencia debería rendir más cuentas ante el público y ante el Congreso de los EE.UU. Los científicos, por otro lado, no estaban muy entusiasmados con la idea de que sus propuestas de subvención fueran evaluadas por personas sin formación científica.

La tensión entre esta rendición de cuentas y la autonomía científica alcanzó su punto máximo a mediados de la década de 1970, durante una controversia sobre las subvenciones de investigación otorgadas por la Fundación Nacional de Ciencias (NSF). Los primeros años de la década de 1970 fueron una época de creciente crisis económica para Estados Unidos, y tres legisladores, los congresistas republicanos John Conlan y Robert Bauman, y el senador demócrata William Proxmire, lanzaron una serie de ataques públicos contra subvenciones específicas que había otorgado la NSF. Los tres hombres acusaron a la NSF de otorgar subvenciones frívolamente (principalmente en ciencias sociales) y de desperdiciar el dinero de los contribuyentes en proyectos como un plan de estudios de sociología para la escuela secundaria y un estudio del estrés en ratas y monos. Bauman y Proxmire argumentaron que la mala toma de decisiones de la NSF justificaba mucho más control del Congreso sobre las subvenciones que concedían. No pensemos en un renovado interés de los políticos por la ciencia: simplemente se trataba de la campaña política que Jimmy Carter (que llegó a la presidencia en 1976) desplegó contra muchas instituciones en Washington.

En ese momento, los revisores de las revistas y de los pocos organismos de financiación que las utilizaban sistemáticamente habían llegado a esperar que sus identidades permanecieran en secreto para los autores, y el director de la NSF, H. Guyford Stever, consideró la solicitud de Conlan como una ruptura importante con el protocolo científico. Curiosamente, a mediados de la década de 1970 también fue el momento en que los estadounidenses llamaban cada vez más al arbitraje con un nuevo término: “revisión por pares” (peer review, en inglés).

Probablemente, el resto de la historia sea más conocida para los lectores actuales, y muchos de ellos conocerán el proceso secreto de revisión por pares que se lleva a cabo hoy en día para publicar un artículo de investigación en cualquier revista o conseguir una subvención. Sin embargo, la perversa creación del índice H como una de las peores ideas para medir el desempeño científico, la proliferación de revistas depredadoras, el aumento de los precios de publicación y las dificultades para la replicabilidad de los experimentos han convertido esta actividad en una locura, y han llevaron a perder gran parte de su rigor y prestigio incluso entre los científicos y la sociedad.

ChatGPT y su capacidad para crear textos largos que suenan naturales sobre cualquier tema científico ha traído las últimas malas noticias a este mundo, y aquí hay solo algunos enlaces a algunos de los síntomas más importantes de un sistema de publicación o perdición agonizante que está a punto de sufrir un gran impacto. implosión, con suerte:

Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons