Inteligencia artificial, robótica, historia y algo más.

11/2/25

¿Debería el Gobierno alemán salvar a Lilium eVTOL de la quiebra?

Mientras que los LLMs, OpenAI, DeepSeek y todas estas empresas atraen la mayoría de los titulares hoy en día, me gustaría escribir este post y recordar una vez más, que los LLMs podrían no ser la única idea tecnológica a la que deberíamos prestar atención. Como muchos adivinaréis, apuesto fuerte por la revolución robótica que se avecina, y como una pequeña pieza de todos esos cambios, recordemos la situación del mercado de eVTOL (aerotaxis). En particular, la situación de Lilium.

En octubre de 2024 advertí en este blog que en el mercado eVTOL habría sangre.

Como puede leerse en el post anterior, Lilium se enfrentaba a la quiebra si no recibía un préstamo del Gobierno alemán. Dos semanas después, la empresa planeaba declararse insolvente y solicitar una reestructuración supervisada por el Gobierno, según una declaración presentada ante la Comisión del Mercado de Valores de Estados Unidos. Esto significa que Lilium se enfrentaba a un riesgo significativo de quiebra o cierre si no conseguía fondos adicionales.

La empresa había solicitado un préstamo de 50 millones de euros (54 millones de dólares) al Gobierno alemán, pero los legisladores denegaron la petición este mes, según la presentación. El mercado de eVTOL es un sector que requiere mucho capital. Las reglas de la competición eVTOL son sencillas: invertir todo el dinero que se pueda en conseguir la certificación necesaria para volar y la producción en serie -que ahora cuesta unos 1.500 millones de dólares-, y conseguir dinero de los inversores para seguir quemando efectivo. El primero que lo consiga, gana la partida.

El flujo de caja operativo fue de 159 millones de euros en el primer semestre de 2024. 100 millones de euros ni siquiera bastaron para cubrir un semestre. Es un gasto impresionante para una empresa que no genera beneficios. Lilium ha gastado casi 1.500 millones de euros desde el principio hasta la construcción de los primeros prototipos para la campaña de pruebas de vuelo.

Esto podría hacernos pensar que OpenAI no es rentable en absoluto. De hecho, podría ser un modelo de negocio horrible. Pero Microsoft y el Gobierno de EE.UU. tienen fe en mantener las pérdidas financieras de esta empresa hasta que alcance la AGI, que según el acuerdo entre Microsoft y OpenAI se logrará cuando la startup pueda generar al menos 100.000 millones de dólares de beneficios en un año.



Sin embargo, Lilium ha adoptado una estrategia peligrosa, culpando de su difícil situación financiera a la falta de apoyo de los gobiernos europeos. Argumentan que, a diferencia de sus homólogos estadounidenses o chinos, Europa no ofrece un apoyo adecuado a las nuevas empresas de alta tecnología. En consecuencia, la dirección afirma que las opciones de la empresa se reducen a la insolvencia o al traslado al extranjero.

Puede que sea cierto, pero no debemos descartar las voces críticas que también se han alzado sobre esta empresa alemana. Una de las voces técnicamente más firmes que he encontrado procede de Iceberg Research, una sociedad de inversión que identifica importantes tergiversaciones de beneficios e irregularidades contables en los estados financieros emitidos por empresas públicas. Similar a Gotham City, o a muchas otras. Cito aquí las palabras exactas del informe de Iceberg Research (en traducción libre personal):

Después de nueve años y un gasto de 1.500 millones de dólares, el avión de Lilium es incapaz de volar más de unos minutos.


Si se leen las relaciones públicas de Lilium, es fácil tener la impresión de que la empresa está muy cerca de comercializar su eVTOL. El bombardeo de relaciones públicas es una serie de grandes hitos, desde nuevos «clientes» y asociaciones, hasta una nueva línea de montaje, una «revolucionaria tecnología de baterías», etc. Todo parece listo.

Pero la pregunta es sencilla: «¿Durante cuánto tiempo puede volar ese eVTOL?». La respuesta es apenas cinco minutos y medio -sin pasajeros ni carga-, según los últimos datos disponibles. Después de nueve años y un gasto de 1.500 millones de dólares, Lilium ha construido lo que es esencialmente un gran dron de corto alcance. Esto es aún más problemático para una empresa que se ha posicionado como proveedor de transporte regional, más que como empresa de movilidad aérea urbana.

En cambio, su competidor Joby Aviation ha demostrado su capacidad para volar 154,6 millas en 1 hora y 17 minutos. En los últimos cuatro años, Joby ha realizado más de 1.500 vuelos de prueba, entre ellos unos 100 con piloto a bordo. Toyota se alegró de invertir otros 500 millones de dólares en Joby a principios de mes. Los inversores de Lilium, como Tencent o el vehículo de inversión del fundador de Skype, parecen cansados de verter dinero en este pozo sin fondo.


En el origen de estos problemas se encuentran las malas decisiones tomadas desde el principio, cuando unos pocos jóvenes licenciados eligieron ventiladores en conducto para la propulsión, mientras que la mayoría de sus colegas optaron por hélices. Numerosos expertos en aeronáutica criticaron desde el principio el diseño de los ventiladores en conducto, demasiado ambicioso para las baterías disponibles en la actualidad y en un futuro próximo. No se les dio importancia, pero el tiempo les ha dado la razón. Le sugiero que no pierda de vista este informe técnicamente asequible.



La historia de Lilium no es simplemente la de unos directivos demasiado optimistas que eligieron la tecnología equivocada. Ante el escepticismo sobre la autonomía de sus baterías, Lilium optó por engañar a sus inversores sobre las capacidades de sus baterías y parece bastante improbable que esas baterías cumplan las condiciones que la empresa promete.

Por otra parte, esta empresa eVTOL, con sus operaciones en Alemania y su registro holandés, se presenta como un candidato natural para recibir ayudas del gobierno europeo. Sin embargo, su accionariado está cada vez más dominado por la china Tencent Holdings.

Actualmente, Tencent posee el 22,0% de Lilium, y esa participación podría aumentar hasta el 38,1%, a través de 160,2 millones de warrants en circulación, que Tencent recibió a cambio de aportar 100 millones de dólares de financiación en mayo de 2023.




Sin embargo, ¡la historia continúa! El 24 de diciembre de 2024, Lilium anunció la firma de un acuerdo de compra de activos con Mobile Uplift Corporation GmbH, una empresa creada por un experimentado consorcio de inversores de Europa y Norteamérica. La empresa eVTOL esperaba obtener financiación suficiente para reiniciar sus operaciones comerciales. De hecho, se anunció que los nuevos accionistas tenían previsto invertir más de 200 millones de euros en la empresa insolvente.

Lamentablemente, en el momento de escribir estas líneas, todavía no se han pagado los salarios de enero de 2025 y el futuro de la empresa sigue siendo muy dudoso.

Ya veremos.





Comparte:

26/1/25

El nuevo Proyecto Manhattan y la carrera por la inteligencia artificial general

En junio de 2024, un documento sacudió a la comunidad tecnológica. «Situational Awareness: The Decade Ahead», escrito por el antiguo investigador de OpenAI Leopold Aschenbrenner, presentaba una visión detallada y sorprendentemente precisa del futuro de la inteligencia artificial. Sin embargo, la historia que hay detrás del autor me llama tanto la atención como el documento.

Leopold Aschenbrenner dejó la empresa apenas un mes antes que el responsable de su equipo, Ilya Sutskever, a quien dedicó su artículo. Leopold, que ahora tiene 23 años, es un becario de Emergent Ventures de Tyler Cowen. Fue a la Universidad de Columbia con 15 años y se graduó en 2021 como valedictorian.

Aschenbrenner, que trabajó en el equipo encargado de desarrollar una IA segura de OpenAI durante los años críticos del desarrollo de GPT-4, fue despedido en circunstancias controvertidas a principios de 2024. Se dijo que había filtrado información confidencial de OpenAI, aunque el grado de secreto de esta información es inexistente, según él. Su marcha coincidió con un periodo de intenso debate interno sobre la seguridad y el ritmo de desarrollo de la IA. A pesar de su salida, o quizá debido a ella, publicó un tratado de 165 páginas sobre el futuro de la IA, «Situational Awareness», un análisis exhaustivo que ha demostrado ser notablemente preciso en sus predicciones sobre el desarrollo de la IA.

Lo que hace especialmente fascinante este documento es su asombrosa capacidad para predecir varios avances clave en IA que hemos visto materializarse en los últimos meses. Desde el crecimiento explosivo de la capacidad computacional hasta los problemas de seguridad nacional, las predicciones de Aschenbrenner han demostrado ser algo más que meras especulaciones...




Coincidencias

Leopold opina que Estados Unidos debería ponerse en pie de guerra para desarrollar una IA avanzada y utilizarla para dominar el mundo, para que China no llegue antes. En opinión de Leopold, la próxima media década aproximadamente será el periodo más decisivo de la historia de la humanidad y las siguientes citas están extraídas de su documento (las negritas son mías):

La carrera hacia la AGI ha comenzado. Estamos construyendo máquinas que pueden pensar y razonar. Para 2025/26, estas máquinas superarán a muchos graduados universitarios. Al final de la década, serán más inteligentes que usted o yo; tendremos superinteligencia, en el verdadero sentido de la palabra. En el camino, se desatarán fuerzas de seguridad nacional no vistas en medio siglo, y en poco tiempo, El Proyecto estará en marcha.


Y considera que es su deber dar la voz de alarma:

Dentro de poco, el mundo despertará. Pero ahora mismo, hay unos pocos cientos de personas, la mayoría en San Francisco y en los laboratorios de IA, que tienen conciencia de la situación. Por alguna peculiar fuerza del destino, me he encontrado entre ellos. Hace unos años, estas personas eran tachadas de locas, pero confiaban en las líneas de tendencia, lo que les permitió predecir correctamente los avances de la IA en los últimos años. Queda por ver si estas personas también aciertan en los próximos años. Pero son personas muy inteligentes, las más inteligentes que he conocido, y son las que están construyendo esta tecnología. Quizá sean una extraña nota a pie de página en la historia, o quizá pasen a la historia como Szilard, Oppenheimer y Teller. Si están viendo el futuro aunque sea de forma correcta, nos espera un viaje salvaje.



He leído rápidamente el artículo. Este es mi crudo resumen de su tesis:

- Quien controle la AGI tendrá un poder abrumador, económico, militar y de otro tipo. Por lo tanto, quien llegue primero estará en posición de gobernar el mundo, potencialmente a perpetuidad.

- Sería malo que se tratara del pueblo equivocado, por ejemplo, China. La única forma de evitarlo es que Estados Unidos y sus aliados lleguen primero.

- Es probable que todo esto ocurra en 2030.

- Alcanzar la AGI, especialmente a ese ritmo, requerirá inversiones multimillonarias en chips, generación de electricidad y otras necesidades. Por lo tanto, nosotros (de nuevo, Estados Unidos y sus aliados) deben ponerse en pie de guerra: reunir recursos, suspender las protecciones medioambientales e imponer estrictos requisitos de seguridad.

Tal vez te hayas asombrado como yo al darte cuenta de que suspender las protecciones medioambientales y la fuerte inversión en chips es exactamente lo que Donald Trump ha firmado esta semana en sus primeras órdenes ejecutivas.



Paralelismo con el Proyecto Manhattan

Quizá lo más importante es que Aschenbrenner previó la transformación del desarrollo de la IA en una prioridad de seguridad nacional. La creciente implicación de las agencias gubernamentales y la creciente preocupación por las vulnerabilidades de seguridad de los laboratorios de IA han validado sus advertencias. La entrada de la NSA en el consejo de OpenAI, o los primeros acuerdos entre el Departamento de Defensa de EEUU y las Big Techs de GenAI lo demuestran (noticia de dic 2024).

Una de las contribuciones más significativas de Aschenbrenner fue poner de manifiesto las graves vulnerabilidades de seguridad de los principales laboratorios de IA. Sus advertencias sobre posibles robos de datos y espionaje precedieron a varios incidentes de gran repercusión, como la reciente detención de un ciudadano chino por el presunto robo de código de IA de una importante empresa tecnológica.

China ya se dedica al espionaje industrial generalizado; el director del FBI declaró que la RPC tiene una operación de piratería mayor que «todas las grandes naciones juntas». Y hace solo un par de meses, el Fiscal General anunció la detención de un ciudadano chino que había robado código clave de IA de Google para llevárselo a la RPC (en 2022/23, y probablemente solo sea la punta del iceberg).



La predicción más controvertida de Aschenbrenner -que el desarrollo de la IA acabaría requiriendo un proyecto dirigido por el gobierno similar al Proyecto Manhattan- suscitó inicialmente escepticismo. Sin embargo, el anuncio esta semana del Proyecto Stargate ha sido calificado por muchos expertos como la Carrera Espacial del siglo XXI, o el Nuevo Proyecto Manhattan. En esencia, el Proyecto Stargate AI es una asociación entre OpenAI, Oracle y SoftBank que pretende construir una red de centros de datos de última generación para dar forma al futuro del desarrollo de la IA. La iniciativa comienza con una inversión de 100.000 millones de dólares en su primera fase, que se ampliará a 500.000 millones en cuatro años. ¿El objetivo? Impulsar las innovaciones de vanguardia en IA al tiempo que se crean más de 100.000 nuevos puestos de trabajo, estableciendo a EE.UU. como líder mundial en infraestructura y desarrollo de IA.

Aunque algunos tachan a Aschenbrenner de alarmista, su historial de predicciones acertadas exige atención. A medida que asistimos a la aceleración del desarrollo de la IA, sus advertencias sobre la necesidad de una mayor seguridad, un desarrollo responsable y la cooperación internacional se hacen cada vez más difíciles de ignorar.

La cuestión no es si las predicciones de Aschenbrenner se harán realidad -muchas ya lo han hecho. La cuestión es si tendremos en cuenta sus advertencias sobre los retos que nos esperan y tomaremos las medidas necesarias para garantizar un desarrollo seguro y responsable de la IA.

Ya veremos.





Comparte:

9/1/25

OpenAI supera el Muro con o3. ¿Estamos más cerca de la IA general?

Hace unos días, en los últimos coletazos de 2024, OpenAI dio un auténtico bombazo en el mundo tecnológico con el lanzamiento de su sistema de inteligencia artificial o3. Desde entonces, ha dado lugar a muchísimo debate y especulaciones sobre cómo de cerca estamos respecto de la inteligencia artificial general, y si finalmente, hemos tirado abajo el Muro del que se venía hablando en los últimos meses. Lo que ha presentó se está considerando como un antes y un después en el desarrollo de estos sistemas de grandes modelos de lenguaje. Para explicar en qué ha consistido este hito, hoy os traigo este artículo del blog. Empecemos por el inicio:

A lo largo del último par de años, no hemos parado de sorprendernos con distintos lanzamientos de los sistemas LLM (Large Language Model, Grandes Modelos de Lenguaje). Para no enrollar demasiado el post, me voy a centrar exclusivamente en OpenAI, dejando a un lado a su competencia:

La empresa liderada por Sam Altman parecía que había entrado en una espiral de éxito sin parangón y que iba a la cabeza de la carrera tecnológica por el dominio de esta tecnología de inteligencia artificial. En 2021 empezó a rompernos la cabeza y prendió la mecha con su modelo GPT3, posteriormente en 2022 desarrolló ChatGPT, y en marzo de 2023 finalmente lanzó GPT4. Parecía imparable. Cada vez "alucinaba" menos en sus respuestas, y era capaz de entender textos más complejos y tener una comprensión mayor del lenguaje natural, y además, los GPT se volvieron multimodales y comenzaron a aceptar texto, imágenes y audio.


Sin embargo, a partir del lanzamiento de GPT4, OpenAI fue perdiendo comba, y sus rivales le fueron alcanzando en la carrera tecnológica. Según parecía, GPT5 tardaría en salir, y los progresos no estaban siendo todo lo rápidos que a Sam Altman le gustaría. Por si eso no fuera poco, el jefazo de la empresa sufrió un golpe de estado a final de 2023 por parte de su directiva, con su posterior vuelta a la empresa unas semanas más tarde y la purga de casi todos sus compañeros de mesa. Pero volvamos al meollo técnico: OpenAI nunca se ha caracterizado por dar muchas explicaciones de cómo construía sus LLM, por eso, solo podíamos elucubrar sobre cómo funcionaba su inteligencia artificial, y por qué estaba fallando para llegar al próximo GPT5 y acercarnos un poco más a la inteligencia artificial general, que es oficialmente la esencia de la existencia de OpenAI.

Aparentemente, avanzar en el desarrollo de esta inteligencia artificial era cuestión de incorporar más datos y de escalar el sistema. Es decir, lo que parecía que buscaban las empresas eran textos con los que entrenar a sus grandes sistemas, y que el avance en este sistema de inteligencia artificial era cuestión de tamaño. Pero había varios problemas. Por un lado, por aquella época se especuló si los datos reales, los generados por usuarios, se habían agotado. Quizás era la hora de echar mano de lo que llamamos datos sintéticos.

Por otro lado, entrenar con sus servidores y tarjetas GPU requería tal cantidad de recursos, que OpenAI tuvo que hacer una maniobra empresarial para poder levantar más capital de Microsoft y afrontar todos los gastos. Además, entrenar con tantos miles de millones de datos requería una cantidad de energía sin parangón.

Pero es que además, entrenar con más cantidad de datos no estaba dando resultado.

El genio técnico detrás de todos los GPT, Ilya Sutskever, era uno de los que defendía que hacía falta esa cantidad de nueva información. Sin embargo, cuando fue purgado de la junta directiva de OpenAI y se lanzó a crear su nueva startup, comenzó a defender justo lo contrario, y argumentaba que el empleo de más datos para mejorar la inteligencia artificial estaba llegando a sus límites. Donde dije Digo digo Diego. A este fenómeno, es lo que una voz referente de la inteligencia artificial, Gary Marcus, es lo que llamó "el Muro". Acuñó la expresión deep learning is hitting a wall en marzo de 2022. Era el muro que los algoritmos empleados hasta la fecha no podían superar.


Por lo que se había logrado descubrir, OpenAI empleaba un tipo de entrenamiento para sus redes de transformers basados en aprendizaje supervisado, y deep learning. Posteriormente, de cara al afinado de los modelos, empleaba la técnica conocida como aprendizaje por refuerzo con retroalimentación humana (RLHF).

Pero ya por fin nos plantamos en 2024, y concretamente en septiembre del ya pasado año, OpenAI cambió la denominación de sus LLM y lanzó el modelo o1. Este modelo dejó muy buenas sensaciones, ya que parecía que la empresa de Altman volvía a la senda del progreso, y además este modeló demostró que lograba muy buenos resultados en distintos tipos de problemas matemáticos para los cuales GPT4 ofrecía muy malas respuestas. También el modelo o1 fue un cambio de paradigma, y es que comenzó a emplear para el entrenamiento de sus datos el algoritmo del aprendizaje por refuerzo como su técnica principal.

Para entender este concepto y que nos hagamos una idea del cambio de propuesta, podemos imaginar que a los modelos antiguos (los GPTs) los investigadores de OpenAI les daban la mejor vuelta rápida que hacía un Formula 1, y los LLM se dedicaban a imitar esa trayectoria, velocidad, giros de volante, etc. Sin embargo, con o1 los investigadores han comenzado a entrenar a sus LLM dándoles el dibujo del circuito, y que los algoritmos descubran cuál es la vuelta rápida por ellos mismos. Con este cambio, o1 se volvió un modelo que tardaba más tiempo que sus predecesores en dar una respuesta a nuestros prompts, pero era capaz de "razonar" parecido a un humano y de dar respuestas mucho más acertadas a ese tipo de problemas de ingenio.

Finalmente, como colofón a este nuevo impulso y entusiasmo por los nuevos modelos, y casi por sorpresa, OpenAI presentó en diciembre su modelo o3 (no nos hemos perdido: la compañía se ha saltado el modelo o2 por posibles problemas de copyright con la empresa de telecomunicaciones).

El sistema o3 ha sorprendido aún más a la comunidad tecnológica por su capacidad de razonamiento y por obtener una nota muy alta en el test ARC-AGI, creado por François Chollet. Chollet es un investigador francés y uno de los referentes en inteligencia artificial. Se hizo famoso hace algunos años gracias a su extenso artículo On the measure of intelligence, a lo largo del cual se planteaba cómo se podía medir la inteligencia y el progreso de las máquinas, y las dificultades para hacerlo. Y para hacerlo, desarrolló su test, que consiste principalmente en la resolución de problemas de ingenio representados mediante gráficos y diferentes imágenes, los cuales deberían ser resueltos por el humano medio. En el ARC-AGI, o3 logró un 75,7% en modo “bajo coste” y un 87,5% en modo “alto coste, lo cual es un salto enorme, ya que el modelo o1 logró un 21%. Es un test que hasta ahora ningún modelo de inteligencia artificial había sido capaz de estar tan cerca de resolver.



El o3 consume una barbaridad de recursos de entrenamiento y empleo, además de que tarda muchísimo en proporcionar las respuestas que se le piden. Por esta razón, nosotros no lo tendremos a nuestra disposición hasta dentro dentro de un tiempo, durante el cual la velocidad de los algoritmos y su consumo energético se hayan optimizado.

Por lo tanto, muchos titulares han corrido a afirmar que OpenAI por fin ha roto el Muro que le impedía avanzar. ¿Estamos más cerca de una inteligencia artificial general? No tanto, ya que o3 demostró que aunque es capaz de resolver problemas de ingenio y matemáticos mejor que sus predecesores, ofrece peores respuestas en el lenguaje natural. Es decir, parece que la gente de OpenAI no logra una generalización de su LLM y que sirva para todo. Así que puede que se haya roto un muro, pero que surjan nuevos obstáculos en el futuro. Pero eso es harina de otro costal, y tenemos 2025 por delante para ver lo que nos deparará el futuro.

Estamos viviendo una época fascinante.




Comparte:

30/12/24

2024, un año de lecturas

Espero que los lectores de este blog hayan tenido unas Felices Fiestas y que aún guarden fuerzas para lo que queda. Como viene siendo habitual en el blog, toca hacer balance de lo que ha sido el año en cuando a lecturas. Normalmente, incluía en esta entrada todo lo que leía, pero este año de nuevo he sido particularmente prolífico, así que me voy a limitar a poner mis mejores lecturas. Para quien quiera curiosear un poco más, en mi perfil de Goodreads puede leer las reseñas del resto de libros que no aparecen aquí.



Disrupción: mi desventura en la burbuja de las startups (Dan Lyons)
Si algo aprendimos viendo la fenomenal ‘Silicon Valley’ de HBO es que la realidad supera a la ficción: muchas de sus tramas entremezclaban parodia con realismo en un grado en el que costaba identificar qué era cada cosa. Cosas de las tecnológicas en San Francisco y alrededores.

El libro ‘Disrupción’ está escrito por su protagonista, Dan Lyons, un periodista de Newsweek que fue despedido y acabó trabajando tres años antes en el departamento de marketing de HubSpot, una startup de marketing que hoy ya vale casi 40.000 millones de dólares. En sus páginas contaba lo que encontró en las paredes de aquella startup en la que la cultura dominante tenía poco que ver con un señor de cincuenta años nuevo en el sector. Y recuerda mucho a las seis temporadas de ‘Silicon Valley’. La cultura de la exageración y de la hipérbole hasta lo absurdo, la innovación como dogma que chafa cualquier otro principio y sobre todo la cultura del trabajo llevada a límites insanos... que acaban haciendo reír por ridículos. Eso sí, con sufrimiento para quien los vive en sus carnes.

'Disrupción' es un libro, sobre todo, entretenido para el entusiasta de la tecnología. No desvela nada demasiado nuevo para la gran mayoría de la gente: el ambiente en las startups es absorbente y tóxico hasta el punto de mentir sobre los empleados que renuncian, haciendo creer que han sido despedidos; o ejerciendo represalias sobre los que no acuden a las actividades fuera del entorno laboral para "hacer equipo".

Un ejemplo aleatorio de esta cultura corporativa ocurre cuando la empresa comunica al autor su intención de despedirle por no confiar en él... y a los pocos días le exige significarse como "comprometido al cien por cien" antes de entregarle la responsabilidad del podcast de la compañía. Por supuesto, Lyons afirmó estarlo, aclarando en estas páginas que no mintió: lo estaba hasta que encontrase algo mejor, entonces no dudaría en huir de la empresa. Una anécdota que bien resume las más de 300 páginas de este título.

Y sobre todo, 'Disrupción' habla del choque de las expectativas con la realidad, de la necesidad de reinventarse cuando hace mucho que las canas asoman, de sentirse fuera de lugar y tener que lidiar con ello porque el entorno ya no deja muchas más opciones, ni siquiera en un mercado laboral tan dinámico como el estadounidense.La década del auge tecnológico malacostumbró a los empleadores, que ven normalizado tener a su disposición Lamborghinis que también tengan ruedas para rodar por el barro. Y lo mejor de todo: Lyons confiesa no saber bien qué hacía en su cargo, no solo al llegar, sino también al salir de la empresa. La mirada a un mundo con el que ya es imposible conectar y comprender por mucho empeño que se ponga. Y la sensación de que la culpa no es suya.

'Disrupción' será disfrutado especialmente por quien, además de estar al tanto del espíritu de Silicon Valley y su evolución durante los años diez, agradece el humor mordaz, las frases de facciones duras, el desahogo de quien está de vuelta de todo pero tiene que pasar por el aro hasta que puede contarlo sin temor a represalias. El poder llamar a las cosas por su nombre, empezando por publicar una foto de inversores multimillonarios posando con sus Google Glass tras invertir en ellas y explicar abiertamente lo que fue de ellas, por mucho que resurgieran de sus cenizas sin demasiado éxito ocho años después. Resulta que el dinero inteligente se equivocó.

Me ha hecho reír, me ha informado, me ha hecho sentirme en la piel del autor... y por todo eso, ójala 6 estrellas.



El mito de la Inteligencia Artificial: Por qué las máquinas no pueden pensar como nosotros lo hacemos (Erik Larson)
Cuando cerré este libro, terminé con un subidón enorme y con la sensación de haber leído una de las mejores obras científicas que han caído en mis manos. Creo que esta obra sí que es una obra de lectura y no un libro de consulta, pero nos exige una lectura lenta, paladeando bien todos los conceptos y echando atrás y adelante en varias ocasiones para entender bien todo lo que nos quiere decir.

El libro se estructura en capítulos muy técnicos. Una primera parte es casi matemática, sin fórmulas, pero sí con hipótesis que marcaron el rumbo de la investigación sobre inteligencia artificial. Por ello, estos capítulos se dedican a explicar de qué hipótesis de partida comenzó Alan Turing, su influencia de David Hilbert y su determinismo, y cómo Gödel vino a cambiarlo todo. También analiza diferentes enfoques y razonamientos sobre el test de Turing, y me ha dado a conocer otros, como el test de Winograd, o el test de monólogos.

Posteriormente, el autor se sumerge con gran detalle en tres modos de extraer información del entorno a partir del conocimiento: la deducción, la inducción y la abducción. Hay que hilar muy fino para establecer la diferencia entre estos modos, ya que es muy corriente que los mezclemos en el habla popular. Sin embargo, uno de los grandes personajes - y bastante olvidados- que estableció estas bases fue Charles Pierce.

Por último, a partir de las explicaciones de esos tres modos, el libro dedica una extensa conclusión a defender que la IA no puede llegar a pensar como nosotros lo hacemos, porque no es capaz de tener un sentido común, ya que tampoco en la naturaleza hemos logrado parametrizar cómo se consigue este conocimiento.

El libro menciona mucho a otros grandes autores de la inteligencia artificial, como Gary Marcus, o Hector Levesque y su Machines like Us: Toward AI with Common Sense, que intenta parametrizar cómo sería computacionalmente la búsqueda del sentido común.

No es un libro sencillo, ni quizás sea el más adecuado a leer para alguien sin conocimientos previos sobre estos conceptos. La obra, en mi opinión, es sublime, pero para alguien menos iniciado en la IA, le recomiendo el excelente libro Inteligencia artificial: Guía para seres pensantes, de Melanie Mitchell.



Falsa alarma: Por qué el pánico ante el cambio climático no salvará el planeta (Bjørn Lomborg)
Este libro debería ser de obligada lectura para todo aquél interesado en el cambio climático. No pone en duda en ningún momento este fenómeno planetario, pero sí que pone el dedo en la llaga sobre los titulares que llegan a los periódicos, y la necesidad de ser críticos con ellos y leer la letra pequeña. Por ejemplo, un titular muy habitual de nuestros días puede ser "investigadores demuestran que en 100 años, el agua cubrirá Holanda". Sin embargo, si nos dirigimos a la fuente del estudio del que se extrae este titular, la hipótesis es que ocurrirá esto "si no se hace nada". O también es curioso cómo The Guardian en su libro de estilo obligó a cambiar la manera de referirse al cambio climático, como "emergencia climática"

El libro es una crítica al alarmismo que están generando los medios de comunicación, y cómo los políticos están implementando medidas regulatorias, que en opinión del autor, van en detrimento o apenas palían el problema climático. Entre ellas, está el despliegue masivo de las energías renovables como método de reducción del CO2.

La obra está llena de referencias, de gráficas sencillas, todo se entiende perfectamente y está correctamente referenciado a los estudios científicos correspondientes. Y no solo eso, también el autor analiza los pactos por el Clima alcanzados en los últimos años, y cómo son esencialmente una herramienta sencilla para que los políticos puedan blanquear sus responsabilidades ante los ciudadanos.

Por supuesto, el autor también se moja y da otras posibles estrategias que apuntan a que podrían tener más éxito en la reducción del aumento de temperatura, y cómo también el problema climático es un problema económico.

Un libro para leer y releer. Lo tengo lleno de post-its.



El maestro Juan Martínez que estaba allí (Manuel Chaves Nogales)
El autor de esta obra, Chaves Nogales es sobre todo, periodista e hijo de periodista, y sus libros rezuman crónicas periodísticas noveladas de gran originalidad y maestría. Ha sido un autor olvidado en España por el guerracivilismo, pero poco a poco se le está rescatando como un gran autor.

El maestro Juan Martínez que estaba allí es un libro de 320 páginas y no es una novela histórica al uso, más bien son crónicas noveladas. Su protagonista es el bailaor Juan Martínez, que era de Valladolid, existió realmente, y en Francia contó a Chaves Nogales sus peripecias. A continuación, éste las plasmó en la presente obra, que transmite las crónicas en directo de la revolución soviética.

A los protagonistas Juan Martínez y su mujer Sole, la política les trae al pairo, por ello no hacen críticas morales o políticas, sencillamente describe la Revolución bolchevique de octubre de 1917 y la guerra civil. Hechos que viven desde Kiev, Moscú, San Petersburgo, Gómel, Minsk, u Odesa. Trata de ser independiente, imparcial, aunque se aprecia con nitidez que le desagradan los bolcheviques.

El escenario principal de la acción ocurre en Moscú y en Kiev principalmente. En ellos, se describe cómo eran aquellos días de revuelo, violencia, desorientación y pillaje propias de las épocas de guerra. Personalmente, me han impactado algunos episodios de estos meses, a fin de cuenta esta obra es un libro a caballo entre el disfrute y el aprendizaje de una época a través de las voces y descripciones de los protagonistas y lo que se encontraban.

Las cosas que Martínez cuenta, porque las vio, fueron puestas en entredicho por muchos miles de hombres, que se negaron a admitir el fracaso de aquella revolución. (...) He aquí toda la fuerza de este libro que se deja leer como un reportaje admirable. Y aunque dijéramos que se lee como una novela, conviene recordar que es sobre todo como una novela como no deberíamos leerlo.

Me ha encantado el libro por su sobriedad y buena prosa.




Cómo morimos: Reflexiones sobre el último capítulo de la vida (Sherwin B. Nuland)

Todos queremos saber cómo es la muerte, aunque pocos estén dispuestos a admitirlo.

No sé ni cómo empezar la reseña de este libro. Me ha superado. Sherwin Nuland contó que «lo que importa no es cómo morimos, sino cómo hemos vivido». La sacudida vida de Nuland salvó a muchas en el quirófano, enseñó a otras en sus clases universitarias e inspiró más a través de su bibliografía.

Rara vez he visto mucha dignidad en el proceso de morir.

Con esta obra, ganó el National Book Award y fue finalista de un premio Pulitzer. Con él empezó una interesante carrera literaria que le hizo abandonar la medicina para siempre.

Nuland te coge por el cuello, te sienta en una silla, y comienza a hablar de la fisiología de la muerte, de cómo fallan los órganos, de qué sienten los pacientes, de cuál es el rincón del corazón al que le ha tocado ser el eslabón más débil de la cadena. Y eso lo hace con diferentes formas de morir, una por capítulo: infarto, alzheimer, suicidio, la vejez, el SIDA, la demencia...

El doctor no escatima en detalles y describe cual maestro para material de examen todos los apuntes necesarios para que nos acordemos en el examen de nuestras últimas horas. O en el examen de alguien allegado a nosotros. No es un libro para hipocondríacos. Parece que puedan fallar tantas cosas, que lo milagroso sea estar vivo.

Pero al mismo tiempo, Nuland habla sobre experiencias personales, cómo afrontan los médicos la muerte, episodios donde el familiar al que hubo que asesorar sobre el mejor tratamiento en sus últimos meses, fue el suyo. ¿Qué es mejor: resolver el enigma de la muerte, saber exactamente qué está fallando en el paciente e intentar alargarle un poco la vida, sin conocer a ciencia cierta el coste, o recomendarle que no merece la pena luchar?

La puerta se abrió y Dave entró precipitadamente en la habitación. Con una mirada captó toda la escena y la comprendió. Mis hombros se estremecían y mi llanto era ya descontrolado. Bordeando la cama se dirigió a donde yo estaba y, entonces, como si fuésemos actores de una vieja película de la Segunda Guerra Mundial, me pasó el brazo por el hombro y me dijo muy suavemente: «Está bien, muchacho, está bien. Has hecho todo lo que has podido.»

Es una obra didáctica, cruda, de terror, a veces emociona, a menudo reflexiona sobre la esencia de lo humano, y en definitiva, esta obra no va de la muerte, sino de la vida.

En un libro titulado Merchant and Fnar, el historiador del siglo XIX Sir A. Palgrave escribía: «En la primera pulsación, cuando las fibras se estremecen y los órganos cobran vida, está el germen de la muerte. Antes de que nuestros miembros cobren forma, está cavada la estrecha tumba en la que serán sepultados». Empezamos a morir con el primer acto de vida.




Incógnito (David Eagleman)

Un ensayo alejado de las ínfulas científicas que suelen regir este tipo de estudios. Un libro de esos a los que me suelo referir como «libro de mesita de noche», pues resultará necesario acudir a él en cualquier momento, para revisitar algún párrafo o capítulo concreto.

Para los que no solemos leer este tipo de literatura, os aseguro que marcará un punto de inflexión en vuestra forma de entender el mundo. No hay nada más apasionante que viajar hacia las profundidades del ser humano.

Los datos que Eagleman vierte en las páginas de Incógnito resultan tan impresionantes como didácticos. Un intento de aproximación a los misterios que encierra la mente y nuestro comportamiento cotidiano, el cual, parece responder más a criterios inconscientes que a nuestra propia voluntad.

La mayor parte de las decisiones que tomamos en el día a día las realiza una especie de ente misterioso que nos habita, por lo que el mérito no recae en nosotros, entendidos como sujetos conscientes, sino en una explosión de conexiones que van más allá de nuestra razón y nuestra capacidad de decisión. David Eagleman es uno de esos investigadores que niega el libre albedrío, sino que nuestras acciones son el fruto neuroquímico de nuestro cerebro.

Cuenta David Eagleman que las conexiones realizadas en tan solo centímetro cúbico de nuestro cerebro superan los granos de arena que podemos contar en una playa o las estrellas que cuelgan en nuestro sistema solar.

La consciencia es como un diminuto polizón en un transatlántico, que se lleva los laureles del viaje sin reconocer la inmensa obra de ingeniería que hay debajo.

Una vez superado el impacto inicial que la lectura provoca en el profano, Incógnito: las vidas secretas del cerebro se sumerge en los recónditos escondrijos de nuestra mente, en los rincones más oscuros.

Además, David Eagleman plantea un curioso estudio que se mueve entre el derecho y la responsabilidad del ser humano en determinados sucesos atroces. Todos conocemos el caso de esa persona que se subió a un campanario y decidió disparar sobre los peatones que circulaban por una céntrica plaza de Estados Unidos. Al parecer su comportamiento fue errático, eligiendo sus víctimas de forma aleatoria, por el simple azar. La policía logró abatir al asesino. Tras realizarle una autopsia encontraron un tumor cerebral del tamaño de una moneda de cinco céntimos.

Otro caso similar: una persona que una noche se despertó y sin más, asesinó a su mujer y a su suegra. Otro tumor. O un paciente que acudía a la pornografía infantil de forma repentina hasta que le lograron extirpar un bulto en su cabeza. Lo curioso es que cuando esa enfermedad se le volvió a reproducir, volvió a realizar actos horribles relacionados con la pedofilia.

¿Hasta qué punto es responsable de estos actos deleznables la persona en cuestión? Parece demostrado que estas personas actuaron por impulsos químicos provocados por fallos severos en su cerebro. ¿Debería cambiar el derecho penal de nuestra sociedad?

Nos creemos responsables de todas las acciones y pequeñas decisiones que tomamos en nuestro día a día. Quizás, solo quizás, no lo seamos en tanta medida como creíamos. En esta sociedad esclavizada por la inmediatez, el ser humano se ve empujado a grandes dilemas morales y a asumir responsabilidades de las que nos sentimos responsables, creando una sensación extraña que nos abruma y nos arrastra a la desolación.

Un libro científico, pero tremendamente humano, curioso y de prosa rápida.




Diario de una soledad (May Sarton)

Este diario de May Sarton transcurre como un tranquilo río que va mostrando sus lodos, sus piedras del fondo, sus mareas y sus cambios de luz conforme el tiempo pasa y las horas pasan. Desde el principio se hace necesario tomarlo como lo que es: una memoria íntima y activa, una muestra de escritura luminosa y una efervescente mirada a su alrededor. El oficio de escritora de May Sarton está aquí al servicio de la verdad y por eso es tan fácil y tan delicado sumirse en el interior de lo que va narrando, con tanto detalle, despacio, abiertamente.

«Empiezo aquí. Está lloviendo”. Estas son sus palabras iniciales. Con sencillez observa lo que ocurre desde su ventana y ese primer párrafo es revelador. Pues no hay nada que sea «vida real» más allá de ese tiempo de intimidad absoluta en su propia casa, cuando el ruido cesa y la gente no está. «Ni los amigos, ni siquiera los amores apasionados, son mi vida real».

No me despojéis de mi edad. Me la he ganado”. El libro tiene un aire melancólico, casi triste, apesadumbrado, evidente. No es solo su título, tan descriptivo, ni su intención, encontrar algo que le devuelva el entusiasmo perdido, sino también el devenir de sus páginas, con relatos sencillos pero profundos en los que cada día tiene un tono diferente, aunque todos los días parecen mostrarse como una pérdida que se va acumulando.

De sus palabras se desprende una difícil dicotomía entre la vida de relaciones sociales y esos momentos de soledad que transcurren en su casa, el centro de un mundo que es propio y que no parece contaminado por el exterior. Es ella misma cuando contempla las flores que la rodean, analiza sus colores, su olor y su forma; cuando vuelve hacia dentro la mirada para hallarse, en una búsqueda permanente que puede encontrarse también en otros textos con carácter autobiográfico. La escritura es un talismán, una puerta abierta a la comprensión y una manera de sortear los peligros del mundo.

He estado pensando que, por muy terribles tormentas que nos sacudan, si el armazón de nuestra vida es lo bastante estable y fructífero, nos ayudará a resistir sus devastadoras secuelas

La vida nos viene en pequeños racimos: un racimo de soledad, y luego otro racimo que apenas nos deja tiempo para respirar

¿Por qué me resulta tan terrible implicarme en la venta de mis libros? ¿Cómo puede una escritora de mi generación sobrevivir a esa enorme maquinaria?


Este es un libro para leerlo despacio, para leerlo poco a poco, para subrayarlo, para anotar sus frases. Acompaña y muestra, sin ánimo de moraleja pero con sinceridad, una parte de vida que puede resultar reconocible y, sobre todo, tierna, anhelante, invencible en su pequeñez. Lo he disfrutado muchísimo.



El problema de Bill Gates (Tim Schwab)
En los últimos suspiros de 2024 me crucé con esta obra, y cuando ya pensaba que ningún libro me gustaría tanto como lo que ya había leído en esta vuelta al Sol, ¡zas! Va, y El problema de Bill Gates me pone la cabeza del revés y no he parado de recomendárselo a varios amigos.

Tim Schwab es un periodista de investigación y parte de la premisa de desmontar ese halo de bondad y caridad que parece desprender Bill Gates tras aparecer en las noticias únicamente para anunciar que ha donado cientos de millones de dólares a alguna causa benéfica en el Tercer Mundo, normalmente relacionada con educación, vacunas o erradicación de enfermedades.

Sin embargo, el autor de este libro, a través de varios capítulos, describe el siniestro funcionamiento de la Fundación Bill y Melinda Gates, y desmonta su faceta benéfica a través de cientos de entrevistas y documentos públicos. Cada capítulo está dedicado a un área diferente de las actividades de la Fundación: fiscalidad a la que está sometida y oscurantismo que eso le facilita; área de educación; área de fabricación de vacunas; lobby farmacéutico; lobby agroalimentario...

A pesar del gran número de páginas de esta obra, se lee muy fácil, y a lo largo de cada capítulo se argumenta cuál parece la razón de ser principal de la Fundación Bill Gates y qué persigue. Desde establecer un relato entre las autoridades, hasta hundir competencia farmacéutica de las principales empresas, perpetuar la propiedad intelectual de las vacunas, o allanar el camino a su empresa Microsoft en un país.

Cualquier reseña que haga no hace justicia a este libro, por la cantidad de información que hay, el Imperio del Mal que se dibuja, y la constante permisividad de las autoridades por que existan estos supermillonarios que marcan la agenda pública de las naciones y organismos internacionales.





Comparte:

28/12/24

La Renta Básica Universal no debe condicionarse a la Robotización

Estamos inundados de experimentos piloto de renta garantizada que ofrecen algunos resultados prometedores, pero que no parecen acercarnos a una política federal real. Sin embargo, me gustaría rescatar en este post algunos hallazgos publicados a partir del mayor experimento aleatorizado de renta básica en Estados Unidos hasta la fecha, respaldado por Sam Altman y OpenAI.

El estudio, realizado entre noviembre de 2020 y octubre de 2023, dio a 1.000 beneficiarios 1.000 dólares al mes, sin absolutamente ninguna condición. Es uno de los mayores y más largos ensayos jamás realizados sobre la entrega directa de dinero en efectivo. Muchos otros proyectos piloto de renta básica han dado a la gente 500 dólares o menos, y rara vez durante más de uno o dos años.

Aunque el estudio fue dirigido por un grupo de académicos, fue puesto en marcha por Sam Altman, CEO de OpenAI. Durante años, Altman se ha preocupado públicamente de que la renta básica será necesaria a medida que la IA elimine los empleos tradicionales y cree enormes reservas de riqueza en manos de unos pocos. Altman no es el único. Muchas figuras importantes del mundo de la tecnología, desde Elon Musk hasta el «padrino de la IA», Geoffrey Hinton, creen que la IA marcará el comienzo de una ola de desempleo tecnológico y que la renta básica será necesaria para mantenernos a todos a flote.

Sin embargo, el argumento permanente de vincular una renta básica a la automatización y la IA y los temores a un rápido progreso de la IA la hacen mucho más vulnerable de lo necesario. Si no se produce una gran ola de desempleo impulsada por la IA, o si estalla la burbuja de la IA, el apoyo a la renta básica también caería.



Muchos partidarios de la renta básica creen que el próximo despliegue de la IA generada en nuestra sociedad e industrias acabará por hacer necesaria una renta básica. El argumento de que la renta básica universal es necesaria para luchar contra la automatización no surgió, por supuesto, de Sam Altman.

Uno de los defensores más acérrimos de la idea es el expresidente del Sindicato Internacional de Empleados de Servicios Andy Stern, que defendió la renta básica en su libro de 2016 Raising the Floor. También es la base de los argumentos más optimistas y arrolladores de la izquierda a favor de la renta básica, como en libros como el recomendable Four Futures de Peter Frase o Inventing the Future de Nick Srnicek y Alex Williams.


Resultados del experimento de Altman

El estudio repartió cheques mensuales a personas de entre 21 y 40 años que vivían en Texas e Illinois. Para poder optar a ellos, sus ingresos familiares en 2019 tenían que ser inferiores al 300% del umbral federal de pobreza: eso significaría 77.250 dólares para una familia de cuatro miembros, o 37.470 dólares para un individuo. El ingreso familiar promedio del participante en 2019 fue de alrededor de $ 30,000. Mil personas fueron asignadas aleatoriamente al grupo de tratamiento y recibieron la totalidad de los 1.000 dólares mensuales, mientras que otras 2.000 formaron parte de un grupo de control que recibió 50 dólares al mes.

Los beneficiarios gastaron una media de 310 dólares más al mes, sobre todo en vivienda, comida y automóvil. En conjunto, sin embargo, sus ingresos disminuyeron unos 125 dólares al mes, excluidas las transferencias. El descenso de los ingresos se debió en gran medida a que los beneficiarios optaron por trabajar un poco menos (ya que, gracias a las transferencias, seguían saliendo ganando). En total, la participación en el mercado laboral disminuyó un 2%, lo que equivale a trabajar 1,3 horas menos a la semana, es decir, unos ocho días menos de trabajo al año.

Los investigadores constataron que los participantes utilizaron los fondos para comprar artículos de primera necesidad, como alimentos, alquiler y transporte, y no vicios. Aunque el dinero no pudo solucionar problemas de salud subyacentes ni revertir años de acceso inadecuado a la atención sanitaria, los participantes también pudieron dedicar más tiempo a su atención sanitaria, con más probabilidades de ir al dentista y un 26% más de visitas al hospital que el grupo de control.


La organización ha publicado un trío de trabajos de investigación sobre sus conclusiones.

En cuanto a si el dinero cambió la relación de los beneficiarios con el mercado laboral, los investigadores afirman que los resultados muestran que, de nuevo, depende. En general, ambos grupos trabajaron un poco más al final del periodo de estudio, en parte porque los pagos empezaron cuando la pandemia de Covid-19 hacía estragos y terminaron cuando la economía empezó a recuperarse. Eso no significa que todos trabajaran lo mismo: Por término medio, las personas que recibían las ayudas completas de 1.000 dólares al mes trabajaban algo más de una hora menos a la semana que las que recibían 50 dólares al mes. Las familias monoparentales, sobre todo, parecían reducir ligeramente las horas de trabajo, una opción que, según los investigadores, les permitía aceptar empleos más flexibles y pasar más tiempo con sus hijos. Y este punto es muy importante, y se tratará en el siguiente apartado:


¿Funcionó el experimento de Sam Altman?

Antes de entrar en los resultados, para aquellos que aún no estén familiarizados con los hallazgos anteriores, aquí está la conclusión de un estudio revisado por pares de 2020 de 38 estudios:

«A pesar de una búsqueda detallada, no hemos encontrado pruebas de una reducción significativa de la oferta de mano de obra. En cambio, encontramos pruebas de que la oferta de mano de obra aumenta globalmente entre adultos, hombres y mujeres, jóvenes y mayores, y la existencia de algunas reducciones insignificantes y funcionales del sistema, como una disminución de trabajadores de las siguientes categorías: Niños, ancianos, enfermos, discapacitados, mujeres con hijos pequeños a su cargo o jóvenes que siguen estudiando. Estas reducciones no reducen la oferta global, ya que se compensa en gran medida con el aumento de la oferta procedente de otros miembros de la comunidad.»


Hemos podido leer en muchas noticias que el experimento UBI de Sam Altman fracasó, ya que demostró que la gente prefería el tiempo libre. Sin embargo, profundicemos de nuevo en los datos:

En total, la participación en el mercado laboral disminuyó un 2%, lo que equivale a trabajar unas 1,3 horas menos a la semana, o aproximadamente ocho días menos de trabajo a lo largo de un año.


La razón de que los padres respondan de forma diferente debería ser obvia. No están trabajando menos. Están pasando del trabajo remunerado al no remunerado. Están dando prioridad a sus hijos. Si cuesta 1.200 dólares al mes ganar algo menos o apenas más de 1.200 dólares al mes, un trabajo no tiene sentido. Recordemos que todos los participantes en este proyecto piloto eran mayores de 21 años y menores de 40, y que sabemos por experimentos anteriores de renta básica que los adultos jóvenes tienden a elegir más educación y menos empleo.

Así que no me asusta rechazar que la gente se vuelva perezosa cuando recibe una renta básica. Quizá deberíamos replantearnos este marco de la RBU y hablar también del Ocio Básico Universal.

Tal vez haya llegado el momento de cambiar nuestra perspectiva sobre la RBU y alejarnos tanto de la narrativa de la automatización de la IA como del debate demasiado simplificado de «perezoso frente a trabajador». El valor real del experimento de Altman, como el de muchos otros anteriores, reside en mostrar cómo los ingresos garantizados permiten a las personas tomar decisiones significativas sobre su tiempo y su trabajo. La modesta reducción de 1,3 horas en el trabajo semanal no se debió a que la gente abandonara la productividad, sino a que los padres pasaban más tiempo con sus hijos, los adultos jóvenes seguían estudiando y los participantes tomaban decisiones estratégicas sobre su equilibrio entre trabajo y vida privada. En lugar de ver el UBI como una solución al futuro desplazamiento de la IA o como una prueba de la motivación humana, deberíamos verlo como una herramienta que da a las personas la libertad de contribuir a la sociedad de formas que no siempre se reflejan en las métricas laborales tradicionales. La cuestión no es si la gente trabajará o no, sino más bien cómo podrían trabajar de forma diferente cuando se les da la oportunidad de elegir de verdad.

Ya veremos.





Comparte:

20/12/24

¿Y si el pánico por la inteligencia artificial solo fuera un negocio movido por unos pocos?

Una vez leí sobre la estrategia de negocio que seguía OpenAI en 2024:

    1- Afirmar que la IA puede hacerlo todo.

    2- Recaudar toneladas de dinero de los inversores.

    3- Decir a los gobiernos que la IA es muy peligrosa y que la IA de código abierto debería ser regulada hasta su desaparición.

    ....

    Beneficios

El pánico a la IA no es sólo el miedo a las nuevas tecnologías que se produjo a lo largo de la historia con la radio, la imprenta, los libros, la electricidad, los coches o los ascensores, como tantas veces hemos recogido en este blog. Hablo de que el pánico a la IA puede ser impulsado por personas concretas que sólo quieren crear una narrativa falsa sobre la inteligencia artificial, que distraiga a la opinión científica y popular de otros aspectos de esta revolución.

¿Para qué sirve este tipo de narrativa? Probablemente la mejor respuesta sea: seguir el dinero. Si los gobiernos están convencidos por fundaciones aparentemente independientes de que la IA puede provocar un apocalipsis tan grande para la sociedad y la economía, probablemente regularían tan fuertemente el sector de la IA, que ningún nuevo competidor podría entrar en el mercado. Igual que ocurre ahora con la electricidad. Sólo estoy especulando sobre por qué este pánico-como-negocio se está expandiendo.

A principios de 2024, la CNBC publicó que los grupos de presión a favor de la IA en el Congreso estadounidense se habían disparado un 185%, al tiempo que aumentaban las peticiones de regulaciones. Sin embargo, la historia aún no es digna de una serie de Netflix. Según la autora Nirit Weiss-Blatt, que publica el excelente blog AI PANIC, el movimiento de pánico a la IA está perfectamente engrasado y alimentado con toneladas de dinero. En particular, habla del Effective Altruism Center, que según ella, son uno de los principales financiadores del Riesgo Existencial. Ella ha hecho un gran trabajo de investigación y defiende que:

El 17 de noviembre de 2023, Sam Altman fue despedido por el Consejo de Administración de OpenAI: Ilya Sutskever, Adam D'Angelo, y dos miembros con claros vínculos con el Altruismo Eficaz, Tasha McCauley y Helen Toner. Su vaga carta dejó a todos con más preguntas que respuestas. Desató especulaciones, CEOs interinos (por ejemplo, Emmett Shear) y una revuelta de los empleados (de más de 700 empleados de OpenAI). La reacción de la junta directiva fue de silencio total.


Una semana después, el 24 de noviembre, Steven Pinker enlazó a un artículo del Wall Street Journal sobre cómo el drama de OpenAI «mostraba la influencia del Altruismo Efectivo».

Los acontecimientos que condujeron a la saga del golpe siguen sin explicación. No obstante, se convirtió en una llamada de atención sobre el poder del movimiento del Altruismo Efectivo, que está «sobrealimentado por cientos de millones de dólares» y se centra en cómo la inteligencia artificial avanzada (IA) «podría destruir a la humanidad.» Parecía más claro que «el Altruismo Eficaz degeneraba en alarmismo de extinción».

En pocas palabras, según el movimiento Altruismo Eficaz, el problema más acuciante del mundo es evitar un apocalipsis en el que una Inteligencia Artificial General (IAG) extermine a la humanidad.


Con el respaldo de multimillonarios, este movimiento financió numerosos institutos, grupos de investigación, grupos de reflexión, subvenciones y becas bajo la marca de la Seguridad de la IA. Los Altruistas Eficaces suelen alardear de su «construcción de campo»:

Ellos «fundaron el campo de la seguridad de la IA y lo incubaron desde la nada» hasta este punto.


El solapamiento entre el movimiento Effective Altruism, el riesgo existencial y la seguridad de la IA formó una subcultura influyente. A pesar de ser un grupo marginal, sus miembros han conseguido que el escenario de la «extinción humana por culpa de la IA» pase de la ciencia ficción a la corriente dominante. La pregunta es: ¿cómo?

Y la respuesta a esta pregunta es la estrategia follow-the-money que Weitt-Blass cubre en su blog, y rastrea algunas transferencias de Bitcoin y otras financiaciones entre algunas viejas celebridades conocidas, como el omnipresente Elon Musk y algunos otros criptobros y gente oscura. Permítanme presentarlos:



Buterin es el fundador de la criptomoneda Ethereum y afirmó que «el riesgo existencial es un gran problema» y que «hay serias posibilidades» de que la Inteligencia Artificial (IA) «se convierta en la nueva especie ápice del planeta.»

«Una forma en que la IA que salga mal podría empeorar el mundo es (casi) la peor posible: podría causar literalmente la extinción humana», escribió Buterin. «Una IA superinteligente, si decide volverse contra nosotros, bien podría no dejar supervivientes, y acabar con la humanidad para siempre».

Según un artículo de TechCrunch de enero de 2015, cuando Elon Musk donó 10 millones de dólares al Future of Life Institute (FLI), fue «para asegurarse de que la IA no siga el camino de Skynet

Para Musk tenía sentido financiar el FLI, ya que se dedicaba (y sigue dedicándose) a los riesgos existenciales. Su descripción en el Foro de Effective Altruism es clarividente: «FLI es una organización sin ánimo de lucro que trabaja para reducir el riesgo existencial de las tecnologías poderosas, en particular la inteligencia artificial».

El cofundador de FLI, Max Tegmark, comparte con frecuencia escenarios catastrofistas de la IA. «Hay muchas posibilidades de que no lo consigamos como humanos. No habrá humanos en el planeta en un futuro no muy lejano», dijo Tegmark en una entrevista. También se refirió a la IA como «el tipo de cáncer que mata a toda la humanidad».

Jaan Tallinn es un multimillonario tecnológico de Estonia. Siempre que se le pregunta a Tallinn qué le llevó a cofundar FLI (2014) y el Centro para el Estudio del Riesgo Existencial (2012), su respuesta es siempre la misma: Eliezer Yudkowsky. Al leer los escritos de Yudkowsky, se sintió intrigado por la Singularidad y los riesgos existenciales. Decidió entonces invertir una parte de su fortuna en esta causa.

La IA no es el único nicho tecnológico en el que se produce el cabildeo de la narrativa. También la energía nuclear, el cambio climático, el vehículo eléctrico o las criptomonedas son algunos de esos ejemplos.

De hecho, te sugiero que leas todos los detalles de la historia de la financiación y los movimientos de dinero en el blog AI Panic. Ahora vale la pena una serie de Netflix.





Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons