En junio de 2024, un documento sacudió a la comunidad tecnológica. «Situational Awareness: The Decade Ahead», escrito por el antiguo investigador de OpenAI Leopold Aschenbrenner, presentaba una visión detallada y sorprendentemente precisa del futuro de la inteligencia artificial. Sin embargo, la historia que hay detrás del autor me llama tanto la atención como el documento.
Leopold Aschenbrenner dejó la empresa apenas un mes antes que el responsable de su equipo, Ilya Sutskever, a quien dedicó su artículo. Leopold, que ahora tiene 23 años, es un becario de Emergent Ventures de Tyler Cowen. Fue a la Universidad de Columbia con 15 años y se graduó en 2021 como valedictorian.
Aschenbrenner, que trabajó en el equipo encargado de desarrollar una IA segura de OpenAI durante los años críticos del desarrollo de GPT-4, fue despedido en circunstancias controvertidas a principios de 2024. Se dijo que había filtrado información confidencial de OpenAI, aunque el grado de secreto de esta información es inexistente, según él. Su marcha coincidió con un periodo de intenso debate interno sobre la seguridad y el ritmo de desarrollo de la IA. A pesar de su salida, o quizá debido a ella, publicó un tratado de 165 páginas sobre el futuro de la IA, «Situational Awareness», un análisis exhaustivo que ha demostrado ser notablemente preciso en sus predicciones sobre el desarrollo de la IA.
Lo que hace especialmente fascinante este documento es su asombrosa capacidad para predecir varios avances clave en IA que hemos visto materializarse en los últimos meses. Desde el crecimiento explosivo de la capacidad computacional hasta los problemas de seguridad nacional, las predicciones de Aschenbrenner han demostrado ser algo más que meras especulaciones...
Coincidencias
Leopold opina que Estados Unidos debería ponerse en pie de guerra para desarrollar una IA avanzada y utilizarla para dominar el mundo, para que China no llegue antes. En opinión de Leopold, la próxima media década aproximadamente será el periodo más decisivo de la historia de la humanidad y las siguientes citas están extraídas de su documento (las negritas son mías):
La carrera hacia la AGI ha comenzado. Estamos construyendo máquinas que pueden pensar y razonar. Para 2025/26, estas máquinas superarán a muchos graduados universitarios. Al final de la década, serán más inteligentes que usted o yo; tendremos superinteligencia, en el verdadero sentido de la palabra. En el camino, se desatarán fuerzas de seguridad nacional no vistas en medio siglo, y en poco tiempo, El Proyecto estará en marcha.
Y considera que es su deber dar la voz de alarma:
Dentro de poco, el mundo despertará. Pero ahora mismo, hay unos pocos cientos de personas, la mayoría en San Francisco y en los laboratorios de IA, que tienen conciencia de la situación. Por alguna peculiar fuerza del destino, me he encontrado entre ellos. Hace unos años, estas personas eran tachadas de locas, pero confiaban en las líneas de tendencia, lo que les permitió predecir correctamente los avances de la IA en los últimos años. Queda por ver si estas personas también aciertan en los próximos años. Pero son personas muy inteligentes, las más inteligentes que he conocido, y son las que están construyendo esta tecnología. Quizá sean una extraña nota a pie de página en la historia, o quizá pasen a la historia como Szilard, Oppenheimer y Teller. Si están viendo el futuro aunque sea de forma correcta, nos espera un viaje salvaje.
He leído rápidamente el artículo. Este es mi crudo resumen de su tesis:
- Quien controle la AGI tendrá un poder abrumador, económico, militar y de otro tipo. Por lo tanto, quien llegue primero estará en posición de gobernar el mundo, potencialmente a perpetuidad.
- Sería malo que se tratara del pueblo equivocado, por ejemplo, China. La única forma de evitarlo es que Estados Unidos y sus aliados lleguen primero.
- Es probable que todo esto ocurra en 2030.
- Alcanzar la AGI, especialmente a ese ritmo, requerirá inversiones multimillonarias en chips, generación de electricidad y otras necesidades. Por lo tanto, nosotros (de nuevo, Estados Unidos y sus aliados) deben ponerse en pie de guerra: reunir recursos, suspender las protecciones medioambientales e imponer estrictos requisitos de seguridad.
Tal vez te hayas asombrado como yo al darte cuenta de que suspender las protecciones medioambientales y la fuerte inversión en chips es exactamente lo que Donald Trump ha firmado esta semana en sus primeras órdenes ejecutivas.
Paralelismo con el Proyecto Manhattan
Quizá lo más importante es que Aschenbrenner previó la transformación del desarrollo de la IA en una prioridad de seguridad nacional. La creciente implicación de las agencias gubernamentales y la creciente preocupación por las vulnerabilidades de seguridad de los laboratorios de IA han validado sus advertencias. La entrada de la NSA en el consejo de OpenAI, o los primeros acuerdos entre el Departamento de Defensa de EEUU y las Big Techs de GenAI lo demuestran (noticia de dic 2024).
Una de las contribuciones más significativas de Aschenbrenner fue poner de manifiesto las graves vulnerabilidades de seguridad de los principales laboratorios de IA. Sus advertencias sobre posibles robos de datos y espionaje precedieron a varios incidentes de gran repercusión, como la reciente detención de un ciudadano chino por el presunto robo de código de IA de una importante empresa tecnológica.
China ya se dedica al espionaje industrial generalizado; el director del FBI declaró que la RPC tiene una operación de piratería mayor que «todas las grandes naciones juntas». Y hace solo un par de meses, el Fiscal General anunció la detención de un ciudadano chino que había robado código clave de IA de Google para llevárselo a la RPC (en 2022/23, y probablemente solo sea la punta del iceberg).
La predicción más controvertida de Aschenbrenner -que el desarrollo de la IA acabaría requiriendo un proyecto dirigido por el gobierno similar al Proyecto Manhattan- suscitó inicialmente escepticismo. Sin embargo, el anuncio esta semana del Proyecto Stargate ha sido calificado por muchos expertos como la Carrera Espacial del siglo XXI, o el Nuevo Proyecto Manhattan. En esencia, el Proyecto Stargate AI es una asociación entre OpenAI, Oracle y SoftBank que pretende construir una red de centros de datos de última generación para dar forma al futuro del desarrollo de la IA. La iniciativa comienza con una inversión de 100.000 millones de dólares en su primera fase, que se ampliará a 500.000 millones en cuatro años. ¿El objetivo? Impulsar las innovaciones de vanguardia en IA al tiempo que se crean más de 100.000 nuevos puestos de trabajo, estableciendo a EE.UU. como líder mundial en infraestructura y desarrollo de IA.
Aunque algunos tachan a Aschenbrenner de alarmista, su historial de predicciones acertadas exige atención. A medida que asistimos a la aceleración del desarrollo de la IA, sus advertencias sobre la necesidad de una mayor seguridad, un desarrollo responsable y la cooperación internacional se hacen cada vez más difíciles de ignorar.
La cuestión no es si las predicciones de Aschenbrenner se harán realidad -muchas ya lo han hecho. La cuestión es si tendremos en cuenta sus advertencias sobre los retos que nos esperan y tomaremos las medidas necesarias para garantizar un desarrollo seguro y responsable de la IA.
Ya veremos.