Una vez leí sobre la estrategia de negocio que seguía OpenAI en 2024:
1- Afirmar que la IA puede hacerlo todo.
2- Recaudar toneladas de dinero de los inversores.
3- Decir a los gobiernos que la IA es muy peligrosa y que la IA de código abierto debería ser regulada hasta su desaparición.
....
Beneficios
El pánico a la IA no es sólo el miedo a las nuevas tecnologías que se produjo a lo largo de la historia con la radio, la imprenta, los libros, la electricidad, los coches o los ascensores, como tantas veces hemos recogido en este blog. Hablo de que el pánico a la IA puede ser impulsado por personas concretas que sólo quieren crear una narrativa falsa sobre la inteligencia artificial, que distraiga a la opinión científica y popular de otros aspectos de esta revolución.
¿Para qué sirve este tipo de narrativa? Probablemente la mejor respuesta sea: seguir el dinero. Si los gobiernos están convencidos por fundaciones aparentemente independientes de que la IA puede provocar un apocalipsis tan grande para la sociedad y la economía, probablemente regularían tan fuertemente el sector de la IA, que ningún nuevo competidor podría entrar en el mercado. Igual que ocurre ahora con la electricidad. Sólo estoy especulando sobre por qué este pánico-como-negocio se está expandiendo.
A principios de 2024, la CNBC publicó que los grupos de presión a favor de la IA en el Congreso estadounidense se habían disparado un 185%, al tiempo que aumentaban las peticiones de regulaciones. Sin embargo, la historia aún no es digna de una serie de Netflix. Según la autora Nirit Weiss-Blatt, que publica el excelente blog AI PANIC, el movimiento de pánico a la IA está perfectamente engrasado y alimentado con toneladas de dinero. En particular, habla del Effective Altruism Center, que según ella, son uno de los principales financiadores del Riesgo Existencial. Ella ha hecho un gran trabajo de investigación y defiende que:
El 17 de noviembre de 2023, Sam Altman fue despedido por el Consejo de Administración de OpenAI: Ilya Sutskever, Adam D'Angelo, y dos miembros con claros vínculos con el Altruismo Eficaz, Tasha McCauley y Helen Toner. Su vaga carta dejó a todos con más preguntas que respuestas. Desató especulaciones, CEOs interinos (por ejemplo, Emmett Shear) y una revuelta de los empleados (de más de 700 empleados de OpenAI). La reacción de la junta directiva fue de silencio total.
Una semana después, el 24 de noviembre, Steven Pinker enlazó a un artículo del Wall Street Journal sobre cómo el drama de OpenAI «mostraba la influencia del Altruismo Efectivo».
Los acontecimientos que condujeron a la saga del golpe siguen sin explicación. No obstante, se convirtió en una llamada de atención sobre el poder del movimiento del Altruismo Efectivo, que está «sobrealimentado por cientos de millones de dólares» y se centra en cómo la inteligencia artificial avanzada (IA) «podría destruir a la humanidad.» Parecía más claro que «el Altruismo Eficaz degeneraba en alarmismo de extinción».
En pocas palabras, según el movimiento Altruismo Eficaz, el problema más acuciante del mundo es evitar un apocalipsis en el que una Inteligencia Artificial General (IAG) extermine a la humanidad.
Con el respaldo de multimillonarios, este movimiento financió numerosos institutos, grupos de investigación, grupos de reflexión, subvenciones y becas bajo la marca de la Seguridad de la IA. Los Altruistas Eficaces suelen alardear de su «construcción de campo»:
Ellos «fundaron el campo de la seguridad de la IA y lo incubaron desde la nada» hasta este punto.
El solapamiento entre el movimiento Effective Altruism, el riesgo existencial y la seguridad de la IA formó una subcultura influyente. A pesar de ser un grupo marginal, sus miembros han conseguido que el escenario de la «extinción humana por culpa de la IA» pase de la ciencia ficción a la corriente dominante. La pregunta es: ¿cómo?
Y la respuesta a esta pregunta es la estrategia follow-the-money que Weitt-Blass cubre en su blog, y rastrea algunas transferencias de Bitcoin y otras financiaciones entre algunas viejas celebridades conocidas, como el omnipresente Elon Musk y algunos otros criptobros y gente oscura. Permítanme presentarlos:
Buterin es el fundador de la criptomoneda Ethereum y afirmó que «el riesgo existencial es un gran problema» y que «hay serias posibilidades» de que la Inteligencia Artificial (IA) «se convierta en la nueva especie ápice del planeta.»
«Una forma en que la IA que salga mal podría empeorar el mundo es (casi) la peor posible: podría causar literalmente la extinción humana», escribió Buterin. «Una IA superinteligente, si decide volverse contra nosotros, bien podría no dejar supervivientes, y acabar con la humanidad para siempre».
Según un artículo de TechCrunch de enero de 2015, cuando Elon Musk donó 10 millones de dólares al Future of Life Institute (FLI), fue «para asegurarse de que la IA no siga el camino de Skynet.»
Para Musk tenía sentido financiar el FLI, ya que se dedicaba (y sigue dedicándose) a los riesgos existenciales. Su descripción en el Foro de Effective Altruism es clarividente: «FLI es una organización sin ánimo de lucro que trabaja para reducir el riesgo existencial de las tecnologías poderosas, en particular la inteligencia artificial».
El cofundador de FLI, Max Tegmark, comparte con frecuencia escenarios catastrofistas de la IA. «Hay muchas posibilidades de que no lo consigamos como humanos. No habrá humanos en el planeta en un futuro no muy lejano», dijo Tegmark en una entrevista. También se refirió a la IA como «el tipo de cáncer que mata a toda la humanidad».
Jaan Tallinn es un multimillonario tecnológico de Estonia. Siempre que se le pregunta a Tallinn qué le llevó a cofundar FLI (2014) y el Centro para el Estudio del Riesgo Existencial (2012), su respuesta es siempre la misma: Eliezer Yudkowsky. Al leer los escritos de Yudkowsky, se sintió intrigado por la Singularidad y los riesgos existenciales. Decidió entonces invertir una parte de su fortuna en esta causa.
La IA no es el único nicho tecnológico en el que se produce el cabildeo de la narrativa. También la energía nuclear, el cambio climático, el vehículo eléctrico o las criptomonedas son algunos de esos ejemplos.
De hecho, te sugiero que leas todos los detalles de la historia de la financiación y los movimientos de dinero en el blog AI Panic. Ahora vale la pena una serie de Netflix.
0 comentarios:
Publicar un comentario