/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN El Último Experimento ~ El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

20/10/25

El Último Experimento

Durante siglos, la ciencia se basó en una regla sencilla, casi moral: si un experimento no puede reproducirse, no es ciencia. Era una especie de mandamiento laico según el cual cualquiera debía poder verificar lo que uno afirmaba, y la verdad se ganaba con transparencia, método y paciencia. 

Hoy, ese principio suena tan pintoresco como un teléfono de disco. En la era de la inteligencia artificial, reproducir un experimento puede costar decenas o cientos de millones de dólares y requerir el suministro eléctrico de una ciudad pequeña. La curiosidad ya no es suficiente; ahora se necesita un centro de datos.

OpenAI, Google DeepMind, Anthropic, Meta: estos son los monasterios de la ciencia moderna, lugares donde los fieles siguen creyendo en el progreso, pero ya no pueden ver los rituales que hay detrás. Sus servidores son catedrales de computación: templos vastos y sellados donde se entrenan nuevas inteligencias, utilizadas por todos y comprendidas por nadie. La academia, mientras tanto, se queda con las oraciones, pero no con los recursos. 

Una universidad en Europa probablemente podría reproducir un experimento de los años 50, quizá incluso algo de física cuántica, pero replicar el entrenamiento de un modelo como GPT-4, cuyo coste se estima en casi 80 millones de dólares, sería tan realista como construir un acelerador de partículas en el sótano. Como resultado, la industria produce la gran mayoría de los modelos de aprendizaje automático más notables, mientras que las universidades, que tradicionalmente eran el motor de la investigación fundamental, se quedan atrás, perpetuando un desequilibrio donde casi el 70% de los nuevos doctores en IA son contratados directamente por el sector privado. Las universidades todavía forman científicos; simplemente tienen cada vez menos ciencia que hacer y menos poder para retener el talento. A esto se suma el nuevo coste de la visa para profesionales especializados que Trump acaba de anunciar: 100.000 $. Una chuchería para las empresas, pero una utopía para las facultades.


La caja negra y la nota de prensa


La inteligencia artificial se está convirtiendo en el primer campo de la ciencia sin un verdadero escrutinio externo. Las empresas publican resultados que nadie puede verificar, comparan sus modelos con baremos que ellas mismas diseñan y elaboran pruebas que siempre consiguen superar. La revisión por pares (ese ritual de humildad en el que los colegas podían desmontar tu argumento) ha sido sustituida por comunicados de prensa bien coordinados. 

Este problema no es exclusivo de la IA; otras disciplinas, como la psicología o la biomedicina, llevan años lidiando con su propia "crisis de reproducibilidad", donde un porcentaje alarmante de estudios no puede ser reproducido por otros investigadores. Sin embargo, la diferencia fundamental es que en esos campos la falta de reproducibilidad es un escándalo que destapa un fallo del sistema, mientras que en la IA se está convirtiendo en el sistema mismo. No hay malicia inherente en esto, solo economía. Y dondequiera que los negocios dictan el ritmo del descubrimiento, la verdad se convierte en un lujo, no en un deber.

Hace poco, Retraction Watch informó del caso de un anestesista que tuvo que retractarse de más de 220 artículos científicos (de momento), una cifra absurda que equivale a la producción de toda una vida de un grupo de investigación mediano. Su caída fue pública, dolorosa y, sobre todo, posible: alguien comprobó, alguien verificó, alguien encontró el fraude. Esa es la diferencia. En los escándalos científicos más antiguos, existía al menos una red de escrutinio, alguien más que podía dudar de ti. 

Los grandes modelos lingüísticos actuales, en cambio, son cajas negras. Nadie fuera de la empresa sabe cómo fueron entrenados, qué datos utilizaron o qué sesgos incorporaron. Y la parte más inquietante es que, incluso con las mejores intenciones, nadie podría replicar el experimento. La investigación en IA ya no se comparte, se licencia. El conocimiento se ha convertido en propiedad intelectual, sujeto a acuerdos de confidencialidad y secretos comerciales. La transparencia, que antes era un principio ético, es ahora un riesgo competitivo. En lugar de reproducir resultados, los investigadores se conforman con reproducir titulares: "OpenAI anuncia", "Google publica", "Anthropic mejora".

En el futuro, si alguna universidad llega a tener un millón de GPUs y puede comprobar ciertas afirmaciones, quizás a más de uno le saquen los colores.

Incluso los baremos se han vuelto corporativos. Cada empresa define su propio estándar, establece su propia prueba y se califica a sí misma, lo que genera dudas sobre su validez y conduce a un sobreajuste donde los modelos se optimizan para la prueba en lugar de para una capacidad general. Es como si cada estudiante trajera su propio examen y lo calificara con una estrella de oro. 


Suscríbase a la ciencia


La ciencia solía ser pública: llena de errores, revisiones, retractaciones. Ahora es privada, alojada en servidores remotos y protegida por términos de servicio. La pregunta no es solo quién es el dueño de los datos, sino quién es el dueño del derecho a equivocarse.

Quizá el futuro de la ciencia no dependa de la reproducción, sino de la fe. Fe en el comunicado de prensa, en el baremo, en el fundador visionario que jura que esta vez la máquina entiende de verdad. El problema no es que la verdad haya muerto, es que ha sido externalizada. 

El siguiente paso del método científico puede que no sea el experimento en absoluto, sino la clave de una API. Y quizá, dentro de unos años, el acto más radical de rebelión intelectual sea volver a hacer lo imposible: reproducir algo con nuestras propias manos.

Ya veremos.




Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons