Inteligencia artificial, robótica, historia y algo más.

16/12/25

¿Por qué estoy en contra del aprendizaje personalizado con la IA?

En 2013, Max Ventilla, un ejecutivo estrella de Google, decidió que el sistema educativo era un algoritmo ineficiente que necesitaba ser refactorizado. Su solución fue AltSchool. Con 170 millones de dólares en capital de riesgo (respaldados por Mark Zuckerberg y Peter Thiel), AltSchool prometió el santo grial de la educación: la personalización total a través del Big Data.

Las aulas de AltSchool parecían el sueño húmedo de un ingeniero de visión por computador. Cámaras y micrófonos grababan cada interacción. Sensores rastreaban el movimiento. Los estudiantes no seguían un currículo; seguían "listas de reproducción" (playlists) generadas por software. La promesa era seductora: usar la misma tecnología que recomienda tu próxima serie en Netflix para recomendar tu próxima lección de matemáticas.

En 2019, AltSchool cerró sus puertas, admitiendo que el modelo era "económicamente insostenible" y pedagógicamente cuestionable. Los padres se quejaron de que sus hijos pasaban el día mirando pantallas; los profesores sufrieron un burnout masivo intentando alimentar a la máquina de datos.

¿Por qué falló una de las startups mejor financiadas de la historia EdTech? Porque cometieron el error clásico de la ingeniería aplicada a las humanidades: confundieron la optimización de la eficiencia con el acto de educar.


El Sueño Aristócrata y la Falacia de la Escala


La obsesión con el "Aprendizaje Personalizado" no es nueva. De hecho, es la forma más antigua y elitista de educación.

Piensen en John Stuart Mill o en Alejandro Magno. Ellos tuvieron la versión original del aprendizaje personalizado: un tutor humano experto (su padre o Aristóteles, respectivamente) dedicado enteramente a ellos. El tutor conocía sus debilidades, adaptaba el tono a su estado de ánimo y aceleraba o frenaba según la curiosidad del alumno.

El objetivo de la tecnología educativa (EdTech) siempre ha sido noble: democratizar ese privilegio aristocrático. Escalar a Aristóteles. Si pudiéramos darle a cada niño pobre un tutor digital en su bolsillo, cerraríamos la brecha de desigualdad.

HackEducation


Pero aquí es donde la industria nos vendió gato por liebre. Lo que Silicon Valley llama "personalización" hoy en día no es un tutor socrático. Es, en palabras de los investigadores Neil Selwyn y Caroline Pelletier, una estandarización disfrazada.

El software no te permite explorar caminos divergentes (como haría un tutor humano). El software optimiza la ruta más rápida entre el punto A (ignorancia) y el punto B (pasar el test). Si tardas más, el sistema no asume que estás reflexionando; asume que eres un bug en el proceso de ingestión de datos.



La Torre de Babel Semántica


Si preguntas a cinco ingenieros qué es el "Aprendizaje Personalizado", obtendrás cinco respuestas diferentes. Una revisión sistemática reveló un caos absoluto: la industria usa indistintamente términos como "adaptativo", "individualizado" y "personalizado".

Paradójicamente, el pasado mes de noviembre se produjo un repentino aumento de las búsquedas en Google de términos relacionados con la «educación personalizada», probablemente debido al anuncio de ChatGPT para educadores.


Es realmente curioso cómo Bill Gates ha definido el aprendizaje personalizado a lo largo de los últimos años.

La cruda realidad técnica es esta: el 90% de lo que se vende como "IA Personalizada" es simplemente instrucción individualizada. Es el mismo menú para todos los comensales, la única diferencia es que unos lo mastican rápido y otros lento. No hay adaptación real del contenido ni del método, solo del ritmo. Es el fordismo aplicado a la mente, pero con una interfaz de usuario más bonita.

Para entender por qué la EdTech moderna se siente tan fría, tenemos que mirar bajo el capó, hacia un paper que cambió la industria para siempre.

Hasta 2015, los sistemas de tutoría inteligente usaban modelos estadísticos transparentes (como el Bayesian Knowledge Tracing), basados en teorías cognitivas sobre cómo aprendemos. Pero en la conferencia NeurIPS 2015, Chris Piech y su equipo de Stanford presentaron el artículo titulado "Deep Knowledge Tracing".

Propusieron usar Redes Neuronales Recurrentes (LSTMs) para modelar el conocimiento del estudiante. Al alimentar a la red neuronal con millones de datos de aciertos y fallos, el modelo "Deep Learning" logró predecir con una precisión asombrosa (un 25% mejor que los modelos anteriores) si un estudiante fallaría la siguiente pregunta.

Desde el punto de vista de Computer Science, fue un triunfo. Pero desde el punto de vista pedagógico, fue una tragedia.

Al pasar al Deep Learning, convertimos al estudiante en una "caja negra". El sistema representa el conocimiento del alumno como un vector de números en un espacio latente de alta dimensión. La máquina sabe que vas a suspender, pero matemáticamente no puede decirnos por qué. ¿Es por falta de atención? ¿Por dislexia? ¿Por un mal concepto base? El vector no tiene explicabilidad.

Pasamos de intentar entender la mente del estudiante a simplemente predecir su comportamiento click a click. Ganamos eficiencia predictiva, pero perdimos la capacidad de diagnóstico humano.

Educase




La Realidad: El Profesor como Gestor de Datos

La narrativa de ventas, impulsada por figuras como Bill Gates, es que la IA "liberará" a los profesores de las tareas repetitivas para que puedan "conectar" con los alumnos. La realidad en las aulas es la opuesta.

Al introducir estas plataformas de caja negra, no hemos liberado a los docentes; los hemos convertido en técnicos de soporte de IT y analistas de datos de bajo nivel. En lugar de mirar a los ojos a un alumno para detectar si está triste (algo que ningún LSTM puede vectorizar), el profesor pasa la clase mirando dashboards que le dicen quién está en rojo y quién en verde.

El aprendizaje real es un proceso caótico, social y profundamente ineficiente. Requiere tropezar, divagar y conectar emocionalmente. Al intentar "optimizar" la educación como si fuera una cadena de suministro, AltSchool y sus sucesores olvidaron la lección más importante de la computación:

Hay cosas que son features, no bugs. La necesidad humana de conexión, la imprevisibilidad de la curiosidad y la lentitud del pensamiento profundo no son problemas de latencia que debamos eliminar. Son la razón por la que aprendemos.

Mientras sigamos intentando codificar a Aristóteles en una red neuronal, seguiremos fracasando. La verdadera educación personalizada escalable no vendrá de un mejor algoritmo, sino de usar la tecnología para potenciar, y no reemplazar, la ineficiente y maravillosa conexión humana.


Conclusión

Lo que yo creo es que el camino a seguir para la tecnología educativa (o cualquier software para usar en clase, independientemente de si persigue el aprendizaje personalizado) debería ser combinar la experiencia del profesor, por ejemplo, en motivar a los alumnos y evaluar ideas complejas, con la capacidad de la tecnología para hacer cosas como ampliar las clases, involucrar a los alumnos en prácticas espaciadas y repetitivas, y aplicar reglas de forma coherente para que la calificación sea justa. Además, los profesores deberían recibir formación en el uso de las nuevas tecnologías. Antes de adoptar nuevas tecnologías educativas, los educadores deberían investigar cómo la tecnología personaliza la experiencia de aprendizaje, cómo construye la memoria a largo plazo, cómo favorece la atención y qué pruebas hay sobre su eficacia.

Ya veremos.








Comparte:

1/12/25

El robot de 39.000 millones de dólares tiene arañazos

Cuando Brett Adcock publicó las fotos este noviembre que acabamos de dejar atrás, nadie esperaba ver eso. Sus robots humanoides Figure 02, recién retirados tras 11 meses trabajando en la planta de BMW en Carolina del Sur, estaban cubiertos de arañazos, rozaduras y suciedad industrial. El acabado negro brillante con el que habían llegado a la fábrica se había convertido en un mapa de marcas de guerra. "Despliegue en el mundo real", escribió Adcock en el post.

Y tenía razón. Porque esos arañazos valían exactamente 36.400 millones de dólares.

En febrero de 2024, Figure AI levantó 675 millones de dólares con una valoración de 2.600 millones. Dieciocho meses después, en septiembre de 2025, la empresa recaudó más de mil millones con una valoración de 39.000 millones. Un crecimiento del 1.400% impulsado, en gran parte, por la narrativa de que sus robots no eran humo de laboratorio, sino máquinas capaces de trabajar en una línea de producción real junto a 11.000 empleados humanos. Y eso, sin que la empresa Figure declare ingresos de ningún tipo. Esa es parte de la historia. Es pura apuesta especulativa basada en el potencial futuro, no en rentabilidad actual. 


La tarea que realizaban no era particularmente glamurosa. Los humanoides levantaban piezas de chapa metálica de contenedores y las colocaban en dispositivos de soldadura con una tolerancia de 5 milímetros. Después, brazos robóticos tradicionales completaban la soldadura. Ciclo de 84 segundos. Repetir. Durante 10 horas al día, de lunes a viernes. Al final del proyecto, habían cargado más de 90.000 piezas y contribuido a la producción de más de 30.000 BMW X3.

Los inversores lo adoraron. Microsoft, NVIDIA, Jeff Bezos, Intel Capital: todos apostaron. Goldman Sachs proyecta que el mercado de robots humanoides podría alcanzar los 38.000 millones para 2035, y Figure AI se posiciona como el líder inevitable de esa revolución. Adcock habla de vender "millones, quizás miles de millones" de humanoides.

Pero hay un problema con las narrativas de Silicon Valley: tienden a adelantarse a la realidad.

En junio de 2025, la revista Fortune decidió verificar las afirmaciones de Adcock sobre su "flota" de robots realizando "operaciones de extremo a extremo" en BMW. El portavoz de BMW, Steve Wilson, reveló que solo había un único robot Figure operando en la planta en un momento dado, y que inicialmente trabajaba solo durante horas no productivas. No era exactamente la revolución manufacturera que los titulares prometían.

Figure AI no respondió a las solicitudes de aclaración de Fortune. En su lugar, dejaron que los datos hablaran: 1.250 horas de tiempo operativo, con mínimos fallos de hardware. Precisión superior al 99%. Y sí, esos arañazos que demostraban que las máquinas habían sobrevivido al entorno industrial más duro que existe.

El mayor dolor de cabeza técnico fue, irónicamente, uno de los aspectos más humanos del diseño. El antebrazo emergió como el principal punto de fallo debido a la complejidad de tener tres grados de libertad, gestión térmica y cableado en una extremidad de tamaño humano. El movimiento constante alteraba y hacía sufrir los microcontroladores y el cableado. Resulta que imitar la anatomía humana en metal y silicio es más complicado de lo que parece en los renders 3D.

Esas lecciones alimentaron el diseño del Figure 03, que elimina la placa de distribución y el cableado dinámico en la muñeca. Los controladores de motor ahora se comunican directamente con el ordenador principal. Más simple, más robusto, más preparado para escalar. O eso es lo que Figure promete.

Interesting Engineering


Conclusiones y viabilidad económica


Mientras tanto, la pregunta sigue en el aire: ¿estamos ante el nacimiento de una industria multimillonaria o ante una burbuja espectacular? Dos robots trabajando en una sola fábrica no son exactamente la singularidad robótica. Pero tampoco lo era el primer iPhone.

No hay información pública sobre el coste operativo específico del Figure 02 en BMW. Pero podemos inferir que si completaron un ciclo de carga en 84 segundos (incluyendo 37 segundos para la carga), un humano probablemente haría esa tarea en tiempo similar o más lento, pero solo trabajaría 8 horas vs las 10 que trabajó el robot.

BMW pagó (presumiblemente) cientos de miles de dólares por robots experimentales que hacen un trabajo que un humano haría por 40.000-50.000 dólares al año. La apuesta es que dentro de 2-3 años, ese mismo robot costará 50.000 dólares y trabajará el triple de horas.

Hay quienes pensamos que un brazo robótico actual ya realiza mucho mejor y más rápido la tarea del robot humanoide en este experimento. Y es verdad. Pero al mismo tiempo, también es verdad que introducir en las fábricas muchísimos brazos robóticos obligaría a transformar sustancialmente el entorno, mientras que meter miles de robots humanoides no lo requeriría.

Una de las claves (en teoría) de la tecnología de Figure es la capacidad de enseñarle nuevas tareas, a través de LLMs e información visual, gracias a su sistema Helix. Pero ojo, porque no es oro todo lo que reluce y enseñar nuevas órdenes a un robot no es tan fácil como hacerlo con un empleado humano y puede que haya mucho marketing en esas promesas.

Los arañazos en esos Figure 02 retirados cuentan una historia diferente a la de los renders perfectos y los pitch decks de capital riesgo. Cuentan la historia de máquinas que realmente trabajaron, que fallaron, que aprendieron. Y en Silicon Valley, donde la diferencia entre realidad y ficción se mide en valoraciones de mercado, eso podría valer 39.000 millones de dólares.

O quizás solo valga unos cuantos arañazos.

Ya veremos.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons