Inteligencia artificial, robótica, historia y algo más.

16/12/25

¿Por qué estoy en contra del aprendizaje personalizado con la IA?

En 2013, Max Ventilla, un ejecutivo estrella de Google, decidió que el sistema educativo era un algoritmo ineficiente que necesitaba ser refactorizado. Su solución fue AltSchool. Con 170 millones de dólares en capital de riesgo (respaldados por Mark Zuckerberg y Peter Thiel), AltSchool prometió el santo grial de la educación: la personalización total a través del Big Data.

Las aulas de AltSchool parecían el sueño húmedo de un ingeniero de visión por computador. Cámaras y micrófonos grababan cada interacción. Sensores rastreaban el movimiento. Los estudiantes no seguían un currículo; seguían "listas de reproducción" (playlists) generadas por software. La promesa era seductora: usar la misma tecnología que recomienda tu próxima serie en Netflix para recomendar tu próxima lección de matemáticas.

En 2019, AltSchool cerró sus puertas, admitiendo que el modelo era "económicamente insostenible" y pedagógicamente cuestionable. Los padres se quejaron de que sus hijos pasaban el día mirando pantallas; los profesores sufrieron un burnout masivo intentando alimentar a la máquina de datos.

¿Por qué falló una de las startups mejor financiadas de la historia EdTech? Porque cometieron el error clásico de la ingeniería aplicada a las humanidades: confundieron la optimización de la eficiencia con el acto de educar.


El Sueño Aristócrata y la Falacia de la Escala


La obsesión con el "Aprendizaje Personalizado" no es nueva. De hecho, es la forma más antigua y elitista de educación.

Piensen en John Stuart Mill o en Alejandro Magno. Ellos tuvieron la versión original del aprendizaje personalizado: un tutor humano experto (su padre o Aristóteles, respectivamente) dedicado enteramente a ellos. El tutor conocía sus debilidades, adaptaba el tono a su estado de ánimo y aceleraba o frenaba según la curiosidad del alumno.

El objetivo de la tecnología educativa (EdTech) siempre ha sido noble: democratizar ese privilegio aristocrático. Escalar a Aristóteles. Si pudiéramos darle a cada niño pobre un tutor digital en su bolsillo, cerraríamos la brecha de desigualdad.

HackEducation


Pero aquí es donde la industria nos vendió gato por liebre. Lo que Silicon Valley llama "personalización" hoy en día no es un tutor socrático. Es, en palabras de los investigadores Neil Selwyn y Caroline Pelletier, una estandarización disfrazada.

El software no te permite explorar caminos divergentes (como haría un tutor humano). El software optimiza la ruta más rápida entre el punto A (ignorancia) y el punto B (pasar el test). Si tardas más, el sistema no asume que estás reflexionando; asume que eres un bug en el proceso de ingestión de datos.



La Torre de Babel Semántica


Si preguntas a cinco ingenieros qué es el "Aprendizaje Personalizado", obtendrás cinco respuestas diferentes. Una revisión sistemática reveló un caos absoluto: la industria usa indistintamente términos como "adaptativo", "individualizado" y "personalizado".

Paradójicamente, el pasado mes de noviembre se produjo un repentino aumento de las búsquedas en Google de términos relacionados con la «educación personalizada», probablemente debido al anuncio de ChatGPT para educadores.


Es realmente curioso cómo Bill Gates ha definido el aprendizaje personalizado a lo largo de los últimos años.

La cruda realidad técnica es esta: el 90% de lo que se vende como "IA Personalizada" es simplemente instrucción individualizada. Es el mismo menú para todos los comensales, la única diferencia es que unos lo mastican rápido y otros lento. No hay adaptación real del contenido ni del método, solo del ritmo. Es el fordismo aplicado a la mente, pero con una interfaz de usuario más bonita.

Para entender por qué la EdTech moderna se siente tan fría, tenemos que mirar bajo el capó, hacia un paper que cambió la industria para siempre.

Hasta 2015, los sistemas de tutoría inteligente usaban modelos estadísticos transparentes (como el Bayesian Knowledge Tracing), basados en teorías cognitivas sobre cómo aprendemos. Pero en la conferencia NeurIPS 2015, Chris Piech y su equipo de Stanford presentaron el artículo titulado "Deep Knowledge Tracing".

Propusieron usar Redes Neuronales Recurrentes (LSTMs) para modelar el conocimiento del estudiante. Al alimentar a la red neuronal con millones de datos de aciertos y fallos, el modelo "Deep Learning" logró predecir con una precisión asombrosa (un 25% mejor que los modelos anteriores) si un estudiante fallaría la siguiente pregunta.

Desde el punto de vista de Computer Science, fue un triunfo. Pero desde el punto de vista pedagógico, fue una tragedia.

Al pasar al Deep Learning, convertimos al estudiante en una "caja negra". El sistema representa el conocimiento del alumno como un vector de números en un espacio latente de alta dimensión. La máquina sabe que vas a suspender, pero matemáticamente no puede decirnos por qué. ¿Es por falta de atención? ¿Por dislexia? ¿Por un mal concepto base? El vector no tiene explicabilidad.

Pasamos de intentar entender la mente del estudiante a simplemente predecir su comportamiento click a click. Ganamos eficiencia predictiva, pero perdimos la capacidad de diagnóstico humano.

Educase




La Realidad: El Profesor como Gestor de Datos

La narrativa de ventas, impulsada por figuras como Bill Gates, es que la IA "liberará" a los profesores de las tareas repetitivas para que puedan "conectar" con los alumnos. La realidad en las aulas es la opuesta.

Al introducir estas plataformas de caja negra, no hemos liberado a los docentes; los hemos convertido en técnicos de soporte de IT y analistas de datos de bajo nivel. En lugar de mirar a los ojos a un alumno para detectar si está triste (algo que ningún LSTM puede vectorizar), el profesor pasa la clase mirando dashboards que le dicen quién está en rojo y quién en verde.

El aprendizaje real es un proceso caótico, social y profundamente ineficiente. Requiere tropezar, divagar y conectar emocionalmente. Al intentar "optimizar" la educación como si fuera una cadena de suministro, AltSchool y sus sucesores olvidaron la lección más importante de la computación:

Hay cosas que son features, no bugs. La necesidad humana de conexión, la imprevisibilidad de la curiosidad y la lentitud del pensamiento profundo no son problemas de latencia que debamos eliminar. Son la razón por la que aprendemos.

Mientras sigamos intentando codificar a Aristóteles en una red neuronal, seguiremos fracasando. La verdadera educación personalizada escalable no vendrá de un mejor algoritmo, sino de usar la tecnología para potenciar, y no reemplazar, la ineficiente y maravillosa conexión humana.


Conclusión

Lo que yo creo es que el camino a seguir para la tecnología educativa (o cualquier software para usar en clase, independientemente de si persigue el aprendizaje personalizado) debería ser combinar la experiencia del profesor, por ejemplo, en motivar a los alumnos y evaluar ideas complejas, con la capacidad de la tecnología para hacer cosas como ampliar las clases, involucrar a los alumnos en prácticas espaciadas y repetitivas, y aplicar reglas de forma coherente para que la calificación sea justa. Además, los profesores deberían recibir formación en el uso de las nuevas tecnologías. Antes de adoptar nuevas tecnologías educativas, los educadores deberían investigar cómo la tecnología personaliza la experiencia de aprendizaje, cómo construye la memoria a largo plazo, cómo favorece la atención y qué pruebas hay sobre su eficacia.

Ya veremos.








Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons