Este artículo va a ser más largo que de costumbre. Desde el comienzo del curso, me he vuelto a meter en la rueda del hámster de las noticias sobre inteligencia artificial y he dedicado bastante tiempo a leer algunos artículos científicos aparecidos en verano y otros contenidos igual de interesantes. Por todo ello, en parte para ordenar mis propias ideas y también para escribir el mejor contenido que puedo para mis avezad@s lectores, este artículo está dedicado al dilema científico sobre si los LLM nos entienden realmente cuando nos hablan o les hablamos.
Cuando chateas con ChatGPT, Claude o cualquier otro modelo de lenguaje, es natural preguntarse: ¿realmente me está entendiendo lo que digo (mi ironía, lo que he omitido, el razonamiento al que quiero llegar)? ¿Hay algo ahí dentro procesando mis palabras con comprensión genuina, o solo estoy interactuando con una máquina muy sofisticada que repite patrones estadísticos?
Esta pregunta va al corazón de uno de los debates más fascinantes en tecnología actual, y para mí la respuesta honesta es: no lo sabemos con certeza.
Lo que sabemos que hacen los LLMs
Los modelos de lenguaje procesan texto prediciendo la siguiente palabra más probable en una secuencia, basándose en billones de ejemplos de texto humano. Antes de procesar cualquier cosa, un LLM divide tu texto en pequeñas unidades, llamadas tokens. Un token puede ser una palabra completa ("gato"), una parte de ella ("gat-"), o incluso un signo de puntuación (","). Esta división inicial ayuda a manejar la enorme variedad del lenguaje de manera eficiente.
Después, cada token se convierte en un vector de embedding—una lista de cientos o miles de números. Estos números no son aleatorios; están diseñados para capturar el significado y el contexto del token. Las palabras con significados similares, como "perro" y "canino", tendrán vectores de embedding que están "cerca" uno del otro en este espacio matemático. Por el contrario, "perro" y "coche" estarán mucho más lejos. Este proceso es la base de cómo el modelo "entiende" la relación entre las palabras.
 |
Cómo las palabras relacionadas tienen vectores más cercanos entre sí (HuggingFace) |
La verdadera revolución no fue la conversión a vectores, sino lo que vino después: los transformers. Este tipo de arquitectura de red neuronal, introducida en 2017 por Google, es la base de casi todos los LLMs modernos.
Sin embargo, la parte más crucial de un transformador es su mecanismo de atención. Imagina que el LLM está leyendo una frase como: "El banco del parque es de madera". Para entender el significado de "banco," el modelo necesita saber que se refiere a un asiento, no a una institución financiera. El mecanismo de atención permite al LLM sopesar la importancia de cada token en relación con todos los demás tokens de la frase. Le dice al modelo: "Presta más atención a 'parque' que a 'madera' para entender qué tipo de 'banco' es." Este enfoque contextual es lo que hace que los LLMs sean tan buenos en la comprensión del lenguaje.
Una vez que el modelo ha procesado tu entrada a través de estas complejas capas, genera una nueva serie de vectores que representan la respuesta que va a producir. Luego, estos vectores se convierten de nuevo en tokens, que se unen para formar el texto final. Es un proceso de ida y vuelta: de palabras a números para procesar y de números a palabras para comunicar. Este tipo de algoritmos se denomina autorregresivo.
En resumen, los LLMs no "leen" como nosotros. Operan en un mundo de números y álgebra lineal, transformando la complejidad del lenguaje en patrones matemáticos. Y es en estos patrones donde reside su asombrosa capacidad para imitar, crear y "entender" el mundo humano.
El problema es que "entender" es un concepto escurridizo.
¿Entiendes realmente el español porque puedes procesarlo automáticamente, o porque tienes experiencias conscientes asociadas con las palabras? Los LLMs no tienen cuerpos, no experimentan el mundo físico, no tienen emociones o motivaciones intrínsecas. Su "comprensión" del concepto "calor" viene de patrones estadísticos en texto, no de haber sentido el sol en la piel. De hecho, la pregunta que podríamos hacernos nosotros de esto es si nuestros cerebros, desde niños, ¿son también entrenados de la misma forma? ¿Son las conexiones sinápticas que relacionan conocimientos y conceptos abstractos un paralelismo de lo que se hace con los grandes modelos de lenguaje?
La Habitación China de Searle: El argumento clásico contra la comprensión
En 1980, el filósofo John Searle propuso su famoso experimento mental de la "Habitación China". Imagina a alguien encerrado en una habitación con un libro de reglas para entender símbolos chinos. Puede responder preguntas en chino siguiendo las reglas, pero no entiende realmente el idioma. Searle argumenta que los LLMs son exactamente esto: sistemas que manipulan símbolos sin comprensión semántica genuina. Para él, los LLMs pueden simular comprensión, pero nunca alcanzarla verdaderamente porque carecen de intencionalidad y experiencia consciente.
De hecho, la comunidad científica está dividida y algunos consideran que los LLM son simples loros estocásticos.
La expresión "loro estocástico" se popularizó a partir del influyente artículo de 2021 titulado "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?", co-escrito por Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell. La metáfora se descompone en dos partes fundamentales. El término "loro" se utiliza para enfatizar la naturaleza imitativa y repetitiva de los modelos, sugiriendo que, al igual que un loro real, pueden producir un lenguaje coherente sin captar su significado real. Por su parte, "estocástico" se refiere a su naturaleza probabilística.
Los LLM funcionan prediciendo la siguiente palabra más probable en una secuencia de texto, un proceso que introduce un grado de aleatoriedad para evitar respuestas rígidas y mecánicas. La tesis central de este informe es que si bien la metáfora es útil para señalar deficiencias críticas, no logra capturar la complejidad de las capacidades que emergen a gran escala.
Sin embargo, científicos como Yoshua Bengio y Geoffrey Hinton argumentan que la comprensión podría emerger de representaciones distribuidas suficientemente complejas. Y no solo eso, sino que investigaciones recientes usando técnicas de "interpretabilidad mecánica" han revelado que los LLMs desarrollan representaciones especializadas para conceptos específicos. Chris Olah y el equipo de Anthropic han documentado "neuronas" individuales que se activan para conceptos específicos como "Torre Eiffel" o "felicidad", sugiriendo algún tipo de comprensión estructurada.
Jason Wei y colaboradores de Google documentaron "habilidades emergentes" en LLMs grandes, de las que hablé en el último artículo: capacidades que aparecen súbitamente al alcanzar cierto tamaño, sin estar explícitamente programadas. Estas incluyen razonamiento matemático, traducción a idiomas no vistos en entrenamiento, y resolución de problemas complejos.
Dario Amodei, CEO de Anthropic, argumenta que estas emergencias sugieren que los LLMs han desarrollado representaciones del mundo que van más allá de simple memorización: "Cuando un modelo puede razonar sobre física básica sin haber sido entrenado explícitamente en física, algo profundo está ocurriendo".
Posiciones a favor y en contra
El científico jefe de IA de Meta, Yann LeCun, sostiene que los LLM son "herramientas especializadas" que operan en un espacio de lenguaje "simple, discreto y de baja dimensionalidad". Su argumento central es que los LLM carecen de una "representación del mundo" o "modelo mental" que permita a los humanos y los animales planificar y predecir las consecuencias de sus acciones en el mundo físico. LeCun destaca el "paradigma del bebé", señalando que los humanos adquieren una comprensión del mundo físico con una cantidad de datos visuales que sería equiparable a la de un LLM entrenado durante 400,000 años. Concluye que la AGI nunca se logrará simplemente escalando modelos entrenados con texto.
De hecho, otros investigadores de Apple recientemente han publicado un polémico artículo titulado La ilusión del pensamiento, en el que subrayan esta idea de que los LLM son reglas estadísticas super vitaminadas. Pero en mi opinión, el artículo deja un poco que desear por simplista y omisión de algunas otras evidencias que estoy tratando de describir en este post.
Por su parte, el crítico de IA Gary Marcus argumenta que los LLM operan a través del "reconocimiento de patrones" y no del "razonamiento genuino". Él aboga por un enfoque "híbrido" o "neurosimbólico" que combine la capacidad de reconocimiento de patrones del aprendizaje profundo con la lógica y las reglas explícitas de la IA simbólica. La propuesta de Marcus se alinea con el marco de Daniel Kahneman de los "Sistemas 1 y 2" del pensamiento, donde el aprendizaje profundo se asemeja al pensamiento rápido e intuitivo (Sistema 1) y necesita integrarse con un sistema lento y deliberativo (Sistema 2) para alcanzar una inteligencia robusta y confiable.
La crítica de LeCun y Marcus, a pesar de sus tensiones profesionales, converge en un punto crucial: la Inteligencia Artificial General, AGI, no es un problema de escala, sino un problema de arquitectura. Ambos sostienen que la arquitectura de los LLM, basada en la predicción de texto, tiene una limitación inherente en su incapacidad para desarrollar una comprensión causal y una representación interna del mundo físico.
Pero también existen argumentos bastante intuitivos a favor de que lo que hace ChatGPT o Claude no es un simple loro estocástico.
Los LLMs a veces cambian de opinión durante una conversación cuando se
les presentan evidencia convincente. Este comportamiento de "ser
persuadido" sugiere algún tipo de evaluación interna de la fuerza de
argumentos, no simple generación de texto basada en frecuencias de
entrenamiento.
Además, tal y como señala el filósofo Daniel Dennett, el acto mismo de argumentar implica una forma de "agencia" o autonomía. - la capacidad de tomar posturas evaluativas y defenderlas. Si los LLMs fueran verdaderamente loros estocásticos, no desarrollarían preferencias argumentativas o resistencia a ciertas proposiciones.
La metáfora del loro estocástico, aunque útil para señalar limitaciones importantes de los LLMs, puede ser reduccionista. Como argumenta Melanie Mitchell, los LLMs exhiben comportamientos que requieren explicaciones más sofisticadas que simple "repetición estadística sofisticada".
Quizás el modelo descrito al comienzo del artículo, el de adivinar la siguiente palabra, sea más poderoso de lo que nos imaginamos.
Hacia un Futuro Híbrido: El Camino Hacia la AGI
El debate técnico sobre las capacidades de los LLM a menudo se reduce a una cuestión filosófica sobre la naturaleza misma de la "comprensión". Para enmarcar esta discusión, se puede recurrir a la distinción filosófica clásica entre el "sentido" y la "referencia". El "sentido" de una palabra se relaciona con el modo en que se presenta y su relación con otras palabras. La "referencia," por otro lado, es la conexión de la palabra con un objeto o experiencia en el mundo real. Un ser humano entiende la palabra "mesa" porque ha tenido experiencias sensoriales directas: la ha tocado, visto y experimentado su función. Un LLM, en cambio, entiende la palabra "mesa" a través de sus relaciones estadísticas con otras palabras en millones de textos. En este sentido, los LLM tienen una comprensión profunda del "sentido," pero carecen por completo de la "referencia" que ancla el lenguaje humano a la experiencia sensorial y subjetiva. Es la ausencia de esta experiencia subjetiva la que genera las alucinaciones y la falta de sentido común intuitivo.
El consenso emergente es que la AGI no se logrará únicamente con modelos cada vez más grandes y más datos de texto. La solución no reside en el escalado, sino en la integración de nuevas arquitecturas. El futuro de la IA probablemente se basará en "sistemas de agentes" que combinen las fortalezas de los LLM (procesamiento de lenguaje, formalización) con otras herramientas y arquitecturas que les proporcionen el anclaje en el mundo físico y las estructuras de razonamiento simbólico que actualmente faltan. La metáfora del "loro estocástico" no es el final del debate, sino el punto de partida para una conversación más matizada y rigurosa sobre cómo construir una inteligencia artificial que no solo hable, sino que también actúe y "entienda" el mundo de una manera verdaderamente significativa.