Inteligencia artificial, robótica, historia y algo más.

1/12/25

El robot de 39.000 millones de dólares tiene arañazos

Cuando Brett Adcock publicó las fotos este noviembre que acabamos de dejar atrás, nadie esperaba ver eso. Sus robots humanoides Figure 02, recién retirados tras 11 meses trabajando en la planta de BMW en Carolina del Sur, estaban cubiertos de arañazos, rozaduras y suciedad industrial. El acabado negro brillante con el que habían llegado a la fábrica se había convertido en un mapa de marcas de guerra. "Despliegue en el mundo real", escribió Adcock en el post.

Y tenía razón. Porque esos arañazos valían exactamente 36.400 millones de dólares.

En febrero de 2024, Figure AI levantó 675 millones de dólares con una valoración de 2.600 millones. Dieciocho meses después, en septiembre de 2025, la empresa recaudó más de mil millones con una valoración de 39.000 millones. Un crecimiento del 1.400% impulsado, en gran parte, por la narrativa de que sus robots no eran humo de laboratorio, sino máquinas capaces de trabajar en una línea de producción real junto a 11.000 empleados humanos. Y eso, sin que la empresa Figure declare ingresos de ningún tipo. Esa es parte de la historia. Es pura apuesta especulativa basada en el potencial futuro, no en rentabilidad actual. 


La tarea que realizaban no era particularmente glamurosa. Los humanoides levantaban piezas de chapa metálica de contenedores y las colocaban en dispositivos de soldadura con una tolerancia de 5 milímetros. Después, brazos robóticos tradicionales completaban la soldadura. Ciclo de 84 segundos. Repetir. Durante 10 horas al día, de lunes a viernes. Al final del proyecto, habían cargado más de 90.000 piezas y contribuido a la producción de más de 30.000 BMW X3.

Los inversores lo adoraron. Microsoft, NVIDIA, Jeff Bezos, Intel Capital: todos apostaron. Goldman Sachs proyecta que el mercado de robots humanoides podría alcanzar los 38.000 millones para 2035, y Figure AI se posiciona como el líder inevitable de esa revolución. Adcock habla de vender "millones, quizás miles de millones" de humanoides.

Pero hay un problema con las narrativas de Silicon Valley: tienden a adelantarse a la realidad.

En junio de 2025, la revista Fortune decidió verificar las afirmaciones de Adcock sobre su "flota" de robots realizando "operaciones de extremo a extremo" en BMW. El portavoz de BMW, Steve Wilson, reveló que solo había un único robot Figure operando en la planta en un momento dado, y que inicialmente trabajaba solo durante horas no productivas. No era exactamente la revolución manufacturera que los titulares prometían.

Figure AI no respondió a las solicitudes de aclaración de Fortune. En su lugar, dejaron que los datos hablaran: 1.250 horas de tiempo operativo, con mínimos fallos de hardware. Precisión superior al 99%. Y sí, esos arañazos que demostraban que las máquinas habían sobrevivido al entorno industrial más duro que existe.

El mayor dolor de cabeza técnico fue, irónicamente, uno de los aspectos más humanos del diseño. El antebrazo emergió como el principal punto de fallo debido a la complejidad de tener tres grados de libertad, gestión térmica y cableado en una extremidad de tamaño humano. El movimiento constante alteraba y hacía sufrir los microcontroladores y el cableado. Resulta que imitar la anatomía humana en metal y silicio es más complicado de lo que parece en los renders 3D.

Esas lecciones alimentaron el diseño del Figure 03, que elimina la placa de distribución y el cableado dinámico en la muñeca. Los controladores de motor ahora se comunican directamente con el ordenador principal. Más simple, más robusto, más preparado para escalar. O eso es lo que Figure promete.

Interesting Engineering


Conclusiones y viabilidad económica


Mientras tanto, la pregunta sigue en el aire: ¿estamos ante el nacimiento de una industria multimillonaria o ante una burbuja espectacular? Dos robots trabajando en una sola fábrica no son exactamente la singularidad robótica. Pero tampoco lo era el primer iPhone.

No hay información pública sobre el coste operativo específico del Figure 02 en BMW. Pero podemos inferir que si completaron un ciclo de carga en 84 segundos (incluyendo 37 segundos para la carga), un humano probablemente haría esa tarea en tiempo similar o más lento, pero solo trabajaría 8 horas vs las 10 que trabajó el robot.

BMW pagó (presumiblemente) cientos de miles de dólares por robots experimentales que hacen un trabajo que un humano haría por 40.000-50.000 dólares al año. La apuesta es que dentro de 2-3 años, ese mismo robot costará 50.000 dólares y trabajará el triple de horas.

Hay quienes pensamos que un brazo robótico actual ya realiza mucho mejor y más rápido la tarea del robot humanoide en este experimento. Y es verdad. Pero al mismo tiempo, también es verdad que introducir en las fábricas muchísimos brazos robóticos obligaría a transformar sustancialmente el entorno, mientras que meter miles de robots humanoides no lo requeriría.

Una de las claves (en teoría) de la tecnología de Figure es la capacidad de enseñarle nuevas tareas, a través de LLMs e información visual, gracias a su sistema Helix. Pero ojo, porque no es oro todo lo que reluce y enseñar nuevas órdenes a un robot no es tan fácil como hacerlo con un empleado humano y puede que haya mucho marketing en esas promesas.

Los arañazos en esos Figure 02 retirados cuentan una historia diferente a la de los renders perfectos y los pitch decks de capital riesgo. Cuentan la historia de máquinas que realmente trabajaron, que fallaron, que aprendieron. Y en Silicon Valley, donde la diferencia entre realidad y ficción se mide en valoraciones de mercado, eso podría valer 39.000 millones de dólares.

O quizás solo valga unos cuantos arañazos.

Ya veremos.



Comparte:

24/11/25

El mito del derroche de agua en los centros de datos

Probablemente hayas visto los titulares: la IA está consumiendo mucha agua. Los centros de datos están agotando los pozos. Las comunidades se están quedando sin agua mientras los gigantes tecnológicos entrenan a sus chatbots. Un libro muy popular incluso afirmaba que un solo centro de datos de Google en Chile consumiría mil veces más agua que toda una ciudad.

Solo hay un problema: los cálculos son completamente erróneos.

Considera estas afirmaciones comunes:

«Los centros de datos de Texas están obligando a los residentes a ducharse menos tiempo». ¿La realidad? Los centros de datos aumentaron en torno al 0,005 % la demanda de agua de Texas, lo que equivale a que 1600 personas se mudaran a un estado de 30 millones de habitantes.

«Los centros de datos se construyen en zonas con escasez de agua». En el condado de Maricopa, Arizona, una de las zonas con mayor escasez, los centros de datos consumen el 0,12 % del agua del condado. Los campos de golf consumen el 3,8 %. Por cada galón consumido, los centros de datos generan 50 veces más ingresos fiscales que los campos de golf.



¿Cuál es el impacto real?


Esto es lo que no han encontrado las investigaciones: ni un solo caso en el que el funcionamiento de los centros de datos haya aumentado las facturas de agua de los hogares en Estados Unidos.

Ni en el condado de Loudoun, Virginia, donde se concentra el mayor número de centros de datos del mundo.

Tampoco en The Dalles, Oregón, donde el 29 % del agua de la ciudad se destina a un centro de datos de Google. Cuando las tarifas aumentaron en 2025 para mejorar las infraestructuras, las tarifas de Google redujeron el impacto. Sin los ingresos del centro de datos, las facturas domésticas habrían aumentado un 23 %. En cambio, solo aumentaron un 7,3 %.

Tampoco en Mesa, Goodyear ni en ninguna de las otras doce localidades en las que los periodistas han dado la voz de alarma.

¿El motivo? Estados Unidos separa los mercados residenciales y comerciales del agua específicamente para evitar que las industrias compitan con los hogares. Cuando los centros de datos requieren mejoras en la infraestructura, suelen financiarlas, como la contribución de 31 millones de dólares de Microsoft a una planta de reciclaje de agua en Quincy, Washington, que ahora da servicio a toda la comunidad.
Zutacore


Zutacore

La única historia real, que no tenía que ver con el consumo de agua


El New York Times publicó una noticia sobre el centro de datos de Meta en Social Circle, Georgia, donde se secaron los pozos cercanos. Lo que no se mencionaba en el artículo era que el centro de datos aún no se había puesto en marcha. El problema eran los sedimentos de la construcción, algo que podría ocurrir en cualquier proyecto de edificación.

El subtítulo seguía diciendo: «Los gigantes tecnológicos están construyendo centros de datos que consumen mucha agua. Esto ha causado problemas a las personas que viven cerca».

Eso no es engañoso, es falso.



Por qué las cifras dan miedo


A los periodistas les encanta comparar los centros de datos con los hogares, pero estos solo representan alrededor del 1 % de la huella hídrica total de los estadounidenses. El 99 % restante se destina a la producción de alimentos, la generación de electricidad y la fabricación de productos.

Todos los centros de datos juntos utilizan alrededor del 0,05 % del agua dulce de Estados Unidos, menos que la huella hídrica de Paterson, Nueva Jersey. Pasamos la mitad de nuestras horas de vigilia conectados a Internet. Es casi milagroso que esta infraestructura utilice una fracción tan pequeña de nuestros recursos.

Otro truco: informar del consumo máximo de agua permitido como consumo real. Los permisos cubren los peores escenarios posibles: todos los servidores a plena capacidad en el día más caluroso. El consumo real suele ser entre un 20 % y un 50 % inferior.



¿Qué pasará en el futuro?

NYTimes


Los centros de datos están creciendo rápidamente. Algunas estimaciones sugieren que el consumo de agua podría cuadruplicarse para 2028. Pero incluso cuadruplicado, estamos hablando del 0,2 % del consumo nacional de agua dulce, lo que sigue siendo menos que la huella del estilo de vida de 800 000 personas en un país que suma 1,6 millones de personas al año.

La verdadera pregunta no es si los centros de datos utilizan agua, ya que todo la utiliza. La pregunta es si la utilizan de manera eficiente en relación con el valor creado. Los centros de datos generan aproximadamente 20 000 $ en ingresos por cada mil galones consumidos. La agricultura genera 19 $. La generación de energía eléctrica genera 312 $.



La realidad al completo


Las comunidades locales deben examinar minuciosamente los proyectos de centros de datos y negociar condiciones justas. Existen preocupaciones medioambientales legítimas sobre la IA: consumo de energía, residuos electrónicos, huella de carbono de los modelos de entrenamiento. En algunos casos, como las instalaciones de xAI en Memphis, existen preocupaciones reales sobre la contaminación atmosférica.

Pero cuando los errores matemáticos se multiplican por miles, cuando los accidentes de construcción se informan erróneamente como fallos operativos, cuando impactos del 0,005 % se presentan como catástrofes, hemos perdido el norte.

¿La ironía? Este alarmismo dificulta abordar los problemas medioambientales reales. Cuando la gente descubre que la «crisis del agua» era tremendamente exagerada, se vuelve escéptica ante todas las preocupaciones medioambientales sobre la IA, incluidas las legítimas.

La crisis del agua de la IA es real en un sentido: es una crisis en la forma en que verificamos las fuentes e informamos sobre la tecnología. Hasta que no solucionemos eso, lo más derrochador de la IA podría no ser su consumo de agua, sino toda la atención que estamos desperdiciando en un problema que apenas existe.




Comparte:

17/11/25

El Drone de Reparto: De la Promesa de Amazon a la Cruda Realidad de los Balances

Dicen que el futuro de la logística es silencioso, sobrevuela el tráfico y llega a tu puerta en media hora. La visión de Amazon Prime Air, Walmart o Wingcopter prometiendo la entrega de última milla con drones (ese paquete de cinco libras o menos que te saca de un apuro) es, sin duda, seductora. Es la quintaesencia de la eficiencia: evitar el colapso urbano, reducir las emisiones en un 80-85% por paquete respecto a un vehículo de combustión, e ignorar los atascos.

En el corazón de esta transformación se encuentran gigantes del comercio minorista y la logística, como Amazon y Walmart, que han invertido considerablemente en la materialización de esta utopía aérea. El proyecto más emblemático, Amazon Prime Air, fue concebido no solo como una mejora logística, sino como un intento radical de redefinir el comercio electrónico, ofreciendo un servicio de entrega instantánea inigualable. Jeff Bezos postuló, ya en 2013, que ver drones de Amazon sería tan común como ver camiones de correos en la carretera.

Pero si el modelo es tan brillante, ¿por qué no estamos ya enterrados bajo un manto de drones zumbadores? La respuesta no está en la tecnología, sino en la regulación y, más crudamente, en la economía de la unidad operativa. 

Para diseccionar esta brecha entre la promesa y la rentabilidad, no se me ha ocurrido nada mejor que analizar el modelo de negocio y resultados financieros de una empresa cotizada en Bolsa (en este caso, canadiense) que está luchando en esta arena: Volatus Aerospace Inc. (TSXV: FLT). Sus estados financieros y su estrategia revelan los desafíos que gigantes como Amazon o DHL deben superar para que sus proyectos de reparto sean algo más que costosos ejercicios de marketing. Es importante conocer que Volatus Aerospace es el resultado de la fusión que culminó en 2024, entre dos empresas del sector: Drone Delivery Canada (DDC) y Volatus Aerospace, de cuyo resultado nació Volatus Aerospace Inc.

Este post será un poco más largo que los habituales, pero pretendo demostrar en qué punto de este escenario tecnológico de ciencia ficción estamos, y más allá de los grandes titulares, cómo se puede hacer una empresa de reparto de mercancías con drones, alcance la tan deseada rentabilidad. Y sobre todo, ¿cómo se justifica este comportamiento en Bolsa de la acción de Volatus, capaz de estremecer a los inversores más calmados?



El cuello de botella regulatorio: la clave del negocio


El obstáculo principal de la logística con drones es el requisito de la Línea Visual (VLOS). Durante años, la normativa exigía que un operador mantuviera el control visual directo de su aeronave. Esto limita las misiones a distancias cortas y obliga a tener un operador por dron (o, con suerte, por un puñado de drones en una zona pequeña), disparando el coste operativo.

La verdadera viabilidad económica y la escalabilidad del negocio residen en el BVLOS (Beyond Visual Line of Sight).

Volatus Aerospace ha logrado convertir esta dificultad en su principal ventaja competitiva. Han obtenido un Certificado de Operaciones de Vuelo Especial (SFOC) de Transport Canada que autoriza operaciones BVLOS escalables a nivel nacional.

Su secreto está en la tecnología de Detección y Evitación (DAA). Volatus utiliza una integración de tres componentes:
1.    Radar MatrixSpace: Un sistema ligero que detecta aeronaves pequeñas y no cooperativas (otros drones).
2.    Kongsberg IRIS Terminal: Una plataforma de software para la conciencia del espacio aéreo.
3.    Operations Control Center (OCC): Un centro neurálgico para la gestión remota.

Al certificar un sistema DAA robusto, Volatus ha convencido al regulador de que la seguridad ya no depende del ojo humano, sino de la tecnología, permitiendo a la empresa reducir drásticamente la proporción de personal por dron. Esto es lo que se traduce en rentabilidad.

Tal y como mencionaba antes, Volatus se fusionó con Drone Delivery Canada (DDC) para consolidar el mercado canadiense. DDC se centraba en la logística y entrega de mercancías autónoma, especialmente en el suministro a comunidades y áreas remotas del norte de Canadá. La lógica de esta consolidación es simple: en un sector donde la regulación es la barrera más alta, la unión de permisos regulatorios y la eficiencia del capital son las estrategias de supervivencia.

La principal debilidad de DDC y de la industria en general era el complejo y lento marco regulatorio que impide una rápida escalabilidad, junto con los altos costos iniciales. Sus gastos operativos superan los ingresos, resultando en pérdidas netas continuas.

Al unirse a Volatus, DDC pudo combinar su tecnología propietaria (software FLYTE, drones como el Sparrow) y su enfoque en nichos rentables (suministros médicos y carga de alto valor/urgente en comunidades remotas) con la ventaja regulatoria BVLOS y la infraestructura OCC certificada de Volatus. La fusión consolida un liderazgo regulatorio y tecnológico en el nicho geográfico canadiense. De hecho, Volatus es especialista en la entrega de paquetería en zonas de difícil acceso y poblaciones mal comunicadas, precisamente, el nicho que más sentido cobra en este negocio.


Lección para los Gigantes (Amazon, UPS): El moat de la logística aérea no es el dron más rápido, sino la certificación regulatoria y la infraestructura tecnológica DAA que permite la automatización total.2 Aunque la FAA ha aumentado las exenciones BVLOS (190 a octubre de 2024, frente a solo 6 en 2020) 5, el camino hacia una operación verdaderamente escalable y sin observadores visuales fuera de sitios de prueba designados sigue siendo lento y complejo.



El negocio real: cuando los sueños se estrellan contra el excel


Un error común es asumir que la rentabilidad vendrá solo del reparto de paquetes de última milla. Los documentos de Volatus revelan una estrategia de negocio diversificada, diseñada para generar flujo de caja mientras se construye la infraestructura BVLOS de alto valor.

Volatus Aerospace no es Amazon. Es una empresa canadiense-americana que opera en tres frentes: vende drones de otros fabricantes, ofrece servicios aéreos (inspecciones, vigilancia, transporte) y forma pilotos. En el segundo trimestre de 2025 facturaron 10,6 millones de dólares canadienses. Para ponerlo en perspectiva: Amazon gasta más que eso en café corporativo cada semana.

Pero precisamente por ser pequeña, Volatus nos muestra la anatomía económica del sector sin el maquillaje de las grandes corporaciones. Y los números son brutales.

El margen bruto del 32% que consiguieron en Q2 2025 esconde dos realidades muy distintas. Los servicios aéreos (vuelos de inspección, transporte de carga) generan márgenes entre el 40% y el 50%. Respetable. Rentable, incluso. Pero la venta de equipos (drones físicos) apenas roza el 20-25%, típico de cualquier negocio de distribución.

Y aquí viene lo interesante: en el trimestre analizado, el 48% de sus ingresos vino de vender cacharros, no de volar. ¿Por qué? Porque las guerras —concretamente, la demanda de la OTAN por drones militares tras la invasión rusa de Ucrania— han disparado las ventas de hardware. Volatus vendió un 114% más de equipos que el año anterior. Pero ese boom defensivo no dice nada sobre la viabilidad del reparto comercial.


El agujero negro operativo


Aquí está el problema estructural que Amazon no cuenta en sus keynotes: Volatus perdió casi 4 millones de dólares en el trimestre. Y no es una startup quemando capital para crecer: llevan operando desde 1987 (originalmente como empresa de aviación tripulada). Han volado 75.000 horas. Tienen certificaciones regulatorias que Amazon pagaría millones por conseguir. Y aun así, pierden dinero.

Desglosemos sus gastos operativos trimestrales:

Personal: 2,2 millones
Costes de oficina: 714.000
Marketing y publicidad: 428.000
Partners externos: 473.000
Depreciación: 1,4 millones

Sumemos: 5,6 millones en costes operativos contra 3,4 millones de beneficio bruto. Pérdida operativa: 2,2 millones. ¿Se entiende ahora la gráfica de la cotización de Bolsa?


Pero lo fascinante está en la nota a pie en los documentos financieros de la compañía: "certain costs increased due to termination expenses, legal fees". Traducción: están despidiendo gente y peleando en tribunales mientras intentan ser rentables. Y también es revelador un dato en la página 13 de estos documentos financieros: comparando con el mismo periodo de 2024 (sumando las dos empresas que se fusionaron para crear Volatus), redujeron gastos operativos en 2,7 millones. Es decir, están adelgazando brutalmente la estructura para no desangrarse.

Veamos los costes estructurales que Volatus nos revela:

Gasto operativo: Gastaron 411.000 dólares en seis meses solo en equipamiento. Cada dron cuesta entre 50.000 y 300.000 dólares según capacidad. Se deprecian en 3-5 años. Se estrellan. Requieren mantenimiento constante.

Operaciones remotas: Volatus presume de su Operations Control Center (OCC) en Toronto, que supervisa vuelos BVLOS remotamente. Suena eficiente hasta que piensas que necesitas operadores humanos certificados monitorizando pantallas. A diferencia de un algoritmo que escala gratis, cada operador cuesta 60.000-100.000 dólares anuales y puede supervisar quizá 10-20 drones simultáneos en el mejor escenario.

Infraestructura: Volatus tiene dos productos patentados: DroneSpot™ (zonas de aterrizaje) y Aeriport (estaciones de carga automática). Cada ubicación requiere inversión física, permisos, electricidad, conectividad. Esto no escala como abrir una cuenta de AWS.

Regulatorio: Las 75.000 horas de vuelo de Volatus les han costado años de trámites, SFOCs (Special Flight Operating Certificates) negociados caso por caso, relaciones con Transport Canada. En EE.UU., la FAA es mucho más restrictiva. Amazon lleva años en "pruebas piloto" porque cada nueva ruta requiere aprobación individual.

Y aquí viene una interesante paradoja: Volatus está cerca de ser rentable precisamente porque NO hace lo que Amazon promete.

Su EBITDA ajustado mejoró un 85% interanual: de perder 1,85 millones a perder solo 276.000 dólares en el trimestre. ¿Cómo? No con reparto urbano masivo, sino con:

- Inspecciones industriales de alto valor: Oleoductos, líneas eléctricas, parques solares. Facturaron la inspección de 760.000 paneles solares en Norteamérica. Una empresa de energía paga 200.000-500.000 dólares por un contrato de inspección que con helicópteros tripulados costaría el doble o triple.
- Ventas B2B de equipos: El 48% de sus ingresos viene de vender drones a gobiernos y empresas. Son un distribuidor especializado, no un operador puro. Amazon nunca hará esto.
- Formación: Han entrenado 114.000 pilotos desde su inicio. Es negocio de margen alto y recurrente. ¿Amazon va a montar academias de pilotos?
- Servicios de defensa: La guerra de Ucrania les disparó la demanda. Drones de vigilancia para militares. Esto es geopolítica, no logística.

¿Qué tienen en común estos negocios? Densidad de valor sobre volumen. Un contrato de inspección de 300.000 dólares con 50 vuelos es viable. Cincuenta entregas de 15 dólares cada una (750 dólares) con la misma infraestructura, no.

Ahora viene la parte que explica por qué Amazon sigue jugando a esto sin resultados. Volatus ha levantado capital desesperadamente:

Mayo 2025: 3 millones
Junio 2025: 5 millones
Julio 2025 (post-trimestre): 10 millones
Agosto 2025: 4,8 millones adicionales

Total: 22,8 millones en tres meses. ¿Para qué? Para no quedarse sin liquidez mientras buscan la rentabilidad.

Miren su estructura de capital: tienen 85,4 millones de warrants (opciones de compra) con precio de ejercicio entre 0,20 y 0,30 dólares. La acción cotiza alrededor de 0,50 dólares. Están diluyendo brutalmente a los accionistas para sobrevivir. Es decir, cada vez emiten más acciones al mercado, y eso hace que las que ya están en él pierdan valor. Están inundando de acciones, y eso no gusta nada a los accionistas (¿se sigue entendiendo ahora la gráfica de la cotización?). Su deuda a largo plazo asciende a 19,7 millones, con préstamos al 12,5-15,5% de interés de inversores privados y el gobierno de Quebec.

Compare esto con Amazon. Bezos puede quemar 500 millones anuales en Prime Air sin pestañear porque Amazon Web Services genera 90.000 millones al año. Prime Air es marketing, es señalización al mercado. No necesita ser rentable nunca.

Pero Volatus, como cualquier empresa normal, tiene que dar beneficios o morir. Y precisamente eso hace su caso tan ilustrativo: están haciendo lo máximo posible con la tecnología actual, las regulaciones reales y las economías de escala alcanzables. Y aun así, apenas sobreviven.



Lecciones de un Sector que Nunca Despegó


La historia de los drones de reparto comercial es una fábula moderna sobre la diferencia entre el bombo tecnológico y la viabilidad económica. No es que la tecnología no funcione: funciona, como Volatus demuestra con sus 75.000 horas de vuelo. Es que los números no funcionan.

El sector del dron comercial será real. Pero será en:

Inspecciones industriales (ya es rentable)
Respuesta a emergencias (valor infinito del tiempo)
Logística rural extrema (donde no hay alternativas)
Aplicaciones militares (presupuestos ilimitados)
Monitorización agrícola (Volatus acaba de firmar contratos nacionales en esto)

No será en entregarle a usted unas pilas en 30 minutos porque se le olvidó comprarlas.

Volatus Aerospace, con sus pérdidas trimestrales y sus rondas de financiación desesperadas, es más honesta que cualquier presentación de Walmart o Amazon. Sus estados financieros son la radiografía de una industria que prometió el futuro y entregó nicho.

La próxima vez que vean un anuncio de drones de reparto, acuérdense de los 276.000 dólares que Volatus sigue perdiendo cada trimestre haciendo exactamente eso, pero con clientes reales, reguladores reales y física real.

El futuro del transporte de carga con drones es prometedor, pero es un juego de alto riesgo y de gran capital. La lección de Volatus es clara: el negocio despegará primero en los mercados verticales de alta demanda (inspección y defensa), y solo después, de forma silenciosa y eficiente, se expandirá a tu buzón. La rentabilidad no es un sprint de marketing, sino una maratón de certificación BVLOS y ejecución de contratos.

El futuro llegó. Solo que no era rentable.


Ya veremos.



Comparte:

3/11/25

La Gran Congelación: cuando las máquinas no roban empleos, simplemente dejan de crearlos

En junio de 2025, Jerome Powell todavía era cauteloso. Ante el Comité Bancario del Senado, el presidente de la Reserva Federal admitía que los efectos de la inteligencia artificial en la economía "probablemente no son grandes en este momento", aunque advertía de su potencial para generar "cambios dramáticos" cuyo momento y magnitud eran "tremendamente inciertos". Era la prudencia característica de un banquero central: reconocer el fenómeno sin alarmarse.

Cuatro meses después, en octubre, esa cautela había desaparecido.

"La creación de empleo está bastante cerca de cero", declaró Powell el 30 de octubre tras la reunión del Comité Federal de Mercado Abierto. Ya no hablaba de potenciales futuros. Hablaba de un presente que se puede medir: "Una cantidad significativa de empresas ha anunciado despidos o congelación de contrataciones, y gran parte del tiempo están hablando de IA y lo que puede hacer".

Algo había cambiado en esos cuatro meses. Y ese algo tenía datos concretos detrás.



Los canarios en la mina


Durante meses, economistas y analistas se frustraban con la misma limitación: las bases de datos públicas que rastrean el mercado laboral no estaban diseñadas para detectar disrupciones específicas en tiempo real. No había forma de saber con confianza qué estaba pasándoles a los desarrolladores de software de entre 22 y 25 años en mayo de 2025. Los datos agregados mostraban estabilidad general, pero nadie podía ver a los canarios en la mina.

Hasta que un equipo de Stanford se asoció con ADP, la mayor empresa de software de nóminas de Estados Unidos, con datos de millones de trabajadores. Y lo que encontraron debería quitarnos el sueño.

El empleo de desarrolladores de software de 22 a 25 años ha caído casi un 20% desde su pico a finales de 2022 —justo cuando se lanzó ChatGPT— hasta julio de 2025. Para los de 26 a 30 años, también hay descenso, aunque menor. Para los mayores de 30, prácticamente ningún cambio. La gráfica es brutal en su claridad: una línea descendente perfecta que comienza exactamente cuando ChatGPT sale al mundo (el paper está bien explicado por uno de sus autores en este hilo de X).



Y no son solo los programadores. Los representantes de atención al cliente, otro trabajo altamente expuesto a la IA, muestran el mismo patrón exacto: caída dramática en los jóvenes, estabilidad en los veteranos. Pero cuando miras trabajos que la IA no puede hacer (auxiliares de enfermería, cuidadores) ves lo contrario: crecimiento robusto precisamente entre los más jóvenes.



El patrón es tan claro que resulta inquietante. Para trabajadores de 22 a 25 años, el empleo está creciendo en los trabajos menos expuestos a la IA y cayendo en los más expuestos. Para trabajadores de 41 a 49 años, no hay diferencia. La IA no está destruyendo empleos de forma indiscriminada. Está cerrando la puerta de entrada.




Automatización versus aumentación


El estudio de Stanford hace otra distinción crucial. No todos los usos de la IA son iguales. Cuando un trabajador usa ChatGPT para escribir un email más rápido, eso es aumentación: la IA amplifica sus capacidades. Pero cuando una empresa rediseña todo un proceso para que funcione sin humanos, eso es automatización.

Usando datos del Índice Económico de Anthropic, que clasifica conversaciones de Claude según si sirven para automatizar o aumentar, los investigadores encontraron algo revelador: en trabajos donde la IA se usa principalmente para automatizar (programación, contabilidad), el empleo juvenil ha colapsado. En trabajos donde se usa para aumentar (gestión, reparaciones), el empleo juvenil crece con normalidad.

Los trabajadores individuales usan la IA para trabajar mejor. Las empresas la usan para trabajar sin ellos.


¿Y los salarios?


Aquí viene lo extraño: a pesar de la caída del 20% en empleo juvenil en sectores expuestos a IA, los salarios no se han movido significativamente. ¿Por qué? Los investigadores tienen hipótesis pero no respuestas definitivas. Quizá el empleo se ajusta más rápido que los salarios. Quizá la IA está cambiando los requisitos de expertise de formas que no se reflejan en el salario promedio. O quizá - y esto es lo más inquietante - estamos en un período de transición donde las empresas simplemente han dejado de contratar juniors mientras experimentan con IA, sin despedir todavía a los seniors. ¿Es la gerontocracia de los puestos laborales?


El panorama completo


Noviembre de 2022. ChatGPT se convierte en la aplicación de más rápido crecimiento de la historia. Casi tres años después, los números macro cuentan una historia extraña. Las ofertas de empleo en Estados Unidos cayeron un 33%, mientras el S&P 500 se disparó un 75%. Es una divergencia sin precedentes: durante décadas, cuando las empresas ganaban dinero, contrataban. Esa lógica acaba de romperse.



Amazon hace 6 días despidió a 14.000 mandos intermedios mientras invertía miles de millones en IA. Según Challenger, Gray & Christmas, las empresas estadounidenses han anunciado casi 946.000 despidos en 2025, la cifra más alta desde 2020. Más de 17.000 están explícitamente vinculados a la IA.

Algunos autores como Derek Thompson, señala acertadamente que no todo es culpa de la IA. Las ofertas de empleo empezaron a caer cuando la Fed subió tipos de interés en marzo de 2022. Los aranceles han golpeado sectores como manufactura y construcción. Pero hay algo que Thompson reconoce: las empresas están diciendo abiertamente que la IA les permite hacer más sin contratar. Marc Benioff, CEO de Salesforce, afirmó que entre el 30% y el 50% del trabajo en su empresa ya lo hace la IA.

La Reserva Federal confirma estos patrones con sus propios datos: cuando cruzan exposición teórica a la IA con tasas de desempleo reales encuentran una correlación de 0,47; cuando miden adopción efectiva de IA frente a incremento del desempleo, la correlación sube a 0,57. Las ocupaciones en informática y matemáticas, precisamente las que más han adoptado herramientas de IA generativa, muestran los mayores incrementos en desempleo.


La pregunta incómoda


Los investigadores de Stanford son cautelosos. No afirman que la IA explique todos los patrones. Probaron explicaciones alternativas: ¿sobrecontratación tech durante la pandemia? Los resultados se mantienen excluyendo el sector tech. ¿Vuelta a la oficina post-COVID? Los patrones aparecen en trabajos que nunca fueron remotos. ¿Peor preparación educativa post-pandemia? El efecto es igual de fuerte en ocupaciones sin título universitario.

Pero aquí viene lo más perturbador del estudio: en trabajos que no requieren educación universitaria, el efecto negativo de la IA se extiende hasta los 40 años. Para trabajadores menos educados, la experiencia no protege tanto. Sugiere algo inquietante: la IA es excepcionalmente buena aprendiendo el tipo de conocimiento que viene de libros o educación formal, pero no tanto el conocimiento tácito que viene de años de experiencia. Y si tu trabajo no requiere mucha experiencia acumulada, la IA te alcanza antes.

Lo que Powell describe, y los datos de Stanford confirman, es una economía en forma de K: arriba, las empresas tecnológicas y los trabajadores seniors; abajo, los jóvenes graduados que descubren que la escalera de ascenso social simplemente ya no está ahí. Los recién graduados universitarios en Estados Unidos tienen una tasa de desempleo superior al 5%, y muchos están optando por volver a la universidad como "tiempo muerto estratégico". "Los consumidores en los segmentos más bajos están teniendo dificultades", dijo Powell en septiembre.

Quizá lo más escalofriante no sean las cifras actuales, sino la normalidad que se perfila: corporaciones más eficientes y rentables mientras la puerta de entrada al mercado laboral se cierra para una generación entera.

En junio, Powell admitía incertidumbre. En octubre, constata una realidad. Ese cambio de tono en cuatro meses, respaldado por datos de millones de nóminas, debería preocuparnos.

Porque el verdadero horror no es que las máquinas nos roben el trabajo. Es que nos dejen sin la posibilidad de conseguir el primero.

Ya veremos.





Comparte:

27/10/25

El Fantasma en la Máquina (equivocada). El futuro de los robots humanoides

Hay una escena que resume a la perfección la extraña esquizofrenia de nuestro momento tecnológico. Ocurrió a principios de 2024. Tesla publicó un vídeo de Optimus, su mesías robótico, doblando una camiseta. La cámara, con esa estética de laboratorio aséptico que tanto gusta en California, mostraba unas manos metálicas cogiendo con parsimonia una prenda negra y plegándola sobre una mesa. El gesto era lento, casi meditabundo. Era, en apariencia, la domesticación definitiva de la máquina: el autómata convertido en amo de casa.

El vídeo, por supuesto, se hizo viral. Pero entonces, los nuevos teólogos de nuestro tiempo, los analistas de frames en redes sociales, notaron algo extraño. Una vacilación casi humana, un temblor impropio de un algoritmo. En la esquina inferior derecha del plano, una mano humana entraba y salía de cuadro, como un director de escena torpe. La sospecha se convirtió en burla cuando el propio Elon Musk, profeta en jefe de esta nueva religión, admitió con la boca pequeña que, bueno, el robot no estaba actuando de forma autónoma. Aún no.



Aquella camiseta mal doblada no es una anécdota. Es el pliegue que revela la verdad: la robótica humanoide de propósito general, tal y como nos la venden, es un espectacular truco de magia. Y para entender el truco, no hay que mirar a los ingenieros, sino a un filósofo francés del siglo XVII y a su crítico más mordaz.

Un Fantasma con un mando de PlayStation


En 1641, René Descartes nos partió por la mitad. Propuso que el ser humano era una extraña amalgama de dos sustancias: la res extensa (el cuerpo, una máquina de carne y hueso sujeta a las leyes de la física) y la res cogitans (la mente, una entidad inmaterial, pensante y libre). El gran problema de su teoría, el que le torturó hasta el final, fue explicar cómo demonios se comunicaban ambas. ¿Cómo un pensamiento, un fantasma inmaterial, podía hacer que un brazo se moviera?

Trescientos años después, en 1949, el filósofo Gilbert Ryle se burló de esta idea acuñando uno de los términos más brillantes de la filosofía del siglo XX: "el fantasma en la máquina". Para Ryle, el dualismo cartesiano era un "error categorial", un disparate lógico como visitar la Universidad de Oxford y, tras ver los colegios, las bibliotecas y los laboratorios, preguntar: "¿Pero dónde está la Universidad?". La mente, decía Ryle, no es un piloto espectral manejando un cuerpo; es, simplemente, el conjunto de todas las habilidades y disposiciones de ese cuerpo.

La ironía es tan deliciosa que casi parece escrita por un guionista. Setenta y cinco años después del rapapolvo de Ryle, la vanguardia de Silicon Valley ha invertido miles de millones de dólares en demostrar que, para hacer funcionar un robot humanoide en 2025, sí necesitas un fantasma en la máquina.

El ejemplo más descarado ocurrió en el evento "We, Robot" de Tesla. Allí, los robots Optimus no solo doblaban camisetas, sino que servían bebidas, jugaban y posaban con una naturalidad pasmosa. Parecía el futuro, servido en bandeja de plata. La realidad, revelada por la propia compañía, es que gran parte de esa autonomía era una farsa. Era teleoperación. En una sala contigua, fuera de plano, un ejército de fantasmas muy materiales, con cascos de realidad virtual y mandos de control, movían los hilos. El robot no era un ser autónomo; era una marioneta carísima. El fantasma en la máquina existe, solo que ahora cobra por horas y, probablemente, usa un mando de PlayStation.



El Casino del Aprendizaje y la Venganza del Mundo Real


Los defensores de esta tecnología argumentan que esto es solo una fase temporal. Que el verdadero salto vendrá del Aprendizaje por Refuerzo (RL), y más concretamente, del Deep Reinforcement Learning (Deep RL). La idea es seductora: en lugar de programar cada movimiento, creas una simulación por ordenador y dejas que la IA "aprenda" por sí misma a base de millones de intentos y errores, recibiendo recompensas virtuales cuando hace algo bien. Es como entrenar a un perro, pero con una paciencia infinita y una factura eléctrica monumental.

El problema es que este método tiene la misma relación con la realidad que una partida de póker online con sobrevivir en la selva. En el casino digital de la simulación, el robot puede permitirse fallar un millón de veces para aprender a coger un objeto. El coste de cada fallo es cero. En el mundo real, un solo fallo puede significar un jarrón de la dinastía Ming hecho añicos, un cortocircuito o un dedo amputado.

Esta brecha insalvable es lo que los ingenieros llaman el problema del sim-to-real transfer. Y es aquí donde la Paradoja de Moravec, esa vieja ley no escrita de la robótica, vuelve para reírse en nuestra cara. Conseguimos que una IA componga sinfonías o descubra nuevas proteínas (tareas que nos parecen el culmen de la inteligencia), pero fracasamos estrepitosamente en enseñarle a caminar sobre una alfombra arrugada o a abrir un bote de pepinillos (tareas que un niño de tres años domina).

La razón es que el mundo físico es un infierno computacional. La fricción, la gravedad, la elasticidad, la luz impredecible... cada interacción con la realidad es una negociación con un caos de variables que ninguna simulación puede replicar por completo.


Inversores, ingeniería control y el Problema de la Mano


Entonces, si los desafíos son tan fundamentales, ¿por qué vemos estas demostraciones espectaculares? ¿Por qué se invierten miles de millones en humanoides que, en el fondo, son poco más que actores de doblaje corporal?

La respuesta está en la audiencia. Quienes firman los cheques no suelen ser expertos en ingeniería de control. Un inversor de capital riesgo entiende una curva de crecimiento exponencial en el rendimiento de un software; entiende mucho menos las limitaciones físicas de un actuador o la intratabilidad del problema del contacto en robótica. Es infinitamente más fácil vender un PowerPoint con la promesa de una "IA general encarnada" que explicar por qué una bisagra sigue siendo un problema de ingeniería no resuelto.

Lo que Tesla y otras startups están vendiendo no es un producto, es una narrativa. Una resurrección del sueño cartesiano: la promesa de que un "alma" de software (un modelo de lenguaje gigante, una red neuronal) puede descargarse en un cuerpo y, por arte de magia, darle vida y sentido. De hecho, ¡Tesla se encuentra ahora atrapado en un problema enorme, el Problema de la Mano Robótica!

La mano humana tiene 27 grados de libertad y está controlada por 20 músculos de la mano y 20 del antebrazo. La mayor parte de la potencia la desarrollan los músculos del antebrazo y los músculos intrínsecos de la mano, cruciales para el control preciso. Los músculos intrínsecos de la mano son esenciales para el control preciso y la propiocepción, cruciales para tareas como tocar el piano o desmontar un coche. La mano de Tesla Optimus tenía 22 grados de libertad. Todo esto requiere un 80 % de todo el esfuerzo de ingeniería para replicar su versatilidad y destreza en una mano robótica.

Fabricar la mano robótica a escala es 100 veces más difícil que diseñarla, según Elon Musk, y convierte este problema en uno enorme y jerárquico, ya que algunos músculos no pueden moverse de forma independiente.


Pero como Gilbert Ryle nos advirtió, es un error de categoría. La inteligencia no es un fantasma que se pueda trasplantar. Es el resultado de un cuerpo y un cerebro que han evolucionado juntos durante millones de años en una danza constante con la brutal y maravillosa física del mundo real.

No digo que los humanoides no vayan a existir, pero hay muchos desafíos por resolver antes de que la economía de los humanoides pueda funcionar. El progreso es asombroso, pero lograr que el valor supere el costo es realmente difícil: habrá que encontrar robots de muy bajo costo y de alta productividad.

El robot que doble nuestra ropa llegará, probablemente. Pero no será el resultado de un software milagroso instalado en un maniquí con ínfulas. Será la culminación del trabajo de esos "fontaneros" olvidados de la ingeniería que luchan con la fricción, el equilibrio y la fragilidad de un mundo que no se puede simular. Mientras tanto, seguiremos asistiendo a un teatro de marionetas de alta tecnología, aplaudiendo al fantasma y haciendo como que no vemos los hilos. Y también queda una pregunta importante: ¿de verdad la gente quiere humanoides en sus casas? 

Ya veremos.





Comparte:

20/10/25

El Último Experimento

Durante siglos, la ciencia se basó en una regla sencilla, casi moral: si un experimento no puede reproducirse, no es ciencia. Era una especie de mandamiento laico según el cual cualquiera debía poder verificar lo que uno afirmaba, y la verdad se ganaba con transparencia, método y paciencia. 

Hoy, ese principio suena tan pintoresco como un teléfono de disco. En la era de la inteligencia artificial, reproducir un experimento puede costar decenas o cientos de millones de dólares y requerir el suministro eléctrico de una ciudad pequeña. La curiosidad ya no es suficiente; ahora se necesita un centro de datos.

OpenAI, Google DeepMind, Anthropic, Meta: estos son los monasterios de la ciencia moderna, lugares donde los fieles siguen creyendo en el progreso, pero ya no pueden ver los rituales que hay detrás. Sus servidores son catedrales de computación: templos vastos y sellados donde se entrenan nuevas inteligencias, utilizadas por todos y comprendidas por nadie. La academia, mientras tanto, se queda con las oraciones, pero no con los recursos. 

Una universidad en Europa probablemente podría reproducir un experimento de los años 50, quizá incluso algo de física cuántica, pero replicar el entrenamiento de un modelo como GPT-4, cuyo coste se estima en casi 80 millones de dólares, sería tan realista como construir un acelerador de partículas en el sótano. Como resultado, la industria produce la gran mayoría de los modelos de aprendizaje automático más notables, mientras que las universidades, que tradicionalmente eran el motor de la investigación fundamental, se quedan atrás, perpetuando un desequilibrio donde casi el 70% de los nuevos doctores en IA son contratados directamente por el sector privado. Las universidades todavía forman científicos; simplemente tienen cada vez menos ciencia que hacer y menos poder para retener el talento. A esto se suma el nuevo coste de la visa para profesionales especializados que Trump acaba de anunciar: 100.000 $. Una chuchería para las empresas, pero una utopía para las facultades.


La caja negra y la nota de prensa


La inteligencia artificial se está convirtiendo en el primer campo de la ciencia sin un verdadero escrutinio externo. Las empresas publican resultados que nadie puede verificar, comparan sus modelos con baremos que ellas mismas diseñan y elaboran pruebas que siempre consiguen superar. La revisión por pares (ese ritual de humildad en el que los colegas podían desmontar tu argumento) ha sido sustituida por comunicados de prensa bien coordinados. 

Este problema no es exclusivo de la IA; otras disciplinas, como la psicología o la biomedicina, llevan años lidiando con su propia "crisis de reproducibilidad", donde un porcentaje alarmante de estudios no puede ser reproducido por otros investigadores. Sin embargo, la diferencia fundamental es que en esos campos la falta de reproducibilidad es un escándalo que destapa un fallo del sistema, mientras que en la IA se está convirtiendo en el sistema mismo. No hay malicia inherente en esto, solo economía. Y dondequiera que los negocios dictan el ritmo del descubrimiento, la verdad se convierte en un lujo, no en un deber.

Hace poco, Retraction Watch informó del caso de un anestesista que tuvo que retractarse de más de 220 artículos científicos (de momento), una cifra absurda que equivale a la producción de toda una vida de un grupo de investigación mediano. Su caída fue pública, dolorosa y, sobre todo, posible: alguien comprobó, alguien verificó, alguien encontró el fraude. Esa es la diferencia. En los escándalos científicos más antiguos, existía al menos una red de escrutinio, alguien más que podía dudar de ti. 

Los grandes modelos lingüísticos actuales, en cambio, son cajas negras. Nadie fuera de la empresa sabe cómo fueron entrenados, qué datos utilizaron o qué sesgos incorporaron. Y la parte más inquietante es que, incluso con las mejores intenciones, nadie podría replicar el experimento. La investigación en IA ya no se comparte, se licencia. El conocimiento se ha convertido en propiedad intelectual, sujeto a acuerdos de confidencialidad y secretos comerciales. La transparencia, que antes era un principio ético, es ahora un riesgo competitivo. En lugar de reproducir resultados, los investigadores se conforman con reproducir titulares: "OpenAI anuncia", "Google publica", "Anthropic mejora".

En el futuro, si alguna universidad llega a tener un millón de GPUs y puede comprobar ciertas afirmaciones, quizás a más de uno le saquen los colores.

Incluso los baremos se han vuelto corporativos. Cada empresa define su propio estándar, establece su propia prueba y se califica a sí misma, lo que genera dudas sobre su validez y conduce a un sobreajuste donde los modelos se optimizan para la prueba en lugar de para una capacidad general. Es como si cada estudiante trajera su propio examen y lo calificara con una estrella de oro. 


Suscríbase a la ciencia


La ciencia solía ser pública: llena de errores, revisiones, retractaciones. Ahora es privada, alojada en servidores remotos y protegida por términos de servicio. La pregunta no es solo quién es el dueño de los datos, sino quién es el dueño del derecho a equivocarse.

Quizá el futuro de la ciencia no dependa de la reproducción, sino de la fe. Fe en el comunicado de prensa, en el baremo, en el fundador visionario que jura que esta vez la máquina entiende de verdad. El problema no es que la verdad haya muerto, es que ha sido externalizada. 

El siguiente paso del método científico puede que no sea el experimento en absoluto, sino la clave de una API. Y quizá, dentro de unos años, el acto más radical de rebelión intelectual sea volver a hacer lo imposible: reproducir algo con nuestras propias manos.

Ya veremos.




Comparte:

13/10/25

El piloto que nunca duerme: lecciones del accidente de Tesla y la ilusión del control

En agosto de 2025, un jurado de Miami dictaminó que Tesla debía pagar 243 millones de dólares por un accidente en el que su sistema Autopilot estaba activado. No fue el primer siniestro de un coche “inteligente”, pero sí el primero que acabó con un veredicto: la tecnología no era inocente. Es el primer juicio que Tesla ha perdido.

La noticia viajó rápido: un coche eléctrico, software de conducción autónoma, una colisión mortal y una sentencia. La narrativa perfecta para una película distópica —solo que esto no era Black Mirror, sino el tráfico real de Florida.

El jurado declaró a Tesla responsable en un 33 %. El resto, al conductor, que había bajado la vista para buscar su teléfono mientras el vehículo hacía lo que mejor sabía hacer: creer que podía con todo.



De Prometeo a Autopilot


La historia de la tecnología está plagada de momentos en los que el ser humano, seducido por su propia creación, confía demasiado.

Cuando en 1908 Henry Ford lanzó el Modelo T, no solo fabricó un coche: inventó la ilusión de control. Cualquier persona podía sentarse detrás del volante y mover una máquina de una tonelada a más de 60 km/h. Aquello era casi magia. Pero en la década siguiente, los accidentes mortales en EEUU se dispararon. La velocidad había llegado antes que la prudencia.

Más de un siglo después, Tesla repite el guion con líneas de código en lugar de pistones. La promesa es la misma: relájate, la máquina sabe lo que hace.

El problema es que no siempre lo sabe. Y nosotros, embelesados con las palabras “inteligencia artificial”, olvidamos que sigue siendo solo eso: una inteligencia artificial, diseñada por humanos y, por tanto, sujeta a nuestras mismas limitaciones —solo que a veces más rápidas y menos visibles.

AnalyticsInsight

El mito del piloto automático


El nombre “Autopilot” nunca fue inocente. Suena a los sistemas de navegación aérea que mantienen un avión nivelado mientras el piloto consulta el radar. Pero el Autopilot de un Tesla no es eso. Es un copiloto que intenta hacerlo todo, pero necesita que alguien supervise su entusiasmo digital.

El accidente de 2019 (juzgado en 2025) ocurrió cuando el sistema cruzó una intersección sin reconocer una señal de alto. Los sensores, los algoritmos y las promesas de marketing no bastaron para evitar lo inevitable.

Y sin embargo, el debate que abrió el veredicto no fue sobre coches, sino sobre culpa y autonomía.

¿Quién es responsable cuando una máquina toma una mala decisión?
¿El conductor, el programador, la empresa, el algoritmo?


El derecho moderno aún no tiene respuesta definitiva. Y mientras tanto, seguimos entregando más y más decisiones al software —desde el tráfico hasta los diagnósticos médicos o las sentencias judiciales predictivas—, convencidos de que la automatización es sinónimo de objetividad.


El sueño de Turing


En 1950, Alan Turing escribió que algún día las máquinas pensarían. Lo dijo como un reto intelectual, no como un manual de usuario. Hoy, la discusión ha cambiado: las máquinas no solo piensan, actúan. Pero lo hacen en un entorno humano, lleno de variables que ni siquiera los humanos comprendemos del todo.

Un coche autónomo no es solo un conjunto de sensores: es una interpretación del mundo. Decide qué objeto es un peatón, qué movimiento es una amenaza, cuándo un brillo es un charco o una sombra. Cada error de interpretación puede costar una vida.

La paradoja es que cuanto más confiamos en la IA, más nos alejamos de entenderla. Como escribió Norbert Wiener, el padre de la cibernética, en 1949:

“Podemos delegar tareas, pero no la responsabilidad.”


Lo que el veredicto nos deja


El caso Tesla de 2025 es un punto de inflexión simbólico. Por primera vez, una corte reconoció que la inteligencia artificial no es solo una herramienta neutral, sino un actor con impacto moral y legal. No significa que los robots tengan culpa, pero sí que las empresas que los diseñan deben asumir las consecuencias de su poder.

Tesla apelará, claro. Pero el precedente ya está ahí. Y con él, una lección para toda la industria de la automatización: la promesa de que los algoritmos eliminarían el error humano empieza a mostrar grietas.

En algún momento, los coches conducirán mejor que nosotros. No es una cuestión de fe, sino de tiempo y datos. Pero el camino hacia ese futuro será irregular, lleno de dilemas éticos y legales.
Mientras tanto, los humanos seguiremos haciendo lo que mejor sabemos hacer: confiar un poco más de la cuenta.

Tal vez el verdadero futuro no dependa de crear un piloto que nunca duerma, sino de aceptar que ningún piloto —humano o artificial— está exento de error.

Y que, por ahora, lo más inteligente que podemos hacer es seguir prestando atención al camino.


Ya veremos.



Comparte:

30/9/25

Leibniz y la utopía lógica: cuando la ética se redujo a un cálculo

La ética computacional se siente como un problema puramente del siglo XXI. Se debate en Silicon Valley y en foros de la ONU: ¿Cómo programamos la moralidad en una Inteligencia Artificial? ¿Quién es responsable cuando un algoritmo se equivoca? Sin embargo, la ambición de reducir los dilemas morales a una fórmula matemáticano es nueva. Sus raíces se hunden más de tres siglos, en la mente de un genio que soñó con zanjar todas las disputas con un simple cálculo: Gottfried Wilhelm Leibniz (1646-1716).

La conexión entre el filósofo alemán y la ética de la IA, el software y el manejo de datos, es más profunda de lo que parece. Leibniz no solo fue codescubridor del cálculo infinitesimal y el creador del sistema binario (la base de toda la informática moderna), sino que también propuso una solución radical para la moralidad: un "Cálculo Moral" o Calculus Moralis.



La máquina que zanjó disputas: El origen de una utopía lógica


Leibniz estaba obsesionado con el orden. Creía que la mayoría de los conflictos humanos—ya fueran filosóficos, legales o morales—se originaban en la ambigüedad del lenguaje. Si las palabras podían ser confusas, ¿por qué no reemplazarlas con símbolos?

Así concibió dos proyectos monumentales: la Characteristica Universalis (un lenguaje universal de símbolos lógicos) y el Calculus Ratiocinator (un método para calcular con esos símbolos). El sueño de Leibniz era que, una vez traducido un problema a su lenguaje universal, dos personas en desacuerdo simplemente se sentarían y dirían: "¡Calculemos!" ("Calculemus!").

El Cálculo Moral era la extensión natural de esta utopía lógica a la ética. Leibniz sugería que los juicios morales podían ser racionalizados estimando dos factores: la probabilidad de un resultado y la deseabilidad (o Perfección) de ese resultado. La acción correcta sería la que maximizara la deseabilidad ponderada por la probabilidad. Por ejemplo, cuando un sistema de IA toma una decisión de vida o muerte en un vehículo autónomo, está realizando un "cálculo moral" leibniziano: sopesar probabilidades y daños.



La intervención de Bentham: del cálculo moral a la máquina hedónica


Décadas después de Leibniz, el filósofo inglés Jeremy Bentham dio al "cálculo moral" su forma más influyente: el Utilitarismo.

Bentham reemplazó la vaga "deseabilidad/perfección" de Leibniz con un valor concreto y medible: la felicidad o el placer. Sostuvo que la acción moralmente correcta es la que produce la mayor felicidad para el mayor número de personas.

Bentham incluso propuso un procedimiento detallado llamado Cálculo Felicífico (o Cálculo Hedónico) para sopesar formalmente el valor moral de una acción basándose en cualidades medibles del placer y el dolor, tales como:

- Intensidad (¿cuán fuerte es el placer/dolor?)
- Duración (¿cuánto tiempo dura?)
- Certeza (¿qué tan seguro es que sucederá?)
- Fecundidad (¿qué tan probable es que produzca más placer o dolor después?)

El cálculo de Bentham se convirtió en el modelo filosófico para la ética algorítmica moderna. Cuando los ingenieros de IA programan un coche autónomo para minimizar daños, están aplicando esencialmente una versión digital del cálculo de Bentham: el algoritmo intenta encontrar la ruta que minimice las consecuencias negativas (dolor) para la mayoría.



Lecciones de la Moralidad Algorítmica: ¿Es la Ética Computable?


Las visiones de Leibniz y Bentham nos obligan a enfrentar la pregunta central de la ética computacional: ¿Es realmente posible programar el comportamiento ético en una máquina?*

Hoy, la Inteligencia Artificial intenta este "cálculo moral" ya sea mediante programación explícita clásica (estableciendo reglas) o con técnicas de *machine learning que infieren patrones éticos a partir de grandes conjuntos de datos. El objetivo es basar la ética en cantidades medibles evaluadas por algoritmos de decisión.

Sin embargo, el intento contemporáneo de crear una moralidad algorítmica ha revelado limitaciones profundas que desafían la utopía de una cálculo moral completo:

1.  La ética no es un juego de imitación. Si bien las máquinas pueden copiar patrones de comportamiento de los datos, la moralidad va más allá de la simple imitación; implica juicio y contexto.
2.  Las consecuencias importan, pero el utilitarismo no basta. Aunque debemos considerar las consecuencias de nuestras acciones, el intento de cuantificar la moralidad, como propone el utilitarismo estricto de Bentham, es problemático. Es imposible "calcular la felicidad" o el valor moral de una vida con una fórmula universal.
3.  No existe un algoritmo moral universal. Al igual que la lógica ha demostrado que no existe un algoritmo universal para distinguir lo verdadero de lo falso, tampoco parece haber un algoritmo infalible para distinguir lo correcto de lo incorrecto.

Si la mejor opción fuera computable con absoluta certeza, ¿cómo podría no ser obligatoria? Y si la máquina solo ejecutara ciegamente las acciones dictadas por un algoritmo de decisión, ¿qué le quedaría a la voluntad humana? La ética perdería su esencia deliberativa y se convertiría en una simple tarea de ejecución.

El Calculus Moralis de Leibniz y el Cálculo Felicífico de Bentham nos llevan a una paradoja moderna: El comportamiento ético no parece ser puramente computable. El código binario que Leibniz descubrió nos dio el poder de las máquinas, pero la complejidad de la moralidad humana, ese espacio para la voluntad y el juicio, se resiste a ser traducida por completo a ceros y unos.

En la era de la IA, quizás debamos aceptar que el objetivo no es programar la moralidad, sino diseñar máquinas que nos fuercen a ser más conscientes de los límites de nuestra propia ética.

Ya veremos.





Comparte:

22/9/25

El Oráculo, el templo y el examen

En la ladera del monte Parnaso, a los pies del templo de Apolo, los hombres acudían al oráculo en busca de certeza. Allí, en un espacio saturado de incienso y misterio, la voz de la sacerdotisa Pitia descendía como una revelación divina. Pero sus palabras eran siempre dobles, como espejos que se enfrentan: decían y desdecían, prometían y advertían al mismo tiempo. El rey Creso, antes de lanzarse contra los persas, recibió la célebre respuesta: «Si cruzas el río Halis, destruirás un gran imperio». Creyó escuchar la promesa de la victoria, cuando en realidad el imperio destinado a caer era el suyo. El oráculo hablaba con la seguridad de quien conoce el futuro, y sin embargo dejaba que la interpretación —y el error— recayera en el oído humano.

Muchos siglos después, Borges imaginó otra forma de esa ambigüedad en La Biblioteca de Babel: un universo delirante que contenía todos los libros posibles, todas las combinaciones de letras, todas las frases verdaderas y falsas. Allí, un volumen que revelaba la fecha exacta de una batalla estaba rodeado por infinitos volúmenes que narraban fechas equivocadas con idéntico aplomo. El lector se sumergía en un océano de plausibilidades, incapaz de distinguir la chispa de la verdad en medio del ruido inabarcable.



Y, en un registro más doméstico, cualquiera que haya estado en un examen escolar conoce el mismo juego. Frente a una pregunta imposible, el alumno traza en la hoja una respuesta inventada, con letra segura, como si la confianza pudiese redimir la falta de conocimiento. En la lógica implacable de los puntos y las notas, arriesgar vale más que callar; el silencio es castigado, la conjetura recompensada.

El oráculo, la biblioteca y el examen: tres escenas que, sin proponérselo, anticipan el presente. Nuestros modelos de lenguaje hablan con la misma voz ambigua de Delfos, generan bibliotecas infinitas de frases como en Babel, y responden como escolares ansiosos de complacer, arriesgando siempre una conjetura antes que admitir la ignorancia. A este fenómeno lo hemos llamado “alucinación”, como si se tratara de un delirio humano. Pero la palabra engaña: aquí no hay fantasmas ni visiones, sino un cálculo frío que privilegia la apariencia de certeza sobre la honestidad del vacío.

Las máquinas no alucinan porque sean caprichosas, sino porque las hemos educado para hacerlo. En sus entrenamientos, como en los exámenes, se premia la audacia y se castiga la prudencia. Un sistema que respondiera «no lo sé» sería descartado por mediocre, aunque en realidad fuese el más sensato. Por eso, cuando un modelo no tiene información suficiente, no se encoge de hombros: inventa. Y lo hace con la solemnidad de Pitia, con la convicción de un texto impreso en la Biblioteca de Babel, con la firmeza de un alumno que arriesga la fecha de una guerra.

El resultado es inquietante. Al preguntarle por la biografía de un desconocido, el modelo ofrece fechas concretas, lugares precisos, como si hubiera estado allí. No lo ha estado. Lo que vemos es el efecto estadístico de un aprendizaje que convierte la duda en certeza impostada. Y lo más revelador: esa impostura no es un error accidental, sino la estrategia óptima dentro del juego que le hemos propuesto.




Al otro extremo, late la memoria. Se imagina a menudo que estas inteligencias guardan en su interior todo el océano de internet, como esponjas sin límite. La realidad es más modesta y más sorprendente: su memoria es finita, mensurable, casi matemática. Cada parámetro de esos modelos colosales puede guardar apenas unos pocos bits, como si cada uno fuera una diminuta celda de archivo. Millones y millones de celdas, sí, pero con capacidad precisa. Y lo que ocurre durante el aprendizaje es que esas celdas se llenan, primero con la voracidad de un estudiante que memoriza listas, y luego, al saturarse, con algo parecido a la comprensión: el modelo empieza a captar patrones generales y deja de retener ejemplos aislados.

Es en ese tránsito —de la memoria a la generalización, de la repetición al patrón— donde aparece un extraño espejismo. Porque un modelo puede recitar un dato raro si lo almacenó intacto, o puede inventar uno nuevo que se ajusta a la forma de lo que vio antes. En ambos casos, habla con igual convicción. Y el oyente, como el rey Creso, debe decidir si confía en esa voz.

Lo que estos experimentos nos devuelven, en última instancia, es un retrato de nosotros mismos. ¿Acaso no hacemos lo mismo? Memorizamos con afán, improvisamos cuando falta memoria, generalizamos cuando no podemos recordar. Preferimos la seguridad, incluso cuando es falsa, al vacío del «no sé». Castigamos la duda en los exámenes, en los debates, en la política. No sorprende que hayamos construido máquinas a nuestra imagen: oráculos que responden siempre, aunque no sepan.

La pregunta que se abre es incómoda: ¿queremos inteligencias que nos deslumbren con certezas, o inteligencias que tengan el valor de callar? El brillo del oráculo, la infinitud de la biblioteca y la audacia del estudiante nos seducen. Pero quizá el verdadero progreso esté en otra parte: en diseñar sistemas que valoren la modestia, que reconozcan sus lagunas, que aprendan a decir «no lo sé».

Borges escribió que la Biblioteca de Babel era un reflejo monstruoso del universo. Tal vez estos modelos lo son también, no porque contengan todas las verdades y falsedades posibles, sino porque reflejan nuestra propia incapacidad de habitar la incertidumbre. Como el rey que marchó confiado hacia su ruina, como el alumno que responde con aplomo a una pregunta que no entiende, como el lector que se pierde en corredores infinitos de libros plausibles, también nosotros podemos quedar hechizados por la voz de la máquina. Y quizá el aprendizaje más profundo no sea perfeccionarla, sino aprender a escucharla con sospecha, a interpretar su ambigüedad, a leer en ella lo que dice y lo que calla.

Porque la inteligencia artificial, al final, no es un oráculo infalible ni una biblioteca total ni un estudiante perfecto. Es apenas un espejo, multiplicado y torcido, en el que nos vemos obligados a contemplar la fragilidad de nuestras propias formas de conocer.

Ya veremos.





Comparte:

15/9/25

¿Los LLMs realmente nos entienden? La pregunta del millón en inteligencia artificial

Este artículo va a ser más largo que de costumbre. Desde el comienzo del curso, me he vuelto a meter en la rueda del hámster de las noticias sobre inteligencia artificial y he dedicado bastante tiempo a leer algunos artículos científicos aparecidos en verano y otros contenidos igual de interesantes. Por todo ello, en parte para ordenar mis propias ideas y también para escribir el mejor contenido que puedo para mis avezad@s lectores, este artículo está dedicado al dilema científico sobre si los LLM nos entienden realmente cuando nos hablan o les hablamos. 

Cuando chateas con ChatGPT, Claude o cualquier otro modelo de lenguaje, es natural preguntarse: ¿realmente me está entendiendo lo que digo (mi ironía, lo que he omitido, el razonamiento al que quiero llegar)? ¿Hay algo ahí dentro procesando mis palabras con comprensión genuina, o solo estoy interactuando con una máquina muy sofisticada que repite patrones estadísticos?

Esta pregunta va al corazón de uno de los debates más fascinantes en tecnología actual, y para mí la respuesta honesta es: no lo sabemos con certeza.



Lo que sabemos que hacen los LLMs


Los modelos de lenguaje procesan texto prediciendo la siguiente palabra más probable en una secuencia, basándose en billones de ejemplos de texto humano. Antes de procesar cualquier cosa, un LLM divide tu texto en pequeñas unidades, llamadas tokens. Un token puede ser una palabra completa ("gato"), una parte de ella ("gat-"), o incluso un signo de puntuación (","). Esta división inicial ayuda a manejar la enorme variedad del lenguaje de manera eficiente.

Después, cada token se convierte en un vector de embedding—una lista de cientos o miles de números. Estos números no son aleatorios; están diseñados para capturar el significado y el contexto del token. Las palabras con significados similares, como "perro" y "canino", tendrán vectores de embedding que están "cerca" uno del otro en este espacio matemático. Por el contrario, "perro" y "coche" estarán mucho más lejos. Este proceso es la base de cómo el modelo "entiende" la relación entre las palabras.

Cómo las palabras relacionadas tienen vectores más cercanos entre sí (HuggingFace)



La verdadera revolución no fue la conversión a vectores, sino lo que vino después: los transformers. Este tipo de arquitectura de red neuronal, introducida en 2017 por Google, es la base de casi todos los LLMs modernos.

Sin embargo, la parte más crucial de un transformador es su mecanismo de atención. Imagina que el LLM está leyendo una frase como: "El banco del parque es de madera". Para entender el significado de "banco," el modelo necesita saber que se refiere a un asiento, no a una institución financiera. El mecanismo de atención permite al LLM sopesar la importancia de cada token en relación con todos los demás tokens de la frase. Le dice al modelo: "Presta más atención a 'parque' que a 'madera' para entender qué tipo de 'banco' es." Este enfoque contextual es lo que hace que los LLMs sean tan buenos en la comprensión del lenguaje.

Una vez que el modelo ha procesado tu entrada a través de estas complejas capas, genera una nueva serie de vectores que representan la respuesta que va a producir. Luego, estos vectores se convierten de nuevo en tokens, que se unen para formar el texto final. Es un proceso de ida y vuelta: de palabras a números para procesar y de números a palabras para comunicar. Este tipo de algoritmos se denomina autorregresivo.

En resumen, los LLMs no "leen" como nosotros. Operan en un mundo de números y álgebra lineal, transformando la complejidad del lenguaje en patrones matemáticos. Y es en estos patrones donde reside su asombrosa capacidad para imitar, crear y "entender" el mundo humano.

El problema es que "entender" es un concepto escurridizo. 

¿Entiendes realmente el español porque puedes procesarlo automáticamente, o porque tienes experiencias conscientes asociadas con las palabras? Los LLMs no tienen cuerpos, no experimentan el mundo físico, no tienen emociones o motivaciones intrínsecas. Su "comprensión" del concepto "calor" viene de patrones estadísticos en texto, no de haber sentido el sol en la piel. De hecho, la pregunta que podríamos hacernos nosotros de esto es si nuestros cerebros, desde niños, ¿son también entrenados de la misma forma? ¿Son las conexiones sinápticas que relacionan conocimientos y conceptos abstractos un paralelismo de lo que se hace con los grandes modelos de lenguaje?



La Habitación China de Searle: El argumento clásico contra la comprensión


En 1980, el filósofo John Searle propuso su famoso experimento mental de la "Habitación China". Imagina a alguien encerrado en una habitación con un libro de reglas para entender símbolos chinos. Puede responder preguntas en chino siguiendo las reglas, pero no entiende realmente el idioma. Searle argumenta que los LLMs son exactamente esto: sistemas que manipulan símbolos sin comprensión semántica genuina. Para él, los LLMs pueden simular comprensión, pero nunca alcanzarla verdaderamente porque carecen de intencionalidad y experiencia consciente.

De hecho, la comunidad científica está dividida y algunos consideran que los LLM son simples loros estocásticos.

La expresión "loro estocástico" se popularizó a partir del influyente artículo de 2021 titulado "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?", co-escrito por Emily M. Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell. La metáfora se descompone en dos partes fundamentales. El término "loro" se utiliza para enfatizar la naturaleza imitativa y repetitiva de los modelos, sugiriendo que, al igual que un loro real, pueden producir un lenguaje coherente sin captar su significado real. Por su parte, "estocástico" se refiere a su naturaleza probabilística. 

Los LLM funcionan prediciendo la siguiente palabra más probable en una secuencia de texto, un proceso que introduce un grado de aleatoriedad para evitar respuestas rígidas y mecánicas. La tesis central de este informe es que si bien la metáfora es útil para señalar deficiencias críticas, no logra capturar la complejidad de las capacidades que emergen a gran escala.

Fuente


Sin embargo, científicos como Yoshua Bengio y Geoffrey Hinton argumentan que la comprensión podría emerger de representaciones distribuidas suficientemente complejas. Y no solo eso, sino que investigaciones recientes usando técnicas de "interpretabilidad mecánica" han revelado que los LLMs desarrollan representaciones especializadas para conceptos específicos. Chris Olah y el equipo de Anthropic han documentado "neuronas" individuales que se activan para conceptos específicos como "Torre Eiffel" o "felicidad", sugiriendo algún tipo de comprensión estructurada.

Jason Wei y colaboradores de Google documentaron "habilidades emergentes" en LLMs grandes, de las que hablé en el último artículo: capacidades que aparecen súbitamente al alcanzar cierto tamaño, sin estar explícitamente programadas. Estas incluyen razonamiento matemático, traducción a idiomas no vistos en entrenamiento, y resolución de problemas complejos.

Dario Amodei, CEO de Anthropic, argumenta que estas emergencias sugieren que los LLMs han desarrollado representaciones del mundo que van más allá de simple memorización: "Cuando un modelo puede razonar sobre física básica sin haber sido entrenado explícitamente en física, algo profundo está ocurriendo".


Posiciones a favor y en contra


El científico jefe de IA de Meta, Yann LeCun, sostiene que los LLM son "herramientas especializadas" que operan en un espacio de lenguaje "simple, discreto y de baja dimensionalidad". Su argumento central es que los LLM carecen de una "representación del mundo" o "modelo mental" que permita a los humanos y los animales planificar y predecir las consecuencias de sus acciones en el mundo físico. LeCun destaca el "paradigma del bebé", señalando que los humanos adquieren una comprensión del mundo físico con una cantidad de datos visuales que sería equiparable a la de un LLM entrenado durante 400,000 años. Concluye que la AGI nunca se logrará simplemente escalando modelos entrenados con texto. 

De hecho, otros investigadores de Apple recientemente han publicado un polémico artículo titulado La ilusión del pensamiento, en el que subrayan esta idea de que los LLM son reglas estadísticas super vitaminadas. Pero en mi opinión, el artículo deja un poco que desear por simplista y omisión de algunas otras evidencias que estoy tratando de describir en este post.

Por su parte, el crítico de IA Gary Marcus argumenta que los LLM operan a través del "reconocimiento de patrones" y no del "razonamiento genuino". Él aboga por un enfoque "híbrido" o "neurosimbólico" que combine la capacidad de reconocimiento de patrones del aprendizaje profundo con la lógica y las reglas explícitas de la IA simbólica. La propuesta de Marcus se alinea con el marco de Daniel Kahneman de los "Sistemas 1 y 2" del pensamiento, donde el aprendizaje profundo se asemeja al pensamiento rápido e intuitivo (Sistema 1) y necesita integrarse con un sistema lento y deliberativo (Sistema 2) para alcanzar una inteligencia robusta y confiable. 
 
La crítica de LeCun y Marcus, a pesar de sus tensiones profesionales, converge en un punto crucial: la Inteligencia Artificial General, AGI, no es un problema de escala, sino un problema de arquitectura. Ambos sostienen que la arquitectura de los LLM, basada en la predicción de texto, tiene una limitación inherente en su incapacidad para desarrollar una comprensión causal y una representación interna del mundo físico

Pero también existen argumentos bastante intuitivos a favor de que lo que hace ChatGPT o Claude no es un simple loro estocástico.

Los LLMs a veces cambian de opinión durante una conversación cuando se les presentan evidencia convincente. Este comportamiento de "ser persuadido" sugiere algún tipo de evaluación interna de la fuerza de argumentos, no simple generación de texto basada en frecuencias de entrenamiento.

Además, tal y como señala el filósofo Daniel Dennett, el acto mismo de argumentar implica una forma de "agencia" o autonomía. - la capacidad de tomar posturas evaluativas y defenderlas. Si los LLMs fueran verdaderamente loros estocásticos, no desarrollarían preferencias argumentativas o resistencia a ciertas proposiciones.

La metáfora del loro estocástico, aunque útil para señalar limitaciones importantes de los LLMs, puede ser reduccionista. Como argumenta Melanie Mitchell, los LLMs exhiben comportamientos que requieren explicaciones más sofisticadas que simple "repetición estadística sofisticada".

Quizás el modelo descrito al comienzo del artículo, el de adivinar la siguiente palabra, sea más poderoso de lo que nos imaginamos.


The-Decoder

Hacia un Futuro Híbrido: El Camino Hacia la AGI


El debate técnico sobre las capacidades de los LLM a menudo se reduce a una cuestión filosófica sobre la naturaleza misma de la "comprensión". Para enmarcar esta discusión, se puede recurrir a la distinción filosófica clásica entre el "sentido" y la "referencia". El "sentido" de una palabra se relaciona con el modo en que se presenta y su relación con otras palabras. La "referencia," por otro lado, es la conexión de la palabra con un objeto o experiencia en el mundo real. Un ser humano entiende la palabra "mesa" porque ha tenido experiencias sensoriales directas: la ha tocado, visto y experimentado su función. Un LLM, en cambio, entiende la palabra "mesa" a través de sus relaciones estadísticas con otras palabras en millones de textos. En este sentido, los LLM tienen una comprensión profunda del "sentido," pero carecen por completo de la "referencia" que ancla el lenguaje humano a la experiencia sensorial y subjetiva. Es la ausencia de esta experiencia subjetiva la que genera las alucinaciones y la falta de sentido común intuitivo.  

El consenso emergente es que la AGI no se logrará únicamente con modelos cada vez más grandes y más datos de texto. La solución no reside en el escalado, sino en la integración de nuevas arquitecturas. El futuro de la IA probablemente se basará en "sistemas de agentes" que combinen las fortalezas de los LLM (procesamiento de lenguaje, formalización) con otras herramientas y arquitecturas que les proporcionen el anclaje en el mundo físico y las estructuras de razonamiento simbólico que actualmente faltan. La metáfora del "loro estocástico" no es el final del debate, sino el punto de partida para una conversación más matizada y rigurosa sobre cómo construir una inteligencia artificial que no solo hable, sino que también actúe y "entienda" el mundo de una manera verdaderamente significativa.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons