Inteligencia artificial, robótica, historia y algo más.

11/10/24

La encrucijada de los aerotaxis: entre la quiebra y la gloria

Los vehículos eVTOL (despegue y aterrizaje vertical eléctrico), conocidos popularmente como aerotaxis, están acaparando últimamente algunos titulares de prensa. La semana pasada leí una de las últimas: Lilium se enfrenta a la quiebra si no recibe un préstamo del Gobierno alemán.

Lilium ha acumulado hasta ahora unas pérdidas de casi 1.500 millones de euros, sin apenas ingresos. Ahora el dinero se acaba. En su informe semestral, el pionero del taxi aéreo advierte incluso de una rápida insolvencia.

Los documentos afirman literalmente que, según la planificación financiera, «el grupo necesita inmediatamente capital adicional para seguir financiando su actividad en curso». Volocopter, la empresa que iba a sobrevolar París durante los pasados Juegos Olímpicos, también ha advertido de sus problemas financieros.

Desarrollar prototipos es fácil.

Pero según muchos expertos, el modelo de negocio eVTOL podría ser sólo una farsa tecnológica. Como ya dije en el pasado, las empresas de eVTOL son enormes máquinas de quemar dinero, y todas y cada una de las predicciones de ese post se han cumplido. Las reglas de la competición de eVTOL son sencillas: invertir todo el dinero que se pueda en conseguir la certificación necesaria para volar y la producción en serie -que ahora tiene un coste aproximado de 1.500 millones de dólares-, y conseguir dinero de los inversores para seguir quemando efectivo. El primero que lo consiga, gana la partida.

Joby Aviation es una de las empresas que parece estar ganando esta carrera. Han conseguido más de 3.000 millones de dólares de inversores como Toyota, Delta Air Lines, SK Telecom y Uber, y han realizado impresionantes exhibiciones en 2024:


Pero eso es todo. La farsa podría no durar más. A pesar de los sonoros anuncios de asociaciones de eVTOL con gobiernos, la NASA y otras instituciones, las cifras comerciales y los números técnicos siguen sin tener ningún sentido.

Próximos aerotaxis a volar


Los viajes iniciales de Joby probablemente llevarán a los pasajeros del centro de Nueva York o Los Ángeles al aeropuerto. Hoy, un coche Uber Black desde el centro de Manhattan al aeropuerto JFK costará unos 200 dólares. La velocidad será el gran argumento de venta. «Un vuelo en una aeronave de Joby desde un helipuerto del centro de Manhattan al JFK durará aproximadamente siete minutos, frente a unos 50-75 minutos en coche», dijo el CEO de Joby.

La empresa, sin embargo, se resiste a predecir un precio para sus servicios en sus declaraciones públicas, pero parece que al principio serían mucho más caros que Uber. Según algunas estimaciones, el precio del viaje será de 3 dólares por milla, basándose en una duración media del vuelo de 24 millas a una velocidad de crucero de 165 mph, transportando una carga media de 2,3 pasajeros y con un tiempo de respuesta de seis minutos. Y su expectativa, es que el coste de un viaje por pasajero se espera que esté a la par con un UberX.

Pero espere. ¿Quién podría querer ir al aeropuerto en un medio de transporte más rápido y lujoso? ¿Quién podría permitirse valorar tan alto su tiempo, aparte de los empresarios más ricos? ¿Cómo podría ser económicamente viable una empresa que quema dinero sostenida únicamente por superricos?

Pero esperen: estudios recientes han revelado que las cifras de autonomía de las baterías en la mayoría de los eVTOL estaban claramente sobreestimadas, debido a las duras condiciones de trabajo de los eVTOL durante el vuelo. Las baterías disminuirán rápidamente su rendimiento.

Y no, seguro que no volarás en un eVTOL propulsado por hidrógeno. Las razones para distribuir y mantener la potencia del hidrógeno como fuente de energía son técnicas justas, pero las condiciones de experimentación para lograr esos 523 hitos en el caso de Joby son bastante complicadas, y en realidad, las condiciones reales de vuelo con pasajeros a bordo lograrían un rendimiento y una autonomía muy inferiores.

Un Ford Levacar Mach 1 de exhibición (Michigan, 1959). Nunca se llevó a producción


Sólo puedo asegurarte una premisa básica de la física: cuantos más rotores tenga tu aeronave, menos eficiente energéticamente será. En realidad, así es como funcionan los helicópteros, que son bastante caros de usar, ahorran tiempo en comparación con los taxis y los consumen los súper ricos. Entonces, ¿por qué necesitamos crear aerotaxis si ya existen helicópteros? ¿Es la industria de los eVTOL sólo una farsa tecnológica para seguir aumentando el valor de las acciones y huir con el dinero? ¿Cuántas más de las actuales empresas de eVTOL quebrarán?

El tiempo lo dirá.







Comparte:

3/10/24

¿Y si las personas en realidad prefiriéramos sociedades más desiguales?

Cualquiera que busque pruebas de que las personas tienen una aversión natural a la desigualdad encontrará numerosos estudios de laboratorio que parecen confirmar su opinión. Los estudios han descubierto «un deseo universal de mayor igualdad salarial», «igualitarismo entre los seres humanos», «igualitarismo en los niños pequeños» y que «la igualdad triunfa sobre la reciprocidad». Una búsqueda en Google Scholar de «aversión a la desigualdad» arroja más de 10.000 artículos sobre este tema.

En el ámbito de la inteligencia artificial, a menudo nos enfrentamos a cuestiones de justicia, igualdad y parcialidad. Pero, ¿y si nuestra comprensión de las preferencias humanas por la igualdad es fundamentalmente errónea? Un fascinante artículo ha arrojado luz sobre una verdad contraintuitiva: los seres humanos podrían preferir sociedades desiguales.

Cuando observamos el comportamiento de las personas en estudios de laboratorio, es fácil caer en la trampa de pensar que los seres humanos están predispuestos a la igualdad. Estos estudios pintan a las personas como santos amantes de la igualdad. Si se les da la oportunidad de repartir recursos entre desconocidos, los participantes suelen hacerlo por igual. Si se encuentran con una desigualdad preexistente, intentarán equilibrar la balanza dividiendo los recursos futuros de forma desigual. Este impulso por la igualdad es tan fuerte que algunas personas prefieren escenarios en los que todos reciben menos pero por igual, en lugar de escenarios desiguales en los que todos reciben más.

La gente parece considerar la distribución igualitaria como moralmente buena, enfadándose con quienes se benefician de la desigualdad. Incluso están dispuestos a pagar un coste personal para castigar a quienes distribuyen los recursos de forma desigual. Esta tendencia se da en todas las culturas: un estudio realizado en 15 poblaciones diversas reveló una disposición universal a castigar la distribución desigual, aunque la gravedad variaba. Incluso los niños de tres años muestran este sesgo hacia la igualdad. Y lo que es más revelador, los niños son igual de propensos a rechazar las distribuciones desiguales cuando éstas reflejan generosidad.


¿Y si los humanos realmente prefirieran las sociedades desiguales?

Dada la aparente preferencia humana por la igualdad en estudios controlados, cabría esperar que la gente abogara por una distribución de recursos perfectamente igualitaria en escenarios del mundo real. Sin embargo, la realidad pinta un panorama distinto.

Un estudio pionero realizado por Norton y Ariely en 2017 captó la atención de los medios al revelar dos datos clave: las personas tienden a subestimar el nivel de desigualdad en la sociedad y expresan su deseo de un sistema más igualitario del que creen que existe actualmente.

Los investigadores enmarcaron su trabajo como una exploración de «desacuerdos sobre el nivel óptimo de desigualdad de la riqueza». Sus conclusiones revelaron un consenso inesperado: en todos los grupos demográficos -incluidos los que no suelen asociarse con la redistribución de la riqueza, como los republicanos y los ricos- existía una preferencia por una distribución más equitativa de la riqueza en comparación con el statu quo percibido.

Ariely incluso escribió un artículo con un título provocador: «Los estadounidenses quieren vivir en un país mucho más igualitario (sólo que no se dan cuenta)».

Sí, los participantes expresaron un deseo de más igualdad de la que creían que existía. Sin embargo, los datos también revelaron una sorprendente tolerancia hacia las importantes disparidades de riqueza.

Cuando se les pidió que describieran su sociedad ideal, los encuestados sugirieron un modelo en el que el 20% más rico poseería más del triple de riqueza que el 20% más pobre. Esta visión, aunque más igualitaria que la percepción de las condiciones actuales, sigue abarcando una desigualdad sustancial.

Estos resultados cuestionan nuestras suposiciones sobre la actitud de la gente ante la distribución de la riqueza. Sugieren que, si bien existe un interés por reducir la desigualdad extrema, también hay una aceptación generalizada -quizá incluso una preferencia- por un cierto nivel de disparidad económica en la sociedad.


Equidad frente a igualdad

Es fundamental señalar que definir la desigualdad en sí es una tarea compleja. Los investigadores sostienen que necesitamos una definición consensuada del término «desigualdad». Hay que considerar al menos tres ideas distintas pero relacionadas: igualdad de oportunidades en la sociedad, distribución justa basada en el mérito e igualdad de resultados. Cada una de ellas representa un tipo diferente de desigualdad que se manifiesta en la vida cotidiana.

La clave para entender esta paradoja reside en distinguir entre justicia e igualdad. En el laboratorio, los resultados iguales suelen ser también los justos. Pero en el mundo real, la gente cree que deben tenerse en cuenta factores como el esfuerzo, la capacidad y el merecimiento moral, lo que lleva a preferir resultados desiguales pero justos.

He visto con mis ojos esta paradoja de la desigualdad: como profesor universitario, me pregunto cuántos de mis alumnos de grado seguirían estudiando una carrera dura si supieran que pueden ganar el mismo sueldo que alguien que no necesita obtener ningún título. ¿Tendríamos las aulas llenas si aceptáramos y consiguiéramos que un friegaplatos, un camarero, una limpiadora, o cualquier otra profesión de baja cualificación, ganara lo mismo que un arquitecto o un ingeniero? Tengo serias dudas.

Hace poco leí el excelente libro de Michael Sandel La tiranía del mérito, que me hizo reflexionar mucho sobre este concepto. La meritocracia se utilizaba originalmente como un insulto, no estaba bien vista. Sin embargo, casi todos los discursos políticos defienden esta idea y el mitificado sueño americano. Si toda la sociedad se rigiera por la meritocracia, el libro explica que habría una masa cruel de personas a las que se acusaría injustamente de no esforzarse lo suficiente y, por tanto, de no ser alguien importante en la sociedad. Sin embargo, como la mayoría de nosotros sabrá, el mérito académico, vital y laboral no sólo se basa en nuestro propio esfuerzo, sino que intervienen muchas más variables, como quiénes son nuestros padres o sus ingresos.

Reconocer estas diferentes dimensiones es crucial para formular un enfoque holístico que aborde la desigualdad, tanto en la sociedad... como en los sistemas de IA.




Comparte:

20/9/24

Herramientas gratuitas de inteligencia artificial en educación

La inteligencia artificial (IA) está transformando rápidamente diversos aspectos de nuestras vidas, y el campo de la educación no es una excepción. En los últimos años, hemos sido testigos de un creciente interés en la aplicación de herramientas de IA para mejorar y personalizar la experiencia educativa. Desde sistemas de tutoría adaptativa hasta asistentes virtuales para docentes, la IA promete revolucionar la forma en que enseñamos y aprendemos. Las adaptaciones de los planes de estudio para el empleo de estas herramientas se está cociendo lenta, pero firmemente, creo.

Tenemos que tener claro qué no hará la IA en nuestros centros educativos:

La IA nunca será capaz de alternar estrategias de enseñanza según el día, la hora, la motivación de los estudiantes o la materia de cada clase. Adaptarse y flexibilizar la hora de clase, midiendo el ambiente de clase, está solo al alcance de docentes humanos. Por no hablar de captar la atención, promover el diálogo y escuchar con verdadero interés las preocupaciones de los estudiantes. Dudo que podamos disponer de una inteligencia artificial que evite la disrupción, los conflictos, el desapego a la escuela o la pesada mochila (no solo física) que porta cada alumno.


Aún así, cada vez hay más evidencia científica de que estas herramientas pueden contribuir a una liberación de carga de trabajo de los docentes, a una educación más personalizada, y a una enseñanza y aprendizaje más eficaz, y que permitirá a los estudiantes ser ciudadanos más conscientes de la tecnología que nos está invadiendo en estos tiempos. Prueba de esta evidencia son los informes de la UNESCO, Guía para el uso de IA generativa en educación e investigación, o el documento de la Comisión Europea, Directrices éticas sobre el uso de la inteligencia artificial en la educación y formación para los educadores.


Fuente


En todo caso, desde este post me gustaría contribuir a la adopción de estas herramientas y la mejora de la educación de la mejor manera posible, y por eso, os traigo algunas de las mejores herramientas gratuitas que he encontrado para su uso en las aulas:


ChatGPT
ChatGPT destaca por su capacidad para ofrecer explicaciones detalladas, entablar debates sobre una amplia gama de temas y generar ideas creativas. Su versatilidad le permite adaptarse a diversos contextos, personalizando el proceso de aprendizaje. Esta adaptabilidad permite proporcionar respuestas ajustadas a las necesidades específicas de cada estudiante, potenciando así la aplicación individualizada del aprendizaje. El límite para aplicar esta herramienta a educación es la imaginación del docente, y se le puede pedir resumir textos, reescribirlos, corregir la ortografía, pedir que prepare el contenido para un temario concreto, o incluso crear el guion para una presentación.


Diffit
(Asistente IA para la creación de recursos educativos)

El principal reclamo de esta herramienta con IA es que facilita al profesorado la búsqueda de recursos para sus asignaturas, indicando la fuente de donde extrae la información. Así, genera textos sobre el tema que se le indique y tiene en cuenta el curso de los estudiantes para adaptarlos a sus conocimientos de forma más fácil; de estos textos también elabora un resumen, un vocabulario con las palabras más importantes y un cuestionario que los docentes pueden utilizar para comprobar si el alumnado ha entendido los contenidos explicados. El profesorado puede compartir, por otro lado, los contenidos que genera la aplicación mediante tarjetas didácticas, cuadernos de ejercicios, de respuesta corta… Es posible probarla de manera gratuita durante un mes y el único requisito es disponer de una cuenta de Google.


QuestionWell (Generador inteligente de cuestionarios educativos)
QuestionWell es una innovadora herramienta diseñada para simplificar la labor docente en la creación de exámenes y actividades de evaluación. Con solo unos minutos, los profesores pueden generar cuestionarios personalizados relacionados con su temario específico y crea preguntas relevantes en cuestión de minutos, tanto para exámenes como para actividades de clase. Además, permite exportar los cuestionarios a plataformas populares como Moodle, Quizziz y Kahoot! Y con una cuenta Google, se puede emplear su versión gratuita con las funcionalidades básicas.


GrammarlyGO (Creador y optimizador de contenido escrito)
GrammarlyGO permite a los usuarios crear escritos, reescribir y generar ideas de manera rápida y fácil. Otras características, como responder al contexto del correo electrónico que recibes, generar ideas y esquemas, y mejorar tu escritura de manera inteligente, también están accesibles. Para concluir, la versión de IA de Grammarly puede proporcionar funciones más personalizadas y beneficiosas para aquellos que quieren crear y pulir sus escritos.


PDFGear (Herramienta inteligente para resumir)
PDFgear es una herramienta de IA completamente gratuita que puede ayudarte a extraer rápidamente información de un archivo PDF grande y está entre los mejores resumidores de IA y mejores chatbots educativos. Para usarlo, puedes preguntar cualquier cosa en el archivo PDF y localizar lo que buscas en segundos, lo que lo hace una solución útil para resumir artículos de investigación. Además, puedes usar esta herramienta de IA para revisar múltiples PDFs de una sola vez.



Y hay muchas más herramientas interesantes,  como Duolingo o Socrative. En mi trabajo, por ejemplo, desarrollamos una herramienta de inteligencia artificial con el lenguaje gráfico de programación Scratch. Y como participante en algunas actividades de la Comisión Europea sobre estos temas educativos, esto es un tema que me apasiona. Así que si tenéis cualquier duda o queréis contactar conmigo, lo podéis hacer aquí sin problema y estaré encantado de ayudaros.

Y recordad,

La IA no ofrece el afecto que se merecen los alumnos. Nada sustituye el aliento o el consuelo del docente. Sin el apoyo personal y la compañía del profesorado perpetuaríamos un modelo basado únicamente en la eficiencia donde la inclusión pasa a un segundo plano. Los cientos de datos (muchas veces inútiles) de nuestras hojas de cálculo calificadoras serán poca cosa en comparación a los millones de datos que cada estudiante producirá a lo largo de su trayectoria educativa. Citando a Freire, en sus "Cartas a quien pretende enseñar", las cualidades de un docente son insustituibles por máquina alguna: la humildad, la amorosidad, la valentía, la tolerancia, la competencia, la capacidad de decidir, la seguridad, la ética, la justicia, la tensión entre la paciencia y la impaciencia, la parsimonia verbal...





Comparte:

17/9/24

Sobre la posible prohibición de los LLM

Después de tres años, este verano se aprobó la Ley de Inteligencia Artificial, la nueva ley de la UE. Pero la realidad es que el trabajo duro empieza ahora. Aunque la ley entrará en vigor el 1 de agosto de 2024, los ciudadanos de la UE empezarán a ver los cambios a finales de año. Los organismos reguladores tendrán que ponerse en marcha para hacer cumplir la ley como es debido, y las empresas dispondrán de hasta tres años para cumplirla. Hay muchos resúmenes en la red sobre las implicaciones de esta ley, pero haré aquí mi propio resumen para contextualizar este post. Aquí está el texto completo de la ley y una guía útil para navegar por ella. Esto es lo que cambiará (y lo que no) con la Ley de IA:



1. Algunos usos de la IA quedarán prohibidos este mismo año
La Ley impone restricciones a los casos de uso de la IA que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad, la educación y la vigilancia policial. Estos usos quedarán prohibidos a finales de año.

También prohíbe algunos usos que se consideran un «riesgo inaceptable». Entre ellos se incluyen algunos casos de uso bastante extravagantes y ambiguos, como los sistemas de IA que despliegan «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y dificultar la toma de decisiones informadas», o explotan a personas vulnerables. La Ley de IA también prohíbe los sistemas que infieren características sensibles, como las opiniones políticas o la orientación sexual de alguien, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohíbe la creación de bases de datos de reconocimiento facial mediante el scrapeo de bases de datos de Internet, como hace Clearview AI.

Sin embargo, hay algunas salvedades bastante importantes. Por ejemplo, la Ley de IA no prohíbe de plano los casos de uso controvertidos de la IA, como el reconocimiento facial. Y aunque las empresas y las escuelas no están autorizadas a utilizar software que pretenda reconocer las emociones de las personas, pueden hacerlo si es por razones médicas o de seguridad.


2. Será más obvio cuándo estás interactuando con un sistema de IA
Las empresas tecnológicas estarán obligadas a etiquetar los deepfakes y el contenido generado por IA y notificar a las personas cuando estén interactuando con un chatbot u otro sistema de IA. La Ley de IA también exigirá a las empresas que desarrollen medios generados por IA de forma que sea posible detectarlos. Esta es una noticia prometedora en la lucha contra la desinformación, y dará un gran impulso a la investigación en torno a las marcas de agua y la procedencia de los contenidos.


3. Los ciudadanos podrán denunciar si han sido perjudicados por una IA
La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar el cumplimiento, la aplicación y la ejecución (y están contratando personal). Gracias a la Ley de IA, los ciudadanos de la UE podrán presentar quejas sobre los sistemas de IA cuando sospechen que han sido perjudicados por uno de ellos, y podrán recibir explicaciones sobre por qué los sistemas de IA tomaron las decisiones que tomaron. Es un primer paso importante para dar a las personas más capacidad de actuación en un mundo cada vez más automatizado. Sin embargo, esto requerirá que los ciudadanos tengan un nivel decente de conocimientos sobre IA y sean conscientes de cómo se producen los daños algorítmicos. Para la mayoría de la gente, estos son todavía conceptos muy extraños y abstractos.


4. Las empresas de IA tendrán que ser más transparentes
La mayoría de los usos de la IA no requerirán el cumplimiento de la Ley de IA. Sólo las empresas de IA que desarrollen tecnologías en sectores de «alto riesgo», como infraestructuras críticas o sanidad, tendrán nuevas obligaciones cuando la Ley entre plenamente en vigor dentro de tres años. Entre ellas figuran mejorar la gobernanza de los datos, garantizar la supervisión humana y evaluar cómo afectarán estos sistemas a los derechos de las personas.

Las empresas de IA que desarrollen «modelos de IA de propósito general», como modelos lingüísticos, también tendrán que crear y conservar documentación técnica que muestre cómo construyeron el modelo, cómo respetan la ley de derechos de autor y publicar un resumen disponible públicamente de qué datos de entrenamiento se utilizaron para entrenar el modelo de IA. Otras empresas, por el contrario, simplemente no lanzarán su producto en Europa.

Según la Comisión Europea, «actualmente, se considera que los modelos de IA de propósito general que se entrenaron utilizando una potencia informática total de más de 1025 FLOPs plantean riesgos sistémicos.» (La Orden Ejecutiva de Biden sobre IA se basaba anteriormente en 1026 FLOPs)

También vale la pena señalar que los modelos de IA gratuitos y de código abierto que comparten todos los detalles de cómo se construyó el modelo, incluida su arquitectura, parámetros y ponderaciones, están exentos de muchas de las obligaciones de la Ley de IA. Según esta ley, «específicamente desarrollados y puestos en servicio con el único fin de la investigación y el desarrollo científicos» de sus normas. Aunque esta exención es útil para permitir la investigación científica, los modelos de IA producidos con fines académicos bajo una licencia de código abierto pueden luego ser reutilizados con fines comerciales. Esta disposición crea de hecho una laguna legal por la que los modelos de IA producidos con fines científicos eluden las normas de seguridad que la UE ha creado bajo la creencia de que dichas normas son necesarias para prevenir los daños causados por la IA.


¿Pueden los gobiernos controlar el futuro de la IA? Parece que van a intentarlo

En los 18 meses transcurridos desde que ChatGPT de OpenAI irrumpió en escena, seguido de una oleada de chatbots de IA competidores, el mundo se ha visto inundado de visiones contradictorias sobre nuestro futuro impulsado por la IA. Estas predicciones abarcan desde sueños utópicos hasta pesadillas distópicas, dejando muchas preguntas sin respuesta: ¿Iniciará la IA una nueva era de progreso sin precedentes o nos llevará por el camino de la destrucción social?

Esta constatación ha suscitado intensos debates sobre cómo aprovechar las ventajas de la IA al tiempo que se mitigan sus riesgos. En las últimas semanas se ha producido una oleada de actividad en este ámbito:

¿Podrían los gobiernos prohibir el uso de herramientas de inteligencia artificial?

Un informe encargado por el gobierno estadounidense advierte de los importantes riesgos para la seguridad nacional que plantea la IA y sugiere, entre otras cosas, prohibir la publicación de modelos de código abierto, con penas de cárcel si es necesario.



Un informe encargado por el gobierno de Estados Unidos advierte de los importantes riesgos para la seguridad nacional que plantea la inteligencia artificial. Los tres autores del informe, titulado An Action Plan to Increase the Safety and Security of Advanced AI, trabajaron en él durante más de un año. Hablaron con más de 200 funcionarios, expertos y empleados de empresas líderes en IA, como OpenAI, Google DeepMind, Anthropic y Meta.

No solo eso, sino que EEUU también está considerando restringir la «exportación» a China de modelos de código abierto y propietarios de LLM. Todavía no me he enterado de cómo quieren aplicar esta medida. Y cada vez se encuentran más iniciativas para prohibir las iniciativas de código abierto en todas partes.




Código abierto y LLM

Como hemos mencionado antes, la Ley de IA exime al código abierto del cumplimiento de las normas, aparentemente, pero han creado una enorme complejidad en la consideración de lo que es el código abierto. En realidad, el término «código abierto» no significa nada, y las instituciones especializadas adaptan continuamente las definiciones oficiales. Así que la reglamentación de este concepto puede ser realmente difícil o injusta. Imagino que los legisladores intentan evitar el siguiente escenario:

Esos modelos serán incontrolados, lo que implica una de cuatro subcreencias:
1. Comenzarán su vida como código abierto;
2. Estarán mal controlados por sus creadores de código cerrado;
3. Los desarrolladores de código abierto, como Meta y Mistral, seguirán con entusiasmo a los proveedores de código cerrado y lanzarán modelos con capacidad para causar daños catastróficos como código abierto;
4. Un actor malicioso creará por sí mismo un modelo capaz de causar daños catastróficos.

No puedo imaginar cómo podría ejecutarse esta medida, o incluso cómo podría auditarse con precisión cualquier algoritmo de IA. Si hoy le preguntaras a Sam Altman cómo funciona GPT o1, no te diría nada, a pesar de conocer el código. Como dije en mi último post, la interpretabilidad del código es una idea poliedrica.

Sin embargo, sigo convencido de que los gobiernos no dejarán que esta tecnología sea totalmente libre. ¿Sabías que la NSA está sentada en el consejo de OpenAI? ¿Podría el gobierno decidir que hay que pedir un permiso especial para utilizar una determinada cantidad de potencia de la GPU?

Este asunto no significa que se vaya a multar a un autónomo que desarrolle una aplicación basada en ChatGPT para orientar a los clientes a la hora de comprar un coche. La Comisión Europea en el texto, diferencia claramente entre un sistema de inteligencia artificial y un modelo de inteligencia artificial, y por tanto, esta prohibición está pensada en alguien como Sam Altman, que podría lograr la tan deseada AGI.

Recordemos que hace unas semanas, Twitter fue prohibido en Brasil.





Comparte:

8/9/24

La revolución de la IA en el campo de batalla

En la niebla de la guerra, la información es poder. Y en Ucrania, la inteligencia artificial está atravesando esa niebla como nunca antes. El conflicto en curso se ha convertido en un campo de pruebas para los sistemas militares basados en IA, con la plataforma Delta de Ucrania a la cabeza. Junto a ella, la MetaConstellation de Palantir y los innovadores drones Saker están remodelando la forma de librar las guerras en el siglo XXI. Lejos de los robots no realistas e inspirados en Hollywood, la verdadera innovación reside en la gestión de datos. Veamos cómo estas revolucionarias tecnologías están dejando su huella en el campo de batalla.



Delta: El centro de mando ucraniano potenciado por IA

Una de las bazas de Ucrania en la guerra contra Rusia es el sistema Delta, responsable de la obtención de imágenes del campo de batalla en tiempo real. La solución ucraniana se ha integrado, entre otros, con el sistema polaco de control de tiro Topaz.

Delta es un sistema desarrollado en Ucrania, responsable del conocimiento de la situación y la gestión del campo de batalla. Su tarea consiste en procesar datos obtenidos de diversas fuentes (incluidos los proporcionados por países occidentales) y mostrarlos en tiempo real.

De este modo, los mandos ucranianos pueden seguir en directo la situación del campo de batalla. Delta está disponible tanto en ordenadores normales como en tabletas y teléfonos inteligentes. El sistema se considera un eslabón clave de la «cadena de mando» ucraniana (el proceso que va desde la detección del objetivo hasta su destrucción).

Imagine un sistema capaz de seguir los movimientos del enemigo, predecir sus próximos pasos y ayudar a coordinar una respuesta, todo ello en tiempo real. Eso es Delta en pocas palabras. Desarrollado por innovadores militares ucranianos, Delta es esencialmente un «Google para los militares».

Así es como funciona:

  • Recogida de datos: Delta obtiene información de diversas fuentes: drones, satélites, sensores terrestres e incluso redes sociales.

  • Análisis de inteligencia artificial: Los algoritmos de inteligencia artificial del sistema analizan los datos e identifican patrones y posibles amenazas.

  • Visualización: Toda esta información se muestra en una interfaz cartográfica de fácil manejo, que ofrece a los mandos una imagen clara del campo de batalla.

  • Ayuda a la toma de decisiones: Delta no se limita a mostrar lo que está ocurriendo, sino que ayuda a predecir lo que podría ocurrir a continuación, contribuyendo así a la planificación estratégica.


¿Cuál es el impacto? Las fuerzas ucranianas pueden reaccionar más rápida y eficazmente a los movimientos rusos. Es como tener una bola de cristal, pero alimentada por IA de vanguardia en lugar de magia. De alguna manera, este es el uso más puro de la Inteligencia Artificial, ya que se trata de limpiar y procesar datos. Probablemente, el sistema Delta ha sido el primer uso real de la IA en batalla.

Así que es importante entender que el sistema Delta no es un arma autónoma cruel, sino que «sólo» ayuda a tomar decisiones mejores y más rápidas que los humanos. Mi opinión es que es ridículo dejar que una máquina tome decisiones militares, y además, los estados de la OTAN no pueden saltarse la cadena de mando: cada acción tomada en el campo de batalla y sus implicaciones deben estar claramente respaldadas por un equipo humano, y ellos serán los únicos responsables en caso de que algo vaya mal.

Este sistema no se ha inventado en dos días, sino que Ucrania lo ha estado desarrollando a lo largo de los últimos años y presentándolo a sus aliados.




MetaConstelación de Palantir: Ojos en el cielo

Mientras que Delta procesa información procedente de diversas fuentes, MetaConstellation de Palantir se centra en proporcionar inteligencia satelital de primera categoría. Este sistema no se limita a obtener bonitas imágenes del espacio, sino que cambia la forma en que se utilizan los datos de los satélites en la guerra.

MetaConstellation hace algunas cosas clave:

  • Fusión de datos: Combina datos de múltiples fuentes satelitales, incluidos satélites comerciales y gubernamentales.

  • Análisis basado en inteligencia artificial: Al igual que Delta, MetaConstellation utiliza IA para analizar estos datos, detectando cambios y anomalías que los analistas humanos podrían pasar por alto.

  • Información predictiva: El sistema puede ayudar a predecir acontecimientos futuros basándose en patrones observados, lo que proporciona a las fuerzas ucranianas una ventaja estratégica.

Al proporcionar este nivel de conocimiento, MetaConstellation ha desempeñado un papel crucial en importantes operaciones ucranianas, como la liberación de Kherson.

Podría ser una aplicación que cambiara por completo las reglas del juego en futuras guerras. Además, según las declaraciones corporativas de Palantir, están planeando dar un gran impulso a su división militar y compartir este tipo de sistemas con sus clientes (obviamente, reducidos a aliados del Tío Sam).




Conozca al Saker Scout

En un hecho sin precedentes, los desarrolladores ucranianos han confirmado que sus drones ya realizan ataques autónomos contra las fuerzas rusas sin operadores humanos. Esto marca un hito importante en la guerra, ya que es el primer uso confirmado de esta tecnología en combate. Hace ya algunos meses que oímos hablar de este sistema en las noticias.

Esta maravilla impulsada por IA puede:

  • Identificar y atacar 64 tipos diferentes de objetivos militares rusos

  • Operar en zonas con fuertes interferencias de radio

  • Transportar hasta 3 kilos de explosivos

  • Recorrer aproximadamente 12 kilómetros


El Saker Scout no trabaja solo. Está integrado con el sistema de inteligencia Delta de Ucrania, creando un mapa completo del campo de batalla mediante la fusión de datos de diversas fuentes. Esta integración permite

  • Reconocimiento autónomo de zonas

  • Identificación rápida de posiciones enemigas

  • Reducción drástica del tiempo de análisis

  • Capacidad de ataque autónomo


Quizás lo más controvertido sea que el Saker Scout puede realizar ataques totalmente autónomos. Sin embargo, este punto merece una breve explicación. El sistema Saker no es un sistema plug & play en el que el dron decide desde el campo de batalla a qué enemigo atacar. No. La realidad es un poco diferente: debido a las defensas electromagnéticas (jamming), los drones de ambos bandos no pueden acercarse a la línea de frente de sus enemigos sin ser detectados, o sin que sus comunicaciones sean suprimidas debido al jamming. Así que los ucranianos diseñaron una solución muy inteligente. Un piloto humano puede volar hasta la zona donde comienza el bloqueo, e incluso elegir algún lugar del campo enemigo para atacar. Entonces, el soldado puede cambiar el modo de vuelo a autónomo, y el sistema Saker guiará el dron hasta el objetivo que el soldado señaló un minuto antes. De este modo, las interferencias no pueden detener a los drones. Obviamente, los robots no pueden decidir a qué enemigo atacar. El robot aéreo puede volar de forma autónoma menos de 1 km normalmente, y esta táctica se denomina autonomía terminal.

Aunque de momento esta capacidad sólo se ha utilizado a pequeña escala, plantea importantes cuestiones éticas y preocupaciones sobre el futuro de la guerra.

Curiosamente, la empresa Saker no nació de necesidades militares. Fundada en 2021, en un principio se centró en el desarrollo de IA asequible para pequeñas empresas, especialmente en agricultura. Sin embargo, la invasión rusa provocó un rápido giro hacia las aplicaciones militares.



Conclusión

Toda la nueva vigilancia masiva desarrollada para esta guerra está haciendo que muchas armas tradicionales, como los tanques, no se acerquen a menos de 8-10 km del frente, ya que son detectadas inmediatamente: las viejas tácticas de guerra se están quedando obsoletas.

Mientras Ucrania sigue desplegando estos drones dotados de inteligencia artificial, el mundo observa atentamente. El uso de armas autónomas en combate ya no es un escenario hipotético: está ocurriendo ahora. Una cosa es segura: el genio ha salido de la botella. Los sistemas basados en IA como Delta, MetaConstellation y Saker han llegado para quedarse y están cambiando nuestra forma de entender la guerra moderna. Mientras observamos cómo evolucionan estas tecnologías en los campos de batalla de Ucrania, vislumbramos los conflictos venideros, para bien o para mal.




Comparte:

25/8/24

La búsqueda del gadget que sustituirá al teléfono móvil

Este verano me ha venido a la mente en varias ocasiones un nuevo gadget que Apple lanzó al mercado hace unos meses. Lo han llamado Vision Pro y son unas gafas de realidad mixta que permiten al usuario sumergirse en una mezcla entre realidad real y virtual. Seguro que una imagen del producto lo explicará mucho mejor que yo.




Sin embargo, no deja de llamarme la atención esta imagen extraída del vídeo de presentación de este producto, en el que se ve a un padre que lleva esas gafas y está grabando a su hija. Qué ironía.



Y no soy el único, ya que enseguida aparecieron comentarios sobre dicha escena, y lo absurdo que es que en el cumpleaños de tus hijos lleves puesto un casco que te aísle del mundo. ¡Y pagando 3.500$ por el cacharro!

Hace unos meses, las redes sociales clamaban en contra de las pantallas y su uso en educación, a la par que se lanzaban obras de investigadores en psicología alertando de la supuesta conexión entre el uso de internet y el suicidio entre adolescentes. Pero sobre los adultos no se decía nada, esa debía de ser la ventaja.

El caso es que las Vision Pro volvieron a aparecer en noticias para anunciar que muchos usuarios estaban devolviendo las gafas a los pocos días de recibirlas, ya que les provocaba mareos. Y no nos debería extrañar, ya que la cinetosis que provoca las náuseas y los mareos en realidad virtual se conoce desde hace algunas décadas, y se pueden encontrar muchas noticias en la web (aquí o aquí, como muestra) sobre los problemas que tenían este tipo de gafas para no provocar estas desagradables sensaciones. Precisamente, la última vez que se mencionó este tema fue cuando Meta intentó poner de moda su famoso Metaverso y sus gafas Oculus Rift.

Por mucho marketing y mucha ciencia, aún hay quien no quiere aprender, y Meta sigue intentando desarrollar unas nuevas gafas de esas con las que uno podría usar para bucear, pero también ha creado en colaboración con Ray-Ban unas gafas "normales" que permiten grabar y hacer fotos a todo lo que te rodee.

Sin ninguna duda, las grandes empresas Big Tech están persiguiendo ser las primeras en diseñar- o provocar que nos guste- cómo será el próximo dispositivo de electrónica de consumo que sustituya al smartphone, y ha habido varios ejemplos sobre ello: aparte de estas gafas de realidad mixta que combinarían una gran cantidad de capacidades de la IA generativa y liberar las manos, Samsung ha probado a desarrollar un anillo, el pin de Humane y el Rabbit R1. En palabras del experto en tecnología, Antonio Ortiz:

En las últimas semanas, la recepción de dos propuestas de nuevo hardware basado en IA - el pin de Humane y el Rabbit R1 - ha estado entre la ridiculización y una decepción poco disimulada. Ambos planteaban la tesis inicial: con los grandes modelos de lenguaje multimodales y su capacidad de procesar la voz, el texto y la imagen, tendremos asistentes con los que manejar el mundo digital. Lo haremos con la voz y sin necesidad de utilizar el teléfono móvil.

Es en este último aspecto donde hay un debate interesante. Escapar del smartphone parece más una necesidad de los fabricantes que algo consecuencia de la base técnica. El punto con las Ray-Ban conectadas de Meta es que son un complemento del teléfono móvil y, no aspirando a sustituirlo, pueden lograr que lo usemos menos. De repente vas haciendo alguna foto o vídeo sin sacarlo del bolsillo.


A casi nadie le está convenciendo estos dispositivos. La narrativa de Apple refleja una visión tecnológica optimista, reminiscente de la era dorada del iPhone: la tecnología digital como herramienta de empoderamiento, creatividad y conexión, que libera y potencia al individuo. Sin embargo, el signo de los tiempos actual ha cambiado. Como en un péndulo, hoy nos encontramos en el extremo opuesto. Hoy, el discurso imperante es que la tecnología nos está volviendo adictos, que era una excusa de las empresas para tenernos permanentemente conectados al trabajo, que estamos generando contenido gratuito para las grandes plataformas de redes sociales, y que encima, nos están vigilando y espiando.

La propuesta de usar gafas de realidad mixta en entornos íntimos como reuniones familiares o entre amigos choca con nuestro sentido común actual. Esto sugiere que Apple podría estar desconectada de las preocupaciones contemporáneas, y que sigue viviendo en la misma época de marketing donde el iPhone lo cambió todo. La sociedad actual busca relaciones humanas y experiencias mundanas menos mediadas por la tecnología, mientras que la realidad aumentada/virtual representa precisamente lo contrario. Y este verano, mientras yo descansaba al aire libre y veía cómo se comportaba la gente, creo que es en lo que no paraba de fijarme, y en la necesidad de experiencias no-digitales que sigue queriendo tener la gente, aún y cuando no suelta su teléfono móvil de la mano.

Establecer nuevos hábitos tecnológicos es un desafío considerable, especialmente cuando se malinterpreta el clima de opinión pública, como parece ser el caso de Apple en esta ocasión.






Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons