Inteligencia artificial, robótica, historia y algo más.

17/9/21

¿Y si la vacuna del COVID-19 la hubiera desarrollado una inteligencia artificial?

Un famoso informe de la ONU en el que se afirma que la inteligencia artificial durante la pandemia ha servido para bien poco, pero que eso no implica que no haya que seguir desarrollando mejores modelos para el futuro. Entre los cuales, está el de la búsqueda y descubrimiento de medicamentos. Puede sonar a ciencia ficción, pero este ámbito es uno de los campos de esta disciplina en la que más esfuerzo se está poniendo.

Pensemos en una red neuronal que, a partir de la exploración de miles de componentes, hubiese desarrollado algún tipo de fármaco para luchar contra la COVID-19. ¿Nos hubiésemos fiado de la misma manera que si la hubieran desarrollado unos investigadores por el método tradicional, de acumulación de conocimiento de los científicos, y lenta y ardua tarea de prueba y error en sus oscuros laboratorios?

En esta ocasión, de momento nos hemos librado de haber puesto nuestra salud en manos de una entidad artificial. La empresa Moderna empleó inteligencia artificial en su vacuna, aunque sirvió tan solo para acelerar el proceso. Pero hay nuevas oportunidades a la vuelta de la esquina.

De hecho, somos nosotros mismos los que estamos proporcionando datos a las empresas mediante el empleo de relojes inteligentes, el registro de nuestras pulsaciones, de nuestros pasos, del tiempo de nuestros paseos por el monte. ¿Y si algún día recibimos el aviso de que tenemos que ir al médico, porque nuestro reloj inteligente identifica que vamos a sufrir un ataque cardíaco?

Vayamos un poco más lejos, y es que a pesar de que no sea muy conocido, el regulador de salud de EEUU (FDA, Food and Drug Administration) ya tiene aprobados multitud de algoritmos de machine learning. Y sí, es el mismo regulador que aprobó las vacunas en ese país. Algunos de esos algoritmos son relativos a las siguientes enfermedades: Retinopatía diabética a partir del escaneo ocular, roturas de muñeca a partir de placas de rayos X, o detección de infarto cerebral durante su monitorización.

Como se ve, son algoritmos de vigilancia y aviso a especialistas, en su mayoría. Sin embargo, en su esencia, se tratan de cajas negras que intervienen en nuestra salud. ¿Cómo nos podemos fiar de que esos algoritmos funcionan correctamente? ¿Qué entendemos por un algoritmo entendible y transparente? A esto se le denomina explicabilidad de la IA (explainability of AI), y habitualmente se encuentra como XAI. Ojo, que poder afirmar con rotundidad que un algoritmo es explicable, no es nada sencillo, y las definiciones son bastante resbaladizas, tal y como lo demuestra el artículo The Mythos of Model Interpretability. En este tema de soluciones informáticas transparentes, no descubro nada si afirmo que es mucho más fácil decirlo que hacerlo. El delicado equilibrio entre el secreto industrial y la garantía de salud pública es muy difícil de sostener, y en la mayoría de ocasiones, el derecho de la propiedad intelectual prevalece.

Poco a poco, sin embargo, van apareciendo algunos sencillos algoritmos a los cuales se les puede seguir la pista de por qué han decidido una cosa u otra. Esencial en aplicaciones de salud. Uno de ellos, por ejemplo, se denomina RETAIN, Reversed Time Attention Model, y fue desarrollado en el Instituto Tecnológico de Georgia, por Edward Choi et al.

La idea consiste en que, con el registro de las visitas al hospital de un paciente (visits, en rosa) y eventos ocurridos durante esa visita (events, en azul), intentar predecir el riesgo de ataque al corazón. Para ello, los investigadores dividieron el algoritmo en dos redes neuronales recurrentes. Esto les permitía a los investigadores distinguir en qué aspecto se estaba centrando el algoritmo. Una vez entrenada la red neuronal, el modelo podía predecir el riesgo del paciente. Pero dejaba constancia del uso de los parámetros alfa y beta y su papel en la decisión sobre el riesgo del paciente.

Como se ve, ha dado comienzo la época en la que no todas las decisiones las tomará un profesional médico. Todos los avances en el ámbito de salud pública deberían ir dirigidos a la mejora de salud de la población y eficiencia de los recursos, pero conseguirlo con inteligencia artificial, no será nada fácil.

 

Este artículo se publicó originalmente en la Revista DYNA, la cual es una publicación sobre investigación en ingeniería que os recomiendo visitar.

Comparte:

11/9/21

Google ya ha realizado 100.000 entregas con drone en Logan (Australia)

Hace tiempo que me quedó claro que en los últimos años la tecnología y presencia de los drones se ha acelerado mucho, y desde luego, la pandemia ha contribuido a ello.

Esta semana, mientras ponía en orden mis últimos correos y mensajes de alerta en la primera semana de curso universitario, leía que Google, a través de su empresa de drones, Wing, ha cumplido 100.000 entregas de paquetería en la ciudad australiana de Logan, en Australia. La verdad es que la noticia me ha pillado un poco de sorpresa, y ello hizo que haya dedicado algunas horas de la semana a informarme un poco más sobre el tema. 

Parece que Google lleva desde 2012 desarrollando drones en el país de nuestras antípodas. Y no fue hasta 2019 cuando estrenó un servicio de entrega de paquetería con drones, a unas afortunadas 100 viviendas de Camberra. Ese mismo año, en 2019, ya comenzó a operar en la ciudad que nos ocupa (Logan). Estos plazos de tiempo deberían darnos una idea de cuánto cuesta desarrollar algo así. 

Bueno, entremos en harina, ¿qué puedo pedir con el drone? Pues lamentablemente, el catálogo del tipo de productos es bastante limitado. Hay para elegir entre cafés, perritos calientes, piruletas, sushi, galletas para perros... aquí el listado completo, que me imagino que irá aumentando. como mucho pueden transportar 1,2kg. Es decir, aún no se puede pedir lo que se quiera y recibirlo en casa. Llegado a este punto, creo que es conveniente enseñaros el vídeo que ha publicado Google sobre este hito:

La novedad de Wing es que la realización del pedido es bastante "autónomo". Pero paso a explicar este punto, que es para mí, el más interesante: según cuentan en la propia web de Wing, cuando un cliente realiza un pedido, un software calcula la mejor ruta y más segura para enviar un drone hasta el domicilio, y a continuación, el drone vuela de manera autónoma hasta ahí. Siempre bajo la supervisión de un piloto, que controla todo mediante el proceso. Es decir, el UAV no va por dónde le da la gana, y además, Logan es una ciudad de espacios muy amplios, de casas bajas, con muchas villas ajardinadas, por lo que eso es esencial para que las entregas salgan bien. Y tal y como se ve en el vídeo, las personas no tienen que hacer nada con el drone, ya que éste deja caer el paquetito en el jardín con una cuerda.


Seguro que a más de un lector se le está ocurriendo: 

¿y qué ocurre si alguien tira de la cuerda del drone? Pues que el hilo se suelta, cual rabo de lagartija. 

¿Hay servicio de entrega con lluvia? No.

¿Los UAVs tienen cámaras? Sí, pero en teoría, solo las usan cuando el GPS falla. Como he dicho, el drone no decide por dónde vuela, sino que simplemente sigue una ruta preprogramada por GPS.

¿A qué distancia hacen entregas? A 10km del almacén. 

¿Y si un drone cae en mi jardín? ¡No lo robes! Un operador de Google vendrá lo antes posible, y seguro que hará que se te caiga el pelo si mangas el trasto.

Yo añadiría algo más romántico, algo que vincule una emoción a estos repartos de drone, como un servicio de cartas de amor, que puede que sea algo más sano que cualquier aplicación de citas. Pero eso es para otro día. 

Sigo pensando que hay muchas empresas empeñadas en que el reparto de paquetería con drone sea, ante todo, un servicio técnicamente robusto. Ahora bien, que sea barato, eso yo no lo tendría ni en cuenta.


Referencias

Certificado de operación de Wing

Normativa australiana respecto al tema

Problemas técnicos que tuvo Wing (no todo van a ser aciertos!)

Comparte:

2/9/21

Drones militares y las nuevas reglas de la guerra

Las amenazas más efectivas son las que pasan inadvertidas. A las que nadie mira, o de las que nadie es consciente.

Los conflictos militares como los de Gaza, Libia o Siria son titulares habituales. Otros no son lo son tanto. Pero poco se habla de que, en casi todos estos enfrentamientos, se están empleando drones (también llamados UAV, acrónimo inglés que hace referencia a “vehículo aéreo no tripulado”). Tal es su influencia, que están cambiando las reglas de la guerra.

La idea de los ataques aéreos es un sueño militar de siglos, y se remonta a las cometas de fuego hábilmente empleadas por la dinastía Han en el s.II a.C. Después, permaneció latente casi 2 000 años, hasta que Benjamin Franklin recuperó el concepto a finales del s.XVIII, y lo compartió por carta con una pareja de hermanos con los que se escribía: los Montgolfier.

Desde entonces, el uso aéreo de los globos aerostáticos y de la posterior aviación, se vio como una gran ventaja a tener en cualquier ejército. Pero a la idea de los drones, tal y como los conocemos hoy en día, aún le quedaban unas alegrías y decepciones más.


Concretamente, tenemos que trasladarnos en el tiempo hasta la guerra de Vietnam para conocer uno de los principales impulsos. El conflicto dio a luz el programa más sofisticado de vigilancia con aviones no tripulados en la historia de la aviación. Durante la década de 1960, el Departamento de Defensa de los EEUU comenzó a automatizar el campo de batalla con sensores remotos y superordenadores para escuchar los movimientos del enemigo o manejar aviones no tripulados Firebee en los cielos vietnamitas. Tras muchos debates internos en el seno de la cúpula militar de EEUU, ya nunca se abandonó el empleo de este tipo de armas.

Posteriormente, los drones militares tuvieron un papel protagonista en la lucha antiterrorista tras el 11S. En ella, quedó patente su utilidad para una permanente vigilancia de vastos territorios, el seguimiento silencioso de objetivos, y su asesinato. Han demostrado tal eficacia, que en los últimos años se ha intensificado su uso no solo en combate de células terroristas, sino contra ejércitos regulares. Y, como muestra, dos ejemplos:

El primero de ellos es un viejo conocido en las noticias internacionales. Se trata de la guerra de Siria. En ella, a comienzos de 2020, cuando Turquía desplegó sus UAV para bombardear las defensas de Al Assad, ocurrió un punto de inflexión en el conflicto en contra de este último. Las naves otomanas aplastaron a las defensas sirias.

A finales de ese mismo año, en Nagorno Karabaj, una región estratégica del Cáucaso, tuvo lugar la guerra entre Armenia y Azerbaiyan. La república azerí no es reconocida como gran potencia militar. Sin embargo, en los últimos años se ha aprovisionado de varios drones militares de manufactura israelí y, sobre todo, turca. Su impacto sobre las anquilosadas y obsoletas defensas armenias ha sido devastador.

Con una novedosa técnica llamada loitering, Armenia no tuvo ninguna opción. Esta técnica consiste en el empleo de pequeños UAV en enjambre, que se lanzan como kamikazes contra los objetivos enemigos. Tal y como se aprecia, Turquía está emergiendo como una de las potencias principales en el uso de estas máquinas de guerra. 


Nuevos dilemas éticos

El empleo de los drones plantea numerosas cuestiones éticas y cambia totalmente las reglas de la guerra. Una nación puede atacar a otra desde miles de kilómetros de distancia. Los operadores de estas armas son soldados situados en una base militar en su propio territorio, en el que, en un entorno que imita al de un vídeojuego, decide sobre qué enemigos y objetivos hay que abatir.

Esto viola una de las normas más básicas de la ética de la guerra: si un soldado mata, se da por hecho que él se arriesga a recibir la misma suerte. Pero con estas naves, el conflicto se vuelve asimétrico, y en un bando se juegan cientos de víctimas, y en el otro ningún soldado corre riesgo. Quizás ahora se entienda por qué los líderes políticos son tan amigos de los drones. La justificación de movilización de tropas y de pérdida de vidas humanas de sus ciudadanos carece de valor. No hay víctimas, ni escándalos mediáticos.

Otra regla vulnerada es la capacidad de invadir silenciosamente territorios enemigos. Bajo el halo de misiones de espionaje, los gobiernos no tienen que justificar nada, y el país atacado se entera cuando ya es demasiado tarde.

Pero el desarrollo tecnológico de estas naves no se queda aquí, sino que el objetivo es dotarlas de una autonomía que permita combatir en el aire, o de bombardear automáticamente a los enemigos. Para ello, grandes empresas están diseñando algoritmos de navegación autónoma, de interpretación de imágenes, e incluso simulaciones del efecto de bombardeo en un punto.

¿Qué ocurriría si alguna de esos sicarios automáticos se equivocase de objetivo o confundiese a niños con terroristas?


Quizás alguien piense que eso podría ocurrir una o dos veces. Pero no. Ya hay más de 2 000 víctimas civiles de drones de EEUU.

Cuando nació la aviación, se decía que ya no existirían guerras, ya que el poderío que demostraban presagiaba que cualquier nación que tuviera aviones en sus filas aplastaría a cualquier enemigo. Hoy en día, vemos normal prohibir las armas nucleares o las minas antipersona. Ahora, campañas como Ban Killer Drones tratan de prohibir los drones militares.


Este artículo se publicó originalmente en The Conversation, sitio web que os recomiendo visitar

Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons