Inteligencia artificial, robótica, historia y algo más.

15/4/24

Cárcel. Suicidio. El error informático de Correos UK que arruinó vidas

Entre 1999 y 2015, más de 900 empleados de Correos del Reino Unido fueron procesados por robar dinero de las oficinas de Correos locales que tenían encomendadas. El principal testigo contra ellos era una aplicación informática llamada Horizon, desarrollada por Fujitsu e introducida por la Oficina de Correos británica en 1999.

A finales de los años 90, Correos introdujo un nuevo sistema informático llamado Horizon, desarrollado por la japonesa Fujitsu, para sustituir a los métodos tradicionales de contabilidad en papel. Sin embargo, este sistema pronto demostró ser profundamente defectuoso, mostrando regularmente discrepancias financieras y mostrando que dinero, a menudo por valor de miles de libras, había desaparecido misteriosamente de las cuentas de Correos. En realidad, todo esto tenía que ver con un intento del Gobierno británico de salvar su industria informática local (ICL, ver comentario de raffraffraff).

A pesar de los intentos de los subcarteros por conciliar los errores, Correos adoptó una postura implacable. A lo largo de dos décadas, de 1999 a 2015, la organización gubernamental emprendió acciones legales contra miles de empleados afectados. De ellos, la friolera de 700 fueron condenados por delitos penales, algunos incluso a penas de prisión.

El impacto en las vidas de estas personas inocentes y sus familias fue devastador.
Se destruyeron sus medios de subsistencia, se manchó su reputación y se esfumaron sus ahorros. Algunos empleados de Correos, incapaces de soportar la vergüenza y la angustia, se quitaron trágicamente la vida.



La historia de Jo Hamilton, directora de una oficina de correos del sur de Inglaterra, ejemplifica las angustiosas experiencias de estas víctimas. En 2003, su sistema informático Horizon arrojó un déficit de 2.000 libras, que rápidamente se duplicó hasta alcanzar las 36.000 libras cuando Correos la llevó a los tribunales en 2007, acusándola de robo y falsedad contable. Ante la abrumadora presión, Hamilton no tuvo más remedio que declararse culpable de falsedad contable, a pesar de que los cargos eran infundados.

Este escándalo ha sido objeto de numerosas batallas legales y cobertura mediática durante años, pero no ha sido hasta hace poco, con la emisión de un drama televisivo que ponía de relieve el brutal coste humano, cuando la conciencia pública y la indignación han alcanzado un punto álgido. El gobierno británico ha reconocido que se trata de uno de los errores judiciales más graves de la historia del país, que ha dejado un impacto profundo y duradero en todos los afectados. En realidad, ¡el fallo de Fujitsu se conocía desde 1999!

Sin embargo, la clase política y jurídica del Reino Unido sigue enfrentándose a preguntas cruciales que exigen respuestas. ¿Quién estaba al tanto de los problemas sistémicos del sistema informático Horizon y cuándo se dieron cuenta? ¿Qué personas, en su caso, deben ser consideradas penalmente responsables de la devastación infligida a estos inocentes carteros y a sus familias? ¿Y hasta qué punto Fujitsu, el gigante tecnológico japonés valorado en 30.000 millones de dólares que desarrolló el defectuoso sistema Horizon, debería ser considerado responsable y obligado a indemnizar a las víctimas?

Correos ha reconocido la gravedad de la situación, afirmando que ya ha pagado más de 138 millones de libras (176 millones de euros) en indemnizaciones a los empleados afectados.

Y ahora viene la cuestión: este software no tenía ninguna línea de código de inteligencia artificial. ¿Qué pasaría cuando la tuvieran? Me parecen interesantes las palabras del bloguero Ben Evans:

Fujitsu no estaba construyendo aprendizaje automático o LLMs - se trataba de tecnología de los años setenta. Esto fue un fallo institucional dentro de Fujitsu y dentro de la Oficina de Correos, y en un sistema judicial que no probó las pruebas adecuadamente. Y, para ser claros, el fallo no fue que hubiera errores, sino negarse a reconocer los errores. En cualquier caso, para usar el lenguaje que la gente usa ahora para preocuparse por la IA: un ordenador, que ejecutaba un software indeterminado que era difícil de diagnosticar o entender, tomó "decisiones" que arruinaron la vida de la gente: "decidió" que faltaba dinero. El personal de Correos se limitaba a aceptar esas decisiones.

El auge de la inteligencia artificial avanzada, en particular de la IA generativa, ha transformado el ritmo al que pueden completarse diversos procesos. La misma velocidad que hace que la IA generativa sea tan potente también puede significar que las consecuencias negativas se manifiesten mucho más rápido. En el caso del escándalo de la Oficina de Correos del Reino Unido, era de esperar que los fiscales británicos empezaran a preguntarse por qué estaban procesando a un nuevo cartero cada semana, incluso antes de la implantación del sistema informático Horizon.

La necesidad de participación humana está disminuyendo rápidamente para algunas aplicaciones de IA, pero muchos preocupados por la velocidad de la IA están empezando a suscitar cierto rechazo a esta falta de participación. Cada vez está más extendida la proliferación de aplicaciones y sistemas automatizados que parecen diseñados principalmente en beneficio del propio sistema, en lugar de los usuarios. En estos casos, la autonomía y el control del usuario parecen quedar en gran medida al margen, ya que los sistemas funcionan cada vez con mayor independencia y eficacia.

Esta tendencia suscita preocupaciones válidas sobre el equilibrio adecuado entre las capacidades de la IA y la participación humana. Aunque la velocidad y la eficiencia de los procesos impulsados por la IA pueden ser ventajosas en muchas situaciones, cada vez se reconoce más que este rápido avance puede producirse a costa de la agencia del usuario
, la supervisión y la capacidad de interactuar de forma significativa con los sistemas que gobiernan tantos aspectos de nuestras vidas.

Comparte:

9/4/24

Los datos no son "el nuevo petróleo". Quizás sean más valiosos

La frase "Los datos son el nuevo petróleo" fue acuñada en 2006 por Clive Humby, un matemático británico. Desde entonces, muchas otras personas han utilizado este concepto o algo parecido. Pero no fue hasta 2017, cuando The Economist publicó un artículo titulado "The world's most valuable resource is no longer oil, but data" (El recurso más valioso del mundo ya no es el petróleo, sino los datos), cuando el concepto generó muchos debates activos y esta frase se convirtió en el nuevo eslogan con el que se aglutina la Cuarta Revolución Industrial.

Desde 2017, se pueden encontrar en Internet múltiples versiones de la mencionada frase, tanto a favor como en contra.

A principios de esta semana, el Wall Street Journal informó de que las empresas de IA se estaban topando con un muro a la hora de recopilar datos de entrenamiento de alta calidad. Hoy, el New York Times ha detallado algunas de las formas en que las empresas se han enfrentado a esta situación. Como era de esperar, se trata de hacer cosas que caen en la difusa zona gris de la ley de derechos de autor de la IA.

La historia comienza con OpenAI, que, desesperada por conseguir datos de entrenamiento, desarrolló su modelo de transcripción de audio Whisper para transcribir más de un millón de horas de vídeos de YouTube y entrenar así a GPT-4. Según el New York Times, el modelo de transcripción de audio Whisper de OpenAI ha sido utilizado para entrenar a GPT-4. La empresa sabía que era legalmente cuestionable, pero creía que se trataba de un uso legítimo.


Ahora, algunos estudios predicen que los datos de alta calidad podrían agotarse en 2026. A medida que surgen más aplicaciones, la demanda de datos para entrenar modelos crece exponencialmente. Además, factores como la privacidad de los datos personales y los derechos de autor sobre los contenidos en línea restringen cada vez más la disponibilidad de datos utilizables para el entrenamiento. Y también preocupa especialmente la escasez de datos para los idiomas y dominios menos abundantes.

Entre las posibles soluciones a ese problema está el entrenamiento de modelos con datos sintéticos, que consiste en generar datos artificiales con la esperanza de que sustituyan a piezas de información reales. Se ha utilizado incluso para entrenar modelos de conducción autónoma. Sin embargo, el uso de datos sintéticos para el enfoque de entrenamiento LLM aún no está probado.

Los datos sintéticos tienen dificultades para capturar la verdadera complejidad y diversidad de los datos del mundo real, y existen diferentes técnicas para generarlos. Los datos sintéticos resultan útiles cuando no hemos recopilado demasiados casos extremos y clases poco comunes.

Algunos de los principales retos a los que se enfrentan los datos sintéticos son:

1. Falta de heterogeneidad
: Los datos del mundo real suelen ser muy diversos, con una gran variedad de tipos de datos, formatos, distribuciones, etc. Es difícil replicar esa complejidad en datos sintéticos.

2. Sesgo y distribuciones poco realistas
: Los procesos utilizados para generar datos sintéticos a menudo introducen sesgos y distribuciones que no se alinean con la realidad. Esto puede llevar a modelos de IA entrenados en estos datos a desarrollar comportamientos y habilidades poco realistas.

3. Ausencia de interacciones del mundo real
: Los datos sintéticos a menudo carecen de las interacciones y contextos del mundo real que dan forma a los datos del mundo físico. Esto puede hacer que los modelos de IA entrenados en estos datos sean poco robustos fuera de los escenarios sintéticos.


Por lo tanto, es crucial combinar el uso de datos sintéticos con datos del mundo real, e incluso con enfoques de aprendizaje continuo que permitan a los modelos de IA adaptarse y evolucionar a medida que interactúan con datos más diversos y realistas. Sólo así podremos desarrollar sistemas de IA verdaderamente robustos, capaces de navegar por la complejidad del mundo.


Comparte:

3/4/24

Un policía robot, acreditado como héroe, recibe varios disparos

Según APNews, un tenso enfrentamiento en un pueblo de Massachusetts se desescaló recientemente con la ayuda de un perro robótico llamado Roscoe. Desplegado por la unidad antibombas de la policía estatal el 6 de marzo, Roscoe entró en una casa donde un sospechoso se había atrincherado y disparado contra los agentes.

Los policías estatales controlaron a distancia a Roscoe para que explorara la casa (el robot no era autónomo). Tras comprobar las plantas principales, Roscoe descubrió al sospechoso armado en el sótano. El sospechoso reaccionó violentamente, derribó y disparó tres veces al robot, inutilizando su comunicación.

A continuación, la policía envió otros dos robots artificieros, a uno de los cuales también disparó el sospechoso. Finalmente, se desplegaron gases lacrimógenos, que condujeron a la detención del sospechoso. Según la policía del estado de Massachusetts:

Este incidente pone de relieve el valor de los robots móviles.La capacidad de Roscoe para subir escaleras y abrir puertas resultó inestimable en esta situación.Al entrar primero en la residencia, pudo evitar que un agente de policía se viera envuelto en un tiroteo.


Boston Dynamics, los creadores del robot SPOT utilizado en el reciente enfrentamiento de Massachusetts, emitieron un comunicado reconociendo el incidente. "Es la primera vez que se dispara a uno de nuestros robots SPOT", declaró la empresa.

Las autoridades aún no han revelado la identidad del sospechoso ni los posibles cargos que se le imputan. La unidad SPOT dañada fue enviada de vuelta a Boston Dynamics para su reparación y será sustituida por una nueva para la policía estatal.

Fuente


El uso de robots como Roscoe vuelve a plantear la no tan vieja cuestión del papel evolutivo de la tecnología en la desescalada de situaciones peligrosas y la protección de vidas humanas.

Hace cuatro años escribí sobre una tensa polémica en torno al uso de estos robots y la policía de Nueva York, en la que políticos de primera fila se plantearon la cuestión de la ética y la dignidad humana de estas herramientas. La cuestión no es que el robot pueda ser autónomo y disparar a cualquiera. No. Se trata de la posibilidad de que la gente sea defendida y no asesinada tristemente, sin ningún respeto por la vida humana. Y el silencio sobre la identidad del sospechoso tampoco es una buena señal.

Ese episodio con la policía de Nueva York terminó con el fin del contrato entre Boston Dynamics y el Departamento de Policía. Además, hubo algunos rumores sobre corrupción entre los políticos.

Por último, permítanme recordar un viejo episodio: Ocurrió en julio de 2016, en Dallas. Un francotirador ya había matado a 5 policías, y herido a otros 7. En esas circunstancias, las fuerzas de seguridad afirman que se vieron obligadas a enviar un robot hacia el criminal (en la foto de la derecha), y cuando estuvo lo suficientemente cerca, hacer explotar mediante la carga de C-4 que llevaba y matar al asesino. Se cree que es la primera víctima mortal de la policía que utiliza estas técnicas. Casualmente, el criminal, Micah Johnson, era negro. En 2018, los policías fueron declarados inocentes. Y un año antes, en 2015, la policía detuvo a otro francotirador blanco, Dylann Roof, y lo llevó a un Burger King.




Comparte:

19/3/24

¿Y si pudiéramos medir el impacto de las decisiones que nos cambian la vida?

Elevándose sobre el río Hudson, en el bajo Manhattan, a pocas manzanas del emplazamiento del World Trade Center, se alza el impresionante edificio de ladrillo visto de 150 millones de dólares que alberga el Stuyvesant High School, cariñosamente conocido como "Stuy". Su reputación estelar se ve reforzada por el notable logro de que aproximadamente una cuarta parte de sus graduados consigan ser admitidos en la Ivy League u otras universidades de élite. Entre los distinguidos alumnos de Stuyvesant figuran la profesora de física de Harvard Lisa Randall, el ex estratega de Obama David Axelrod, el actor Tim Robbins, ganador de un Oscar, y el novelista Gary Shteyngart. En sus ceremonias de graduación han participado oradores de la talla de Bill Clinton, Kofi Annan y Conan O'Brien, lo que subraya su compromiso con la excelencia académica.

Más asombroso aún que la impresionante oferta académica de Stuyvesant y sus ilustres alumnos es el hecho de que no cuesta absolutamente nada asistir: es un instituto público, posiblemente el mejor del país. Esta afirmación está respaldada por un reciente estudio exhaustivo que analizó 27 millones de opiniones de 300.000 estudiantes y padres para clasificar todos los institutos públicos de Estados Unidos, y Stuyvesant apareció como el número uno indiscutible. No es de extrañar, por tanto, que la excepcional reputación de Stuyvesant se haya convertido en una obsesión para las ambiciosas familias neoyorquinas de clase media y sus hijos, que compiten ferozmente por la oportunidad de asistir a esta estimada institución y sacar provecho de su prestigiosa marca.

Fuente

Para las familias de clase trabajadora e inmigrantes de Nueva York, el instituto Stuyvesant representa un faro de esperanza, un camino hacia la movilidad ascendente y un futuro mejor. Como explicaría un inmigrante,

Si su hijo asiste a Stuy, tiene prácticamente garantizada la admisión en una prestigiosa universidad de las 20 mejores. Es una forma de que toda la familia asegure su posición económica y social.

El proceso de admisión en esta codiciada institución es extraordinariamente sencillo: para ser considerado, uno debe residir en los cinco distritos de la ciudad de Nueva York y obtener una puntuación superior a un determinado umbral en el examen de ingreso. En la decisión no intervienen recomendaciones, ensayos, admisiones heredadas ni políticas de discriminación positiva. Todo se reduce a un solo día, un solo examen y una sola puntuación. Los que superan la puntuación mínima acceden a este paraíso académico, independientemente de cualquier otro criterio.

Cada mes de noviembre, 27.000 jóvenes estudiantes de toda la ciudad de Nueva York acuden a los centros de exámenes con el firme propósito de conseguir una codiciada plaza en el prestigioso instituto Stuyvesant High School. La competencia es despiadada, ya que menos del 5% de los que se atreven con el examen de admisión consiguen entrar en este bastión académico. Las probabilidades son desalentadoras, pero para los pocos que salen victoriosos, la recompensa es una educación de primera clase y una puerta a oportunidades ilimitadas que podrían mejorar para siempre la trayectoria de sus vidas y las de sus familias.

Para los seres humanos puede ser desde entretenido hasta una autotortura plantearse hipótesis y ucronías.
¿Cómo sería mi vida si me enamorara de esa chica o ese chico? ¿Si aceptara ese trabajo? ¿Si fuera a esa universidad? Pero estos "y si..." no tienen respuesta. La vida no es un videojuego. No puedes repetirla en diferentes escenarios hasta que obtengas los resultados que deseas.

Milan Kundera, escritor checo, tiene una cita concisa sobre este tema en su novela La insoportable levedad del ser:

La vida humana sólo ocurre una vez, y la razón por la que no podemos determinar cuáles de nuestras decisiones son buenas y cuáles malas es que en una situación dada sólo podemos tomar una decisión; no se nos concede una segunda, tercera o cuarta vida en la que comparar diversas decisiones.

Sin embargo, por suerte para nosotros, el estudio de un grupo numeroso de alumnos del instituto Stuyvesant puede ofrecernos algunas pistas. Un enfoque sencillo sería comparar a todos los estudiantes de Stuyvesant con los que no asistieron. Analizando sus puntajes en AP/SAT y sus aceptaciones universitarias probablemente mostraría una ventaja significativa para los estudiantes de Stuyvesant. Sin embargo, esto no sería concluyente. Tal vez los estudiantes de alto rendimiento son atraídos a Stuyvesant en primer lugar, lo que lleva a esta correlación, no necesariamente porque Stuyvesant los hace rendir mejor. Para entender realmente el impacto de Stuyvesant, tenemos que comparar dos grupos idénticos: uno que asistió a Stuyvesant y otro con casi los mismos antecedentes, pero sin la experiencia Stuyvesant. Este escenario ideal se denomina experimento natural. La pregunta sigue siendo: ¿podemos encontrar una situación así?

Fuente

Hace unos años, un equipo de investigadores del MIT y de Duke, entre ellos Atila Abdulkadiroglu, Joshua Angrist y Parag Pathak, arrojó luz sobre el verdadero impacto de Stuyvesant. Compararon a los estudiantes a ambos lados de la puntuación mínima de admisión. Imaginemos estudiantes que no fueron admitidos por los pelos. Los investigadores compararon a estos estudiantes con los que obtuvieron una puntuación ligeramente superior y lograron entrar. Para medir el éxito, se tuvieron en cuenta las puntuaciones obtenidas en los exámenes AP, SAT y la clasificación de las universidades.

Los sorprendentes resultados reflejaban el título de su estudio: "La ilusión de la élite". Asistir a Stuyvesant High School no tuvo un efecto significativo en el rendimiento académico de los estudiantes o en las admisiones universitarias. Los estudiantes de ambos bandos obtuvieron puntuaciones similares en los exámenes AP y SAT, y acabaron en universidades igualmente prestigiosas.

Los investigadores concluyeron que el mayor rendimiento a lo largo de la vida de los graduados de Stuyvesant se debe probablemente al tipo de estudiantes que atrae, no a la educación en sí. En términos más sencillos, los estudiantes de alto rendimiento son atraídos a Stuyvesant en primer lugar, y no al revés.

La competencia por estas escuelas no parece mejorar significativamente el aprendizaje de la mayoría de los estudiantes.

No podía olvidar esta historia durante una semana y preguntarme sobre la validez y el poder de ese trabajo de investigación. Por cierto, lo encontré leyendo el muy recomendable libro "Todo el mundo miente", de Seth Stephens-Davidowitz.



Comparte:

5/3/24

¿Qué significa el fracaso de Amazon Go y los supermercados sin cajeros?

Hace justo un año, Amazon anunció que cerraría ocho de sus tiendas sin cajeros en Estados Unidos, el famoso modelo de negocio Amazon Go. El gigante de Internet anunció en 2016 una primera tienda de estas características en Seattle. Para utilizar Amazon Go, se necesita la aplicación Amazon Go, una cuenta de Amazon y un smartphone compatible. Al entrar en la tienda, se escanea la app en la puerta de entrada y ya se puede empezar a comprar. No hay necesidad de escanear cada artículo; sólo tienes que coger lo que quieras y ponerlo en tu cesta o bolsa.

Cuando te vayas, se te cobrarán automáticamente los artículos que te lleves. Sin cajeros ni esperas en el proceso. Según los últimos datos disponibles, proporcionó empleo a unos 3,5 millones de personas en Estados Unidos, y eso que, según los últimos datos, la mayoría de ellas ganaba unos 28.240 dólares al año (13,58 dólares la hora).

Amazon Go utiliza visión por ordenador, fusión de sensores y aprendizaje profundo, una combinación de tecnologías que crecen exponencialmente a medida que se nutren de nueva información. Las cámaras repartidas por toda la tienda identifican a los compradores mediante reconocimiento facial y luego anotan sus compras, facturándolas a sus cuentas de Amazon.



Fundamentalmente, porque la apuesta de Bezos para revolucionar el comercio físico no se basa en reducir costes, sino en que compremos sin tener que pagar.

Los investigadores que han analizado el proceso de compra lo dividen en dos fases principales: adquisición y liquidación. Es decir, en la selección de productos y en el pago de los mismos. La primera fase suele ser positiva, agradable y divertida. La segunda parte, la entrega del dinero, duele. ¿Le suena?

George Loewenstein y Drazen Prelec, entre otros investigadores, han estudiado en profundidad la incomodidad de gastar dinero y cómo este "dolor de pagar" erosiona la satisfacción del cliente. Los vendedores llevan siglos intentando reducir esa incomodidad con cosas como las tradicionales "cuentas personales" que permitían consumir sin restricciones y pagar a final de mes (coincidiendo con el cobro del sueldo).

Las tarjetas de crédito, en la medida en que reducen la sensación de gasto, también ayudan a minimizar la distancia. Pero son los comercios online los que han convertido esto en un arte: las suscripciones mensuales desvinculan totalmente la incomodidad del pago de la satisfacción de la compra, y las "compras con un clic" tratan de ejecutar el pago de forma tan breve, sutil y natural que consiguen reducir la incomodidad al mínimo.

Si Amazon puede resolver todos los problemas tecnológicos, éste es el futuro del comercio. Un futuro extraño, alucinante y desmonetizado, pero también un futuro en el que las empresas pueden exprimir al máximo todos nuestros sesgos y tendencias psicológicas. Tanto que no les preocupa "regalar cosas por error".

No se trata de los 28.240 dólares anuales que cuesta un cajero, nunca se trató de eso. La ballena que intentan cazar en Seattle es mucho mayor: conseguir que nunca más tengamos que usar la cartera.

Por cierto, no sólo Amazon intentó implantar esta tecnología, sino también Auchan, Carrefour o Monoprix, entre otros. Por cierto, el servicio se llamó Auchan Go, ¡¡Lol!! ¿Quién es el jefe de marketing allí?

Por último, una tecnología en el punto medio entre la tradicional y la totalmente automatizada Amazon Go, encontramos la popular tecnología de auto-caja en supermercados. Pero adivina qué, volvió a fracasar en todo el mundo y la mayoría de las marcas piensan en retirar estas máquinas de sus tiendas por el momento.


Comparte:

26/2/24

Rusia y Ucrania quieren que sus drones ataquen de manera autónoma

En el periódico digital ucraniano Pravda publicaron hace unos días la noticia del plan de la coalición de países occidentales de suministrar una gran cantidad de drones de guerra autónomos al ejército ucraniano. La noticia original procede de Bloomberg, aunque habitualmente es un sitio con muro de pago.

Rob Bauer, presidente del comité militar de la OTAN, dijo a Bloomberg que:

el uso de drones en Ucrania "en combinación con la inteligencia artificial" podría tener más éxito que los bombardeos de artillería de los rusos.

Más allá de eso, el meollo de la historia radica no sólo en el número de drones que se suministrarán, sino en las capacidades que les aportará el uso de la inteligencia artificial... sin embargo, tengo muchas dudas sobre la viabilidad técnica real de este plan. En particular, soy muy escéptico sobre la posibilidad de implementar este sistema en drones enjambre.

Actualmente, hay miles de inhibidores de señal en el frente ucraniano, lo que limita mucho la capacidad de ataque de los UAVs. Tanto los soldados ucranianos como los rusos persiguen el desarrollo de armas aéreas autónomas, pero probablemente no en el sentido en que se plantea en el imaginario público.

"La guerra en Ucrania está espoleando una revolución en la guerra con drones que utilizan IA", afirmaba un titular del Washington Post el pasado mes de julio. Luego, en otoño, varios informes mencionaban que tanto Rusia como Ucrania habían desplegado pequeños drones que utilizaban inteligencia artificial para identificar e impactar en objetivos. Con la IA a bordo, los drones no necesitarían un operador humano para guiarlos hasta el impacto. Los humanos podrían limitarse a pilotarlos hasta la zona inhibida, y después, al liberarlos y hacerlos volar de forma autónoma, los inhibidores serían totalmente inútiles para defenderse de este tipo de ataques.

Si esta IA hubiera demostrado su eficacia en combate, habría sido realmente una revolución. Los expertos pilotos de drones podrían haber sido sustituidos por miles de algoritmos rápidamente entrenados para apuntar y hacer clic en objetivos potenciales. Y en lugar de que cada avión no tripulado requiriera un operador que mirara su señal de vídeo a tiempo completo, un solo soldado humano podría cubrir un enjambre de máquinas letales.

Sin embargo, en las noticias militares, el bombo y la exageración son un arma habitual, como ya he dicho. A principios de febrero, un detallado informe del Center for a New American Security desestimó los drones de IA en unas pocas líneas. En palabras de Stacie Pettyjohn, directora del programa de defensa del CNAS,

El Lancet-3 se anunciaba como dotado de identificación autónoma de objetivos y combate, aunque estas afirmaciones no están verificadas.
Ambas partes afirman estar utilizando la inteligencia artificial para mejorar la capacidad del dron de dar en el blanco, pero es probable que su uso sea limitado.


Más tarde, el 14 de febrero, un análisis independiente sugirió que los rusos, al menos, habían desactivado la función de guía por IA de sus Lancet. Los vídeos de las pantallas de los operadores del Lancet, publicados en Internet desde el otoño, incluían a menudo un recuadro alrededor del objetivo, capaz de moverse a medida que éste se movía, y una notificación que decía "objetivo fijado", según publicó el periodista independiente David Hambling en Forbes. Esas características requerirían algún tipo de algoritmo de reconocimiento de objetos -similar a los antiguos de los teléfonos inteligentes que predicen la identificación de la cara, la boca y los ojos en las fotos-, aunque es imposible saber a partir del vídeo si se limitaba a resaltar el objetivo para el operador humano o guiaba activamente el dron para golpearlo.


El hype de la IA militar


Es imposible confirmar el análisis de Hambling sin tener acceso a documentos militares rusos o al código de software del dron. Pero Pettyjohn está de acuerdo en que la interpretación de Hambling no sólo es plausible, sino probable.

Según uno de los mayores expertos en la materia, Samuel Bendett:

Esta tecnología necesita muchas pruebas y evaluación, esta tecnología necesita mucha iteración, y muchas veces la tecnología no está lista. Creo que es un proceso lento porque ambas partes quieren hacerlo bien. Una vez que lo consigan, lo ampliarán.


Estoy seguro de que conocen los vídeos del robot Boston Dynamics. El personal publica el vídeo de la única implementación perfecta de entre cientos de implementaciones fallidas, lo que significa que su tecnología no siempre es permanentemente perfecta. Tal vez deberíamos creer lo mismo de la información de David Hambling.

La guerra de Ucrania ha demostrado que las soluciones baratas, escalables, robustas y no muy innovadoras técnicamente son las que funcionan con los drones. Así que estoy casi seguro de que el plan de Gran Bretaña y EE.UU. para proporcionar enjambres de drones inteligentes a Ucrania tiene también una mayor dosis de propaganda que de realidad técnica. Ya veremos.


Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons