Inteligencia artificial, robótica, historia y algo más.

15/4/24

Cárcel. Suicidio. El error informático de Correos UK que arruinó vidas

Entre 1999 y 2015, más de 900 empleados de Correos del Reino Unido fueron procesados por robar dinero de las oficinas de Correos locales que tenían encomendadas. El principal testigo contra ellos era una aplicación informática llamada Horizon, desarrollada por Fujitsu e introducida por la Oficina de Correos británica en 1999.

A finales de los años 90, Correos introdujo un nuevo sistema informático llamado Horizon, desarrollado por la japonesa Fujitsu, para sustituir a los métodos tradicionales de contabilidad en papel. Sin embargo, este sistema pronto demostró ser profundamente defectuoso, mostrando regularmente discrepancias financieras y mostrando que dinero, a menudo por valor de miles de libras, había desaparecido misteriosamente de las cuentas de Correos. En realidad, todo esto tenía que ver con un intento del Gobierno británico de salvar su industria informática local (ICL, ver comentario de raffraffraff).

A pesar de los intentos de los subcarteros por conciliar los errores, Correos adoptó una postura implacable. A lo largo de dos décadas, de 1999 a 2015, la organización gubernamental emprendió acciones legales contra miles de empleados afectados. De ellos, la friolera de 700 fueron condenados por delitos penales, algunos incluso a penas de prisión.

El impacto en las vidas de estas personas inocentes y sus familias fue devastador.
Se destruyeron sus medios de subsistencia, se manchó su reputación y se esfumaron sus ahorros. Algunos empleados de Correos, incapaces de soportar la vergüenza y la angustia, se quitaron trágicamente la vida.



La historia de Jo Hamilton, directora de una oficina de correos del sur de Inglaterra, ejemplifica las angustiosas experiencias de estas víctimas. En 2003, su sistema informático Horizon arrojó un déficit de 2.000 libras, que rápidamente se duplicó hasta alcanzar las 36.000 libras cuando Correos la llevó a los tribunales en 2007, acusándola de robo y falsedad contable. Ante la abrumadora presión, Hamilton no tuvo más remedio que declararse culpable de falsedad contable, a pesar de que los cargos eran infundados.

Este escándalo ha sido objeto de numerosas batallas legales y cobertura mediática durante años, pero no ha sido hasta hace poco, con la emisión de un drama televisivo que ponía de relieve el brutal coste humano, cuando la conciencia pública y la indignación han alcanzado un punto álgido. El gobierno británico ha reconocido que se trata de uno de los errores judiciales más graves de la historia del país, que ha dejado un impacto profundo y duradero en todos los afectados. En realidad, ¡el fallo de Fujitsu se conocía desde 1999!

Sin embargo, la clase política y jurídica del Reino Unido sigue enfrentándose a preguntas cruciales que exigen respuestas. ¿Quién estaba al tanto de los problemas sistémicos del sistema informático Horizon y cuándo se dieron cuenta? ¿Qué personas, en su caso, deben ser consideradas penalmente responsables de la devastación infligida a estos inocentes carteros y a sus familias? ¿Y hasta qué punto Fujitsu, el gigante tecnológico japonés valorado en 30.000 millones de dólares que desarrolló el defectuoso sistema Horizon, debería ser considerado responsable y obligado a indemnizar a las víctimas?

Correos ha reconocido la gravedad de la situación, afirmando que ya ha pagado más de 138 millones de libras (176 millones de euros) en indemnizaciones a los empleados afectados.

Y ahora viene la cuestión: este software no tenía ninguna línea de código de inteligencia artificial. ¿Qué pasaría cuando la tuvieran? Me parecen interesantes las palabras del bloguero Ben Evans:

Fujitsu no estaba construyendo aprendizaje automático o LLMs - se trataba de tecnología de los años setenta. Esto fue un fallo institucional dentro de Fujitsu y dentro de la Oficina de Correos, y en un sistema judicial que no probó las pruebas adecuadamente. Y, para ser claros, el fallo no fue que hubiera errores, sino negarse a reconocer los errores. En cualquier caso, para usar el lenguaje que la gente usa ahora para preocuparse por la IA: un ordenador, que ejecutaba un software indeterminado que era difícil de diagnosticar o entender, tomó "decisiones" que arruinaron la vida de la gente: "decidió" que faltaba dinero. El personal de Correos se limitaba a aceptar esas decisiones.

El auge de la inteligencia artificial avanzada, en particular de la IA generativa, ha transformado el ritmo al que pueden completarse diversos procesos. La misma velocidad que hace que la IA generativa sea tan potente también puede significar que las consecuencias negativas se manifiesten mucho más rápido. En el caso del escándalo de la Oficina de Correos del Reino Unido, era de esperar que los fiscales británicos empezaran a preguntarse por qué estaban procesando a un nuevo cartero cada semana, incluso antes de la implantación del sistema informático Horizon.

La necesidad de participación humana está disminuyendo rápidamente para algunas aplicaciones de IA, pero muchos preocupados por la velocidad de la IA están empezando a suscitar cierto rechazo a esta falta de participación. Cada vez está más extendida la proliferación de aplicaciones y sistemas automatizados que parecen diseñados principalmente en beneficio del propio sistema, en lugar de los usuarios. En estos casos, la autonomía y el control del usuario parecen quedar en gran medida al margen, ya que los sistemas funcionan cada vez con mayor independencia y eficacia.

Esta tendencia suscita preocupaciones válidas sobre el equilibrio adecuado entre las capacidades de la IA y la participación humana. Aunque la velocidad y la eficiencia de los procesos impulsados por la IA pueden ser ventajosas en muchas situaciones, cada vez se reconoce más que este rápido avance puede producirse a costa de la agencia del usuario
, la supervisión y la capacidad de interactuar de forma significativa con los sistemas que gobiernan tantos aspectos de nuestras vidas.

Comparte:

9/4/24

Los datos no son "el nuevo petróleo". Quizás sean más valiosos

La frase "Los datos son el nuevo petróleo" fue acuñada en 2006 por Clive Humby, un matemático británico. Desde entonces, muchas otras personas han utilizado este concepto o algo parecido. Pero no fue hasta 2017, cuando The Economist publicó un artículo titulado "The world's most valuable resource is no longer oil, but data" (El recurso más valioso del mundo ya no es el petróleo, sino los datos), cuando el concepto generó muchos debates activos y esta frase se convirtió en el nuevo eslogan con el que se aglutina la Cuarta Revolución Industrial.

Desde 2017, se pueden encontrar en Internet múltiples versiones de la mencionada frase, tanto a favor como en contra.

A principios de esta semana, el Wall Street Journal informó de que las empresas de IA se estaban topando con un muro a la hora de recopilar datos de entrenamiento de alta calidad. Hoy, el New York Times ha detallado algunas de las formas en que las empresas se han enfrentado a esta situación. Como era de esperar, se trata de hacer cosas que caen en la difusa zona gris de la ley de derechos de autor de la IA.

La historia comienza con OpenAI, que, desesperada por conseguir datos de entrenamiento, desarrolló su modelo de transcripción de audio Whisper para transcribir más de un millón de horas de vídeos de YouTube y entrenar así a GPT-4. Según el New York Times, el modelo de transcripción de audio Whisper de OpenAI ha sido utilizado para entrenar a GPT-4. La empresa sabía que era legalmente cuestionable, pero creía que se trataba de un uso legítimo.


Ahora, algunos estudios predicen que los datos de alta calidad podrían agotarse en 2026. A medida que surgen más aplicaciones, la demanda de datos para entrenar modelos crece exponencialmente. Además, factores como la privacidad de los datos personales y los derechos de autor sobre los contenidos en línea restringen cada vez más la disponibilidad de datos utilizables para el entrenamiento. Y también preocupa especialmente la escasez de datos para los idiomas y dominios menos abundantes.

Entre las posibles soluciones a ese problema está el entrenamiento de modelos con datos sintéticos, que consiste en generar datos artificiales con la esperanza de que sustituyan a piezas de información reales. Se ha utilizado incluso para entrenar modelos de conducción autónoma. Sin embargo, el uso de datos sintéticos para el enfoque de entrenamiento LLM aún no está probado.

Los datos sintéticos tienen dificultades para capturar la verdadera complejidad y diversidad de los datos del mundo real, y existen diferentes técnicas para generarlos. Los datos sintéticos resultan útiles cuando no hemos recopilado demasiados casos extremos y clases poco comunes.

Algunos de los principales retos a los que se enfrentan los datos sintéticos son:

1. Falta de heterogeneidad
: Los datos del mundo real suelen ser muy diversos, con una gran variedad de tipos de datos, formatos, distribuciones, etc. Es difícil replicar esa complejidad en datos sintéticos.

2. Sesgo y distribuciones poco realistas
: Los procesos utilizados para generar datos sintéticos a menudo introducen sesgos y distribuciones que no se alinean con la realidad. Esto puede llevar a modelos de IA entrenados en estos datos a desarrollar comportamientos y habilidades poco realistas.

3. Ausencia de interacciones del mundo real
: Los datos sintéticos a menudo carecen de las interacciones y contextos del mundo real que dan forma a los datos del mundo físico. Esto puede hacer que los modelos de IA entrenados en estos datos sean poco robustos fuera de los escenarios sintéticos.


Por lo tanto, es crucial combinar el uso de datos sintéticos con datos del mundo real, e incluso con enfoques de aprendizaje continuo que permitan a los modelos de IA adaptarse y evolucionar a medida que interactúan con datos más diversos y realistas. Sólo así podremos desarrollar sistemas de IA verdaderamente robustos, capaces de navegar por la complejidad del mundo.


Comparte:

3/4/24

Un policía robot, acreditado como héroe, recibe varios disparos

Según APNews, un tenso enfrentamiento en un pueblo de Massachusetts se desescaló recientemente con la ayuda de un perro robótico llamado Roscoe. Desplegado por la unidad antibombas de la policía estatal el 6 de marzo, Roscoe entró en una casa donde un sospechoso se había atrincherado y disparado contra los agentes.

Los policías estatales controlaron a distancia a Roscoe para que explorara la casa (el robot no era autónomo). Tras comprobar las plantas principales, Roscoe descubrió al sospechoso armado en el sótano. El sospechoso reaccionó violentamente, derribó y disparó tres veces al robot, inutilizando su comunicación.

A continuación, la policía envió otros dos robots artificieros, a uno de los cuales también disparó el sospechoso. Finalmente, se desplegaron gases lacrimógenos, que condujeron a la detención del sospechoso. Según la policía del estado de Massachusetts:

Este incidente pone de relieve el valor de los robots móviles.La capacidad de Roscoe para subir escaleras y abrir puertas resultó inestimable en esta situación.Al entrar primero en la residencia, pudo evitar que un agente de policía se viera envuelto en un tiroteo.


Boston Dynamics, los creadores del robot SPOT utilizado en el reciente enfrentamiento de Massachusetts, emitieron un comunicado reconociendo el incidente. "Es la primera vez que se dispara a uno de nuestros robots SPOT", declaró la empresa.

Las autoridades aún no han revelado la identidad del sospechoso ni los posibles cargos que se le imputan. La unidad SPOT dañada fue enviada de vuelta a Boston Dynamics para su reparación y será sustituida por una nueva para la policía estatal.

Fuente


El uso de robots como Roscoe vuelve a plantear la no tan vieja cuestión del papel evolutivo de la tecnología en la desescalada de situaciones peligrosas y la protección de vidas humanas.

Hace cuatro años escribí sobre una tensa polémica en torno al uso de estos robots y la policía de Nueva York, en la que políticos de primera fila se plantearon la cuestión de la ética y la dignidad humana de estas herramientas. La cuestión no es que el robot pueda ser autónomo y disparar a cualquiera. No. Se trata de la posibilidad de que la gente sea defendida y no asesinada tristemente, sin ningún respeto por la vida humana. Y el silencio sobre la identidad del sospechoso tampoco es una buena señal.

Ese episodio con la policía de Nueva York terminó con el fin del contrato entre Boston Dynamics y el Departamento de Policía. Además, hubo algunos rumores sobre corrupción entre los políticos.

Por último, permítanme recordar un viejo episodio: Ocurrió en julio de 2016, en Dallas. Un francotirador ya había matado a 5 policías, y herido a otros 7. En esas circunstancias, las fuerzas de seguridad afirman que se vieron obligadas a enviar un robot hacia el criminal (en la foto de la derecha), y cuando estuvo lo suficientemente cerca, hacer explotar mediante la carga de C-4 que llevaba y matar al asesino. Se cree que es la primera víctima mortal de la policía que utiliza estas técnicas. Casualmente, el criminal, Micah Johnson, era negro. En 2018, los policías fueron declarados inocentes. Y un año antes, en 2015, la policía detuvo a otro francotirador blanco, Dylann Roof, y lo llevó a un Burger King.




Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons