Quizás los lectores más fieles me hayan oído decir que la inteligencia artificial puede ser peligrosa y tener consecuencias inesperadas. Desde luego, en mi opinión estamos a años luz de escenarios como el de Yo, Robot, o películas de Hollywood similares.
Actualmente, en gran medida, los algoritmos de inteligencia artificial son como "cajas negras". No sabemos cómo funcionan exactamente, y hoy traigo un ejemplo un tanto simplón que plasma esto bastante bien.
Lo recogió por primera vez este artículo científico de 1992, aunque no fue hasta 2008 cuando Elezier Yudkowsky lo puso de moda en su artículo sobre los riesgos globales de la IA. La historia es la siguiente:
En los 80, los militares estadounidenses intentaban proteger a sus tanques de la tecnología informática de la época, de manera que no los detectasen tan fácilmente y fueran más difíciles de atacar. Para ello, tomaron 100 fotos de tanques escondidos tras los árboles y otras 100 de árboles sin tanques.
Posteriormente, diseñaron una red neuronal en la que entrenaron la detección de tanques con 50 fotos de cada caso. Es decir, usaron 50 fotos con tanques para que "el sistema" aprendiera cuándo los había, y otras 50 fotos sin tanques para que el resultado fuera que no se detectan tanques.
Este entrenamiento sirve para afinar la red neuronal. Una vez afinada (según ellos), comprobaron que con las 100 fotos que faltaban, el sistema funcionaba perfectamente en el 100% de los casos. Es decir, parecía que los militares habían apredido a discernir cuándo sí y cuándo no había tanques entre los árboles. ¡Vaya adelanto!
Sin embargo, otro día probaron de nuevo este detector, se llevaron una gran desilusión cuando vieron que fallaba más que una escopeta de feria en la nueva detección. Nadie entendía nada.
Tuvieron que pasar muchas horas para que alguien se diera cuenta que el entrenamiento (cómo habían enseñado al detector), lo habían hecho con 200 fotos con el cielo completamente nuboso. Y en el día de las nuevas pruebas, como estaba despejado, no reconocía a los tanques.
Gracioso, ¿verdad? Ahora, cualquier investigador sabe que 100 fotos para entrenar una red neuronal son muy pocas, pero había que saberlo también en los 80. A pesar de que la potencia de computación haya aumentado, todavía nadie nos libra de que un sistema inteligente arroje resultados inesperados para el diseñador, como éste. Y ese es uno de los peligros de la IA de los que habitualmente me quejamos yo y @HelenaMatute.
De hecho, una demostración de resultado inesperado muy sonado ocurrió en 2012, cuando HP lanzó un sistema de reconocimiento facial un tanto especial. Aquí está el vídeo.
Actualización (19 de julio 2017)
A través de Twitter, @hhmmss me ha chivado que Volvo tenía cierto problema con sus coches y los canguros. Y este fallo es de 2017. Como veis, siguen sucediendo problemas de ajuste de sistemas inteligentes.
0 comentarios:
Publicar un comentario