Inteligencia artificial, robótica, historia y algo más.

26/10/17

Desmontando los grandes hitos de la inteligencia artificial

Es posible que los lectores de este humilde blog hayan leído este mes el nuevo avance de Google: AlphaGo Zero. Este algoritmo es la evolución del programa que se hizo famosa por ganar en 2016 en el juego Go a campeones mundiales. Básicamente, los titulares que me he encontrado son poco sugerentes de la realidad, o tientan a crear cierto alarmismo en torno a esta disciplina.






Y así en más sitios web. 

¿Qué se ha conseguido en la realidad? Las versiones previa de AlphaGo, denominadas AlphaGo Master y AlphaGo Lee, aprendían a jugar a Go observando jugar a grandes jugadores profesionales y a amateurs. Ahora, en octubre 2017, el paso que se ha dado es que AlphaGo Zero no necesita ver esas partidas para aprender, sino que haciendo él mismo movimientos aleatorios, termina descubriendo cuál es la mejor estrategia para ganar un juego bajo una gran abánico de posibilidades y situaciones de partida.

Es decir, la grabación de los datos hasta ahora la hacían unos humanos, y ahora simplemente se ha demostrado que no hace falta ese input, sino que con redes neuronales suficientemente grandes, AlphaGo puede jugar 30 millones de partida contra sí mismo y descubrir cuáles son las mejores jugadas. Para esto, se emplea el aprendizaje por refuerzo, donde el refuerzo positivo lo dan las estrategias de Go que llevan a la victoria. 

Es decir, a pesar de que a este acontecimiento se le ha dado más bombo y platillo del que yo hubiera atribuido, AlphaGo Zero no es más que el mismo programa anterior, pero con mayor potencia de cálculo. El artículo de @emulenews al respecto lo deja también bastante claro.

Y me gustaría llamar la atención sobre estos avances que se anuncian con más grandilocuencia de lo que realmente aportan. Desde hace décadas, los algoritmos de la inteligencia artificial no han variado mucho. Fue el gran Geoffrey Hinton en 1986 cuando desarrolló el gran avance para el aprendizaje profundo

Los algoritmos que Google o Facebook emplean ahora tienen su base ahí. Son eso, algortimos, y consiguen victorias aparentemente más importantes, entre otras cosas porque hay más investigadores que emplean deep learning y porque ha mejorado muchísimo la capacidad de computación de las máquinas.

Los algoritmos actuales manejan datos, y dicho rápido y mal, da lo mismo que los datos los obtenga viendo a humanos jugar partidas, que probando a hacer movimientos por sí mismo. Además, muchos de los pasos que se dan son por prueba y error: tienes unos datos, y pruebas un algoritmo. ¿No funciona? Prueba con otro algoritmo. Y así, hasta que tengas un titular de periódico.

¿Otro ejemplo? Este: la IA aprende a distinguir voces dentro de una conversación. De nuevo, alguien puede pensar que la IA es como un bebé, que a medida que desarrolla sus sentidos, entiende a sus dos padres, aunque le hablen a la vez haciéndole carantoñas. Y no, no se parece en nada a esto. 

Imaginaos que tenéis un archivo de audio lo suficientemente grande: aplicando distintos filtros y búsqueda de patrones (aislar tonos, juntar timbres, un poco de procesamiento de lenguaje natural...) una empresa con suficientes recursos sería capaz de conseguirlo con suficiente tiempo.

Todavía tiene que avanzar bastante la parte matemática de la inteligencia artificial para lograr los siguientes grandes hitos. Y resolver esa parte matemática, implica resolver cuestiones como las que planteé aquí. Hasta entonces, y quizás más tarde, podéis estar seguros de que no tendremos nada medio parecido a Terminator.


Comparte:

17/10/17

Evidencias del impacto de la Inteligencia Artificial en la sociedad

El pasado julio, el Parlamento Británico convocó a cualquier persona a aportar su opinión sobre evidencias del impacto de la inteligencia artificial en la sociedad, y sus directrices de regulación. Esta información era recibida por el comité científico sobre IA de dicha institución para su lectura y análisis. Aquí podéis encontrar la convocatoria correspondiente.

Las public calls de este tipo son habituales, y pueden ser de distintas disciplinas y aspectos de la sociedad, tal y como se demuestra en la lista de las últimas convocatorias.


Para el caso que nos ocupa, estas son las propuestas aceptadas, y en esta ocasión, la mía también ha sido admitida. Y es su contenido lo que trataré brevemente en este artículo.





Básicamente, enfaticé mi preocupación y necesidad de regulación hacia tres aspectos muy concretos:

1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio.

2) El panóptico digital.

3) Los hackeos sobre sistemas inteligentes.


1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio

Si pensamos en el momento en el que somos candidatos para una oferta de trabajo, está socialmente aceptado que el responsable de esa empresa nos diga que no somos aptos, sin profundizar demasiado en los detalles que le han llevado a esa decisión. O cuando solicitamos un préstamo a un banco, y nos lo deniegan. Recibimos contestaciones del tipo "el equipo de riesgos no lo ha considerado oportuno", sin entrar en detalle de qué es lo que exactamente ha declinado la balanza en nuestra contra. 

No es aceptable este nivel de ambigüedad en los sistemas inteligentes que pasen a formar parte de nuestras vidas. Si fuera un robot el que elige el ganador en el proceso de selección de un puesto de trabajo, es altamente exigible conocer en qué aspectos se ha fijado, y lo mismo si decidiera sobre nuestro préstamo financiero. En el caso de no ser transparente en la política de decisión de estos sistemas, corremos el riesgo como sociedad de ver atropellados nuestros derechos más básicos, y ser rechazados por nuestra orientación sexual, procedencia, trabajo, u otro aspecto. El término blackbox no es una excusa para todo para no revelar el funcionamiento más general de una máquina que toma decisiones.

Si un mismo sistema inteligente dice que no podemos optar a un préstamo en un banco X, ¿cómo sabemos que tampoco nos permitirá obtenerlo en el banco Y?

Además, este tipo de máquinas inteligentes pueden llegar a hacer diagnósticos médicos, recomendar tratamientos o conducir por nosotros, y por lo tanto, una transparencia sobre los criterios que usa es imprescindible.

El secreto industrial lleva existiendo desde hace mucho tiempo entre nosotros, y a pesar de que hay máquinas totalmente integradas en nuestra vida, como aviones y coches, que no revelan totalmente todo el código que emplean (véase, Dieselgate) sí que hay tests en la industria perfectamente estandarizados para comprobar cómo funcionan esas máquinas bajo una gran variedad de situaciones de funcionamiento. Algo así podría ser aplicable y exigible legalmente para sistemas inteligentes que tengan poder sobre nuestra vida. En este caso, estoy pensando que el algoritmo de recomendación de canciones de Spotify no toma este tipo de decisiones transcendentales, por ejemplo.


2) El panóptico digital
Creo que este aspecto es, de los tres que presenté, el menos tratado en la bibliografía y opinión pública. El panóptico es una idea creada por el filósofo Jeremy Bentham al final del siglo XVIII. El concepto intenta explicar cómo se altera el comportamiento de una sociedad o un colectivo cuando se siente observado. Imaginaos que tuvieráis cámaras en vuestra casa. ¿Os comportaríais de la misma manera?

Los sistemas de control de producción en fábricas son bastante recientes. Se encargan de detectar ritmo de producción, piezas defectuosas, tiempos muertos, etc. Actualmente se habla de fábricas inteligentes, donde muchos brazos robóticos y sensores controlan la producción de toda la fábrica. Ya no hace falta un supervisor que vigile si un equipo de trabajadores se emplea a fondo o no. Basta con sensores, y con aumentar el ritmo al que trabajan los robots y distintos automatismos, tal y como se refleja en la recomendable película Tiempos modernos

Me parece que la inteligencia artificial da un gran salto en esta vigilancia, ya que pone a disposición de los responsables una serie de herramientas y tratamiento de datos masivos muy avanzado. Ahora parece mucho más fácil detectar ineficiencias de trabajadores, o quién es el "manazas" que más piezas estropea, o dónde exactamente se pierde ritmo de producción. 

El panóptico de Bentham defendía que este tipo de vigilancia lleva a una especie de alienación de la gente, y es lo que habría que tener en cuenta para la incorporación de la IA a las fábricas. Creo que en lugar de emplear la información del tratamiento de datos para expulsar a los empleados, se puede usar e incentivar una formación más personalizada, y una adaptación de la disciplina de Prevención de Riesgos Laborales a este nuevo marco tecnológico.


3) Los hackeos sobre sistemas inteligentes
Este punto está relacionado con el primero de mi exposición. El aprendizaje máquina adverso (adversarial machine learning) es una rama de la ciberseguridad que estudia la alteración de señales para el engaño de sistemas inteligentes. Estas señales pueden ser imágenes, texto o audio, y la existencia de este fenómeno fue descubierto a finales de 2010. 

Actualmente, se conocen distintas técnicas de manipulación de imágenes que engañan a cámaras o sistemas inteligentes. Por ejemplo, que alguien con unas gafas de sol con lentes coloreadas no sea identificado, o la alteración pequeña de señales de tráfico para que el coche autónomo no reconozca o confunda la indicación de tráfico. Lo preocupante es que muchos de estos cambios visuales no son percibibles por el ojo humano. En este artículo se muestran algunas alteraciones que cambian totalmente la interpretación de las máquinas.


¿Qué os parecen estas amenazas? ¿Añadiríais alguna más?
Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons