Es posible que los lectores de este humilde blog hayan leído este mes el nuevo avance de Google: AlphaGo Zero. Este algoritmo es la evolución del programa que se hizo famosa por ganar en 2016 en el juego Go a campeones mundiales. Básicamente, los titulares que me he encontrado son poco sugerentes de la realidad, o tientan a crear cierto alarmismo en torno a esta disciplina.
Y así en más sitios web.
¿Qué se ha conseguido en la realidad? Las versiones previa de AlphaGo, denominadas AlphaGo Master y AlphaGo Lee, aprendían a jugar a Go observando jugar a grandes jugadores profesionales y a amateurs. Ahora, en octubre 2017, el paso que se ha dado es que AlphaGo Zero no necesita ver esas partidas para aprender, sino que haciendo él mismo movimientos aleatorios, termina descubriendo cuál es la mejor estrategia para ganar un juego bajo una gran abánico de posibilidades y situaciones de partida.
Es decir, la grabación de los datos hasta ahora la hacían unos humanos, y ahora simplemente se ha demostrado que no hace falta ese input, sino que con redes neuronales suficientemente grandes, AlphaGo puede jugar 30 millones de partida contra sí mismo y descubrir cuáles son las mejores jugadas. Para esto, se emplea el aprendizaje por refuerzo, donde el refuerzo positivo lo dan las estrategias de Go que llevan a la victoria.
Es decir, a pesar de que a este acontecimiento se le ha dado más bombo y platillo del que yo hubiera atribuido, AlphaGo Zero no es más que el mismo programa anterior, pero con mayor potencia de cálculo. El artículo de @emulenews al respecto lo deja también bastante claro.
Y me gustaría llamar la atención sobre estos avances que se anuncian con más grandilocuencia de lo que realmente aportan. Desde hace décadas, los algoritmos de la inteligencia artificial no han variado mucho. Fue el gran Geoffrey Hinton en 1986 cuando desarrolló el gran avance para el aprendizaje profundo.
Los algoritmos que Google o Facebook emplean ahora tienen su base ahí. Son eso, algortimos, y consiguen victorias aparentemente más importantes, entre otras cosas porque hay más investigadores que emplean deep learning y porque ha mejorado muchísimo la capacidad de computación de las máquinas.
Los algoritmos actuales manejan datos, y dicho rápido y mal, da lo mismo que los datos los obtenga viendo a humanos jugar partidas, que probando a hacer movimientos por sí mismo. Además, muchos de los pasos que se dan son por prueba y error: tienes unos datos, y pruebas un algoritmo. ¿No funciona? Prueba con otro algoritmo. Y así, hasta que tengas un titular de periódico.
¿Otro ejemplo? Este: la IA aprende a distinguir voces dentro de una conversación. De nuevo, alguien puede pensar que la IA es como un bebé, que a medida que desarrolla sus sentidos, entiende a sus dos padres, aunque le hablen a la vez haciéndole carantoñas. Y no, no se parece en nada a esto.
Imaginaos que tenéis un archivo de audio lo suficientemente grande: aplicando distintos filtros y búsqueda de patrones (aislar tonos, juntar timbres, un poco de procesamiento de lenguaje natural...) una empresa con suficientes recursos sería capaz de conseguirlo con suficiente tiempo.
Todavía tiene que avanzar bastante la parte matemática de la inteligencia artificial para lograr los siguientes grandes hitos. Y resolver esa parte matemática, implica resolver cuestiones como las que planteé aquí. Hasta entonces, y quizás más tarde, podéis estar seguros de que no tendremos nada medio parecido a Terminator.
0 comentarios:
Publicar un comentario