Inteligencia artificial, robótica, historia y algo más.

25/12/18

2018, un año de lecturas

Como viene siendo habitual en el blog, este es el resumen de lecturas que he tenido a lo largo de 2018 (otros años: 2017, 2016, 2015, 2014, 2013. ¡Qué lejos quedan las lecturas de enero! Los enlaces de cada libro están dirigidos a algunas de las editorias y librerías a las que tengo cierto cariño y os recomiendo visitar. Entre otras, Traficantes de Sueños, Librería Hontza, Anti-Liburudenda, Librería el Joker, Iberlibro...


Sueño de la Cepeda (JJ Domínguez)
Es un pequeña novela enmarcada en Castilla y León, de corte costumbrista. Muy bien escrita y se lee muy fácil  El libro me lo dio su propio autor, ya que ahora es bastante difícil de conseguir.



Habla del homo-economicus y cómo el consumismo ha ido devorando la identidad de muchos de los pueblos y sus costumbres. El libro está muy bien escrito y se lee rápido. Además, la autora es una gran representante del pensamiento político



Este libro habla de la psicología, un poco de neurociencia y comportamiento del ser humano durante distintas fases de su vida. Me ha parecido un libro muy romántico, ya que principalmente las explicaciones del comportamiento humano se basa en el 'comportamiento respecto a la pareja'. Muy recomendable y ameno de leer.



Fouché fue un político francés en tiempos de la Revolución Francesa y Napoleón. Se le pone de ejemplo de víbora y equilibrista político, capaz de desdecirse, contradecirse, traicionar y humillar a quien sea con tal de conseguir sus propósitos. Durante el libro se narra su biografía y peleas contra Robespierre y Napoleón, entre otros.



Poco que decir de esta obra. Es suficientemente conocido. Se lee muy rápido.



Un gran libro, de esos que los lees con una libreta al lado y apuntas datos de vez en cuando. Es uno de mis favoritos este año. La tesis de este libro es explicar qué es lo que ha hecho que Occidente sea quien domine el mundo por ahora. Habla con gran rigor y explicaciones históricas sobre factores como geografía, sentido de la propiedad, medicina, etc, que distinguieron a los países que dominan ahora el mndo frente a otros. Muy recomendable.



Es un libro que recuerdo con cierta nostalgia. La autora es una psicoterapeuta que trata a niños de altas capacidades en Francia. A lo largo de todo el libro, describe el comportamiento traumático, obsesivo, agobiante y en ocasiones, destructivo, de este don en los niños. El libro no es para nada un manual técnico, sino que la autora lo describe con gran humanidad. No hay aún base científica sólida para decir que 'todos los superdotados' se comportan de una manera u otra. A pesar eso, el libro da a entender unos patrones de comportamiento que se repiten constantemente. 



 Es una novela corta que describe a la perfección algunos de los sentimientos de una mujer en el amor, en el desamor y en las decisiones irracionales que hacen que el mundo avance.



Mikel Ayestaran es un periodista de guerra con mucha experiencia. En el libro, cada capítulo es una ciudad de conflicto, a las cuales estamos muy acostumbrados a escuchar en los telediarios. Mikel describe sus peripecias y modo de funcionar en cada ciudad. En el libro es inevitable caer en cierta subjetividad.



Novela costumbrista del Madrid de los tiempos de Cánovas y Sagasta. Describe una realidad un poco deprimente de una familia corriente de Madrid, con sus ambiciones, envidias, problemas y alegrías. No es un libro que me haya entusiasmado particularmente.



Al principio, el libro de Ian Morris parece que responde a la pregunta de para qué sirve la guerra y cómo moldeó un pasado según ciertas decisiones políticas y militares. Sin embargo, la segunda mitad del libro no responde a la pregunta, y más bien divaga sobre las distintas civilizaciones y factores que hacen que triunfe o sucumba. Particularmente, no me ha gustado, y prefiero con creces el libro Civilización (Niall Ferguson), que habla sobre temas muy parecidos.



El libro habla exactamente de lo que anuncia el título. Raymond Kurzweil hace un exhaustivo resumen a las distintas técnicas y planteamientos de los investigadores a la hora de simular el cerebro, tanto en su proceso de aprendizaje, como en su comportamiento químico y eléctrico. Es un libro de consulta, sin embargo, el estilo es muy ameno y se lee con facilidad.



Es un libro que ha cambiado en cierto modo la manera que tengo de evaluar el mundo, y de intentar entender el comportamiento de las personas. Dan Ariely, un reputado investigador del comportamiento económico humano en la universidad de Duke, nos relata y explica con todo lujo de detalles los comportamientos totalmente irracionales de los seres humanos mediante unos sencillos experimentos. Todo el libro termina concluyendo que actualmente, las leyes están diseñadas presuponiendo que todo el mundo hace decisiones lógicas, pero que habría que tener en cuenta sesgos, trampas, precios ancla y otros muchos factores apasionantes. Totalmente recomendable.


Es el libro más bello que he leído este año, en mi opinión, y también ganador de un premio Pulitzer. El autor relata desde la Antigüedad hasta nuestro días,  cómo ha sido y cuáles han sido los descubrimientos, teorías, personas, héroes y heroínas en la lucha contra el cáncer. Está presentado de un modo muy humano a la par que riguroso, donde no se queda en el plano de grandes investigadores. No. En la historia son igualmente importante los pacientes, la sociedad que entendió pronto el mensaje, los médicos, y cualquiera que haya podido aportar su granito de arena.



Hay muchos libros sobre la historia de Europa. John Hirst la cuenta con humor, y con capítulos muy independientes el uno del otro. Tan pronto habla de los romanos, como de las presiones de la Corona inglesa con la religión, como la Revolución Industrial. Es uno de estos libros de subrayar muchas líneas. Además, se lee muy rápido y el estilo es muy socarrón.



Vi que Alberto Moyano, @eljukebox, recomendaba este libro, y para mí, dio en el clavo. Feliz Final es una novela que habla de las crisis de pareja, su camino, las decisiones, los acuerdos que se hacen durante ella, las medias mentiras y las medias verdades, y todo eso a lo que suele recurrirse para mantener una relación viva. El libro cuenta estas cosas desde el flechazo hasta la ruptura final de una manera magistral.



Este libro describe los descubrimientos y formación de la electricidad como elemento de consumo diario, industria y ciencia. El libro emplea la primera cuarta en explicar los descubrimientos de Faraday, Maxwell, Franklin, etc, y a partir de ahí, casi todo el libro transcurre en las decisiones gubernamentales que han dado forma al sector eléctrico en el mundo tal y como lo conocemos hoy en día. Mi idea era que este libro sería parecido a The Most Powerful Idea in the World, que habla de la 1ª Revolución Industrial, pero para mí, Craig Roach no logra acercarse a ese nivel.



Es una novela bestseller de uno de los autores más vendedores de España ahora mismo. La novela cuenta la historia de Antonia Scott, una mujer increíble que resuelve casos policiales imposibles con la ayuda de un inspector de policía un tanto particular. La novela se lee muy rápido y el estilo de narrativa es muy ágil.



De nuevo, @eljukebox recomedaba este libro. Es el primer libro de poesía en los resúmenes que escribo por aquí. Quizás sea un poco dura para iniciados como yo, pero una vez que se entiende el significado, son muy emocionantes.


No Alfa (Jon Eldritch) 
Es una obra de Sci-Fi que me ha encantado. Jon Eldritch describe una realidad humana utópica en el que las personas tienen una parte física real y un programa de ordenador corriendo en paralelo a lo largo de sus vidas. El protagonista de la obra, Daniel, investigará durante todo el relato las misteriosas muertes de unas entidades robóticas. En el libro se mezcla inteligencia artificial, software y seguridad informática.

Esta lectura ha sido importante para mí, ya que he participado como voluntario en un proceso de corrección y opinión.


Capitalist realism: is there no alternative? (Mark Fisher)
Cogí este libro con más expectativas de las que consiguió saciar. Mark Fisher es un famoso activista, ya fallecido, sobre alternativas al capitalismo. El libro es bastante negativo respecto a la posibilidad de otras alternativas, y lo expone de una manera muy filosófica. En cambio, yo esperaba un relato mucho más histórico, con los orígenes, crisis y evolución del capitalismo.


La corrosión del carácter (Richard Sennett)
Precisamente, el libro de Sennett habla desde un punto de vista más social del cambio de carácter de las personas, principalmente debido a la nueva realidad económica y laboral. Critica los eslóganes muy repetidos estos días como que 'no parar en un sitio fijo a trabajar es bueno para ti', 'supérate', 'sacrifica cosas', 'plantéate nuevos retos'. Sació mis expectativas mucho más que el libro de Mark Fisher, y además, se lee mucho más fácil.



En 2018, otros libros los he dejado inacabados, entre otros La Princesa de Berlín (Arthur R.G. Solmssen, Un hombre llamado Ove (Backman Fredrik), Deshaciendo errores (Michael Lewis), El misterio de la banca (M. Rothbald), God in a cup (Michaele Weissman), Octubre (China Mieville), y La Tabla rasa (de Steven Pinker)

Ahora mismo, estoy sumido en La conquista del pan, de Piotr Kropotkin.


Como novedad, este año también me he pasado de oyente ocasional de podcasts a oyente habitual. Estos son algunos que os recomiendo:









2018 ha tenido más bajadas que subidas. Ha sido un año de muchos cambios, y muy duros. Cambios en los sueños, en las metas y en el orden de prioridades de muchas cosas. Todo esto probablemente esté provocado por las estancias de investigación de 2018, muchas noches de insomnio y las personas que se cruzan en mi vida. Algunas de ellas, totalmente apasionantes, las cuales ni me imaginaba encontrar (aunque no les guste reconocerlo ni que se lo digan).

He aprendido a pilotar, he visitado sitios espectaculares, he invertido tiempo y dinero en proyectos que creo que merecen mucho la pena, sigo aprendiendo y he cruzado miradas que me han hecho volar más que cualquier cohete.

No dejéis de ilusionaros, nunca, seguid peleando y avanzando, porque lo único inevitable en esta vida son la muerte... y los impuestos.




Comparte:

13/12/18

Mary Lasker, la directora de marketing contra el cáncer

Ha habido agitadores sociales que han cambiado la historia, y Mary Lasker (1900-1994) ha sido una de ellas. No fue científica, sino removedora de conciencias y hábil estratega y negociadora entre las élites. Mary Woodward se casó en 1940 con Albert Lasker, un rico y bien conectado ejecutivo de marketing de la industria del tabaco de Estados Unidos. Por su parte, Mary Woodward era una diseñadora de ropa con aspiraciones, que pretendía cambiar la sociedad convenciendo a los poderosos. Y la causa filantrópica que eligió fue la lucha contra el cáncer, que para el matrimonio comenzó en 1943.


Fuente: Wikipedia



Podéis seguir leyendo el artículo en la web de publicación orininal, MujeresConCiencia. Un blog sobre mujeres (a menudo olvidadas) que inspiraron y marcaron la historia de la Ciencia.
Comparte:

4/12/18

Keynes y el contexto de la semana laboral de 15 horas

En estas latitudes, el gobierno ha propuesto realizar un registro de las horas que pasan los trabajadores en jornada laboral. En este país se hace una polémica de casi todo, y estoy seguro que en alguno de los debates que acaecerán se nombrará al ínclito John Maynard Keynes y su famosa predicción de que en 2030 disfrutaremos de una jornada laboral de 15 horas. La dejó redactada en la obra de 1930, Economic prospects for our grandchildren.


Fuente

En este artículo me gustaría describir brevemente cuál era el pensamiento económico de este autor y qué suponía cuando realizó esta propuesta.

Keynes predecía que las personas tendrían que trabajar mucho menos, tendrían sus necesidades cubiertas y podrían decidir cuánto más de tiempo de ocio se tomarían respecto a lo que estamos acostumbrados.

Sin embargo, no parece que esto se esté cumpliendo, ya que la tendencia actual en muchos puestos de trabajo es a difuminar la línea de separación entre vida personal y vida laboral. Además, en Estados Unidos el número total de horas trabajadas se ha mantenido estable durante muchas décadas y tienden a no gastar todo su período de vacaciones, al contrario que en Europa.  

Pero vamos al contexto de la predicción: Keynes era una persona que defendía la intervención del estado para el mantenimiento del sistema capitalista y para el progreso de la economía. Fruto de su pensamiento, se crearon instituciones como el FMI y el Banco Mundial

Los años dorados del capitalismo fueron desde 1930 a 1970 aproximadamente. Durante estos años, la economía creció exponencialmente. Es decir, se incorporaron diversas técnicas de organización laboral y se innovaron distintas tecnologías que hicieron que la productividad empresarial creciera sin parar. Fueron unos años de mucha presión de sindicatos y regularización, lo cual permitió también que los salarios de los trabajadores crecieran junto a los beneficios empresariales, empujados por la adorada productividad. 

En definitiva, todo marchaba bien. Se creó el llamado estado de bienestar, se extendieron los seguros laborales y los derechos de los trabajadores. Fue en esta época dorada donde Keynes realiza su predicción: creía que la tecnología y otras innovaciones organizativas por sí mismas harían que el trabajador pudiera ir reduciendo su semana laboral, incluso generando beneficios para el empresario. Es decir, era muy optimista respecto a lo que hoy llamamos desempleo tecnológico. Sin embargo, la alegría exultante no fue eterna, y en 1970 aproximadamente, la productividad empezó a decrecer.

Entre 1920 y 1970 se consiguió un 2,82% de incremento anualizado de productividad. Sin embargo, de 1970 a 2014, creció solo por un 1,62% anual. 


Fuente

Cada vez era más difícil aumentar beneficios en las empresas. Una metáfora equivalente podría ser la de extraer petróleo de un campo. Al principio es fácil, pero cada vez los costes van aumentando más y requiriendo mayor energía para obtener esa materia prima.

Debido a este problema de pérdida de productividad, a continuación se ve la curva que Keynes nunca previó ni contempló: la separación de la evolución de la hora pagada al trabajador y el producto obtenido.

Fuente

La dificultad de mejorar la productividad obliga a las empresas a reducir costes de salarios y a hacer que los trabajadores inviertan muchas más horas. Las empresas basan una gran parte de su crecimiento en operaciones financieras (recompra de acciones), no a partir de sus medios productivos.

De hecho, ahora mismo se aboga por el modelo capitalista sin intervención, abanderado por Milton Friedman, en el que el estado no debería intervenir en la economía, ya que el mercado se regulará solo.

Por esta serie de razones, espero que quede claro que el mundo en el que John Keynes elaboró su teoría es totalmente distinto del actual. Lo cual no quita para afirmar que la semana laboral de 5x8 horas no es lo mejor desde el punto de vista de la Ciencia, pero esa reflexión me la dejo para un siguiente post.
Comparte:

19/11/18

En @MapIgnorance: la convergencia entre inteligencia artificial y neurociencia

Esta semana publiqué un artículo en el blog de divulgación de la Universidad del País Vasco, Mapping Ignorance. El artículo original está en inglés, y esta es una traducción libre de el mismo.



Muchos investigadores de inteligencia artificial (IA) están alertando sobre un invierno en esta disciplina, lo cual significa que los científicos pueden perder interés en el campo, las instituciones reducir los fondos y perder presencia en el debate público. No sería el primer invierno de IA, no obstante. Las pasadas dos décadas han supuesto una época de optimismo sin parangón en la inteligencia artificial, y a ello han contribuido la mejora del hardware, la existencia de grandes bases de datos y el desarrollo del aprendizaje-profundo. Sin embargo, aún estamos muy lejos de una inteligencia más humana.

Personalmente, no estaría tan seguro sobre el descenso de actividad investigadora en IA, pero de lo que sí que estoy convencido es de que cada vez irá más de la mano de la neurociencia y sus reglas. Por lo tanto, podemos denominar invierno de la IA al período que se necesitará para entender lo suficientemente bien el cerebro como para dar un gran salto adelante, tanto en IA como en neurociencia. Este artículo pretender describir las tendencias actuales de los investigadores en esta dirección y algunos ejemplos de las contribuciones de la neurociencia.



Fuente


Es paradójica la situación actual, ya que en su orgien la IA estaba basada en la neurociencia y en la psicología. A partir del desarrollo posterior y expansión de estas disciplinas, los límites de estas ciencias se hicieron muy níticos y se perdió la interacción entre ellas.

La neurociencia otorga dos ventajas para la IA. En primer lugar, sirve de inspiración para una nueva multitud de nuevos algoritmos, independientes de ideas matemáticas que han dominado tradicionalmente la IA, como el aprendizaje profundo y las redes neuronales. En segundo lugar, la neurociencia puede servir de sistemas de validación de las técnicas de IA que ya existen. Si un algoritmo existente se prueba sobre un modelo de cerebro, se comprobará su plausabilidad como elemento hacia un sistema de inteligencia general.

Sin embargo, en este punto es donde las dos tendencias predominantes entre científicos difieren: investigadores como Henry Markram, Dharmendra Modha y Stepehen Larson están centrados en un modelo de simulación completo del cerebro, incluso desde un punto de vista biológico. Estiman que un millón de líneas de código son suficientes para este propósito. Están tratando de replicar todas las sinapsis, dendritas, activación de axones, etc, para poder entender cómo aprende el cerebro, o cómo obtiene información del entorno, e incluso cómo luchar contra enfermedades mentales. Sin embargo, en este artículo, hablaré sobre trabajos que sólo reproducen cómo funciona el proceso de aprendizaje, desde un punto de vista ingenieril.


Aprendizaje por refuerzo

La neurociencia ha vuelto a poner al aprendizaje por refuerzo (RL) de moda otra vez. Nunca ha sido una técnica particularmente atractiva: es un algoritmo computacionalmente muy muy ineficiente y requiere cientos o miles de experimentos para lograr la solución óptima. Pero durante la experimentación se pasa por distintos estados y decisiones y eso se ha vuelto una gran ventaja para modelar y representar algunas habilidades humanas esenciales.


Por ejemplo, RL se ha vuelto una buena representación del aprendizaje de las habilidades motoras en animales y humanos. Persigue el aprendizaje a través de las repeticiones de acciones. Querido lector, intenta simplemente recordar cómo aprendiste a montar en bici, a nadar o cómo aprendiste en una ciudad nueva el camino a casa. En definitiva, es una adición de prueba y error en el que la persona pondera mucho las buenas decisiones que le hicieron conseguir el equilibrio o llegar a su destino.

Además, la combinación de aprendizaje profundo y RL ha sido un gran hito, ya que representa el uso de memorias episódicas. RL, en este sentido, representa la habilidad natural de aprendizaje de habilidades, como las reglas de un juego. La información permanece almacenada, y a continuación, se extrae y se usa una red neuronal para hallar la solución óptima según las experiencias vividas pasadas. La combinación de RL + aprendizaje profundo se ha comprobado que es válido para simular cómo los niños adquieren experiencia y sentido común al interactuar con el entorno.


Finalmente, el RL también se está mostrando muy útil para modelar la capacidad de imaginar y planificar de los humanos. Los humanos pueden predecir resultados futuros a través de simulaciones, gracias a multitud de experiencias vividas pasadas.



Atención
Hasta hace bien poco, los modelos de redes neuronales más típicos (tradicional, convolucionales) trabajaban directamente sobre imágenes o vídeos completos, dando la misma importancia a todos los píxeles del cuadro a la hora de procesar. Sin embargo, no es así cómo trabaja el cerebro. En realidad, centra su atención en los objetos móviles, colores y partes específicas. Por lo tanto, este tipo de algoritmos de reconocimiento se están implementando para modelar la atención, y reducir el coste computacional al mismo tiempo.


Aprendizaje continuo
Una de las principales características del cerebro humano es la habilidad para aprender continuamente, sin olvidar los conocimientos y habilidades previamente adquiridos. En el caso de las redes neuronales, el re-entrenamietnto era catastrófico ya que borraba todos los conocimientos ya adquiridos. Este fenómeno se representa por el sesgo y los pesos, que representan el camino al conocimiento de una red neuronal. En la actualidad, los investigadores están desarrollando un tipo de aprendizaje y de pesos flexibles para usar la misma red neuronal para aprender nuevos conceptos, sin pérdida de información.


Aprendizaje eficiente
Los humanos tenemos una gran habilidad para aprender rápidamente nuevos conceptos a partir de unos pocos ejemplos, lo cual hace el conocimiento algo muy flexible. Esto es una habilidad extremadamente difícil para la IA. Sin embargo, sistemas de aprendizaje recientes están creando sistemas de redes neuronales que aprenden a aprender. Se puede entender con el siguiente ejemplo: un niño tiene una habilidad nautral para reconocer distintas letras, a pesar de que provengan de distintas caligrafías y personas. Las redes neuronales están adaptando este efecto ponderando el conocimiento previo con problemas parecidos.

Esto es también muy importante en la transferencia de conocimiento de los humanos. Normalmente, una persona que sabe usar un ordenador o conducir un coche, podrá usar cualquier otro ordenador y conducir cualquier otro coche.


Conclusiones
No solo la IA se beneficiará de la colaboración con la neurociencia. En la dirección contrario, la IA y sobre todo, el aprendizaje-máquina, transformaron para siempre la neurociencia y las técnicas para analizar las imágenes de resonancia magnética, la realización de diagnósticos a partir de big-data y el desarrollo de nuevos medicamentos.

En la nueva era, ninguna de las dos ciencias podrá avanzar la una sin la otra.



[1] Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-inspired artificial intelligence. Neuron, 95(2), 245-258.
Comparte:

11/11/18

Errores de ajuste y Fukushima

Una famosa cita científica dice que si no usas datos, probablemente lo que hagas no sea ciencia. Pero contar con datos no resuelve el problema completo, ya que normalmente hay que interpretarlos y establecer una relación entre los datos con los que contemos. 

En este artículo pretendo explicar un par de casos históricos famosos sobre el problema de sobreajuste. Es decir, lograr que la relación que calcules sobre tus datos, sea demasiado cercana a los propios datos. Se va a entender muy bien con los siguientes ejemplos:


- Evolución del tamaño de población de Estados Unidos

Este ejemplo apareció en la página de Mathworks del software matemático Matlab. En ella, se dibujan algunos puntos del tamño de población de Estados Unidos a lo largo de la historia, y se ajusta con uan ecuación de segundo grado.


Pero si yo fuera Donald Trump, me preocuparía por ver la evolución de esta gráfica en el futuro:


Es decir, este ejemplo demuestra que a pesar de que la curva se ajusta muy bien a los datos puntuales con los que yo tenía, la gráfica no es correcta (o eso esperamos).

Lógicamente, no todos las líneas, según su grado, van a ajustar correctamente con la realidad, pero puede que arrojen resultados más lógicos.


 

- Ptolomeo y su sistema de círculos

Ptolomeo consideró que la Tierra era el centro del universo, y para eso creó un sistema de círculos que según él, reproducía perfectamente los movimientos de todos los cuerpos celestes alrededor de la Tierra. El problema era que había que dibujar nuevos círculos cada cierto tiempo para ajustar los datos.



Cuando el resto de los astrónomos tuvieron que crear tantos círculos que el modelado les parecía dudoso, llegó Copérnico a desarrollar un sistema más realista.


- La central de Fukushima

Este ejemplo de la central nuclear probablemente sea uno de los más esclarecedores de sobreajuste: para fabricar la central, los ingenieros se basaron en una relación denominada ley de Gutenberg - Richter, la cual establece la frecuencia de que ocurran terremotos de cierta magnitud. Desde los imperceptibles hasta los terremotos de grado 10.

Ahora, fijaros en las siguientes dos imágenes:



La primera imagen representa la relación que crearon los ingenieros, consistente en dos líneas rectas, donde el punto de inflexión ocurre alrededor de 7,3. La segunda imagen muestra un ajuste de los datos peor, consistente en una única recta. Sin embargo, la primera imagen establece que un terremoto de grado 9 se da cada 13.000 años, mientras que la segunda imagen indica que un terremoto así se da cada 300. Y por esta razón, Fukushima fue dimensionada solo para aguantar un terremoto de 8,6 grados.

¿Sorprendente? Un error de cálculo que costaba arreglar 30 segundos provocó que se echase a perder una gran infraestructura. Los datos no lo son todo. También existe su correcta interpretación.





Fuente:

1- https://ml.berkeley.edu/blog/2017/07/13/tutorial-4/
2- https://stats.stackexchange.com/questions/128616/whats-a-real-world-example-of-overfitting
3- https://datascience.stackexchange.com/questions/61/why-is-overfitting-bad-in-machine-learning
4- https://www.britannica.com/science/Ptolemaic-system
Comparte:

26/10/18

Los sesgos de los sistemas inteligentes y la realidad

Hace dos semanas, saltó a la palestra la noticia de que el programa de inteligencia artificial que usa Amazon para contratar a trabajadores tenía una clara preferencia hacia los hombres. Estas distinciones y decisiones injustas merecen más atención desde hoy mismo que la que los medios le están dando, pero no le veo fácil solución a este problema de la tecnología. En este texto explico por qué.


Para ello, me voy a centrar en un caso un poco más antiguo, de mayo de 2016, en el que el medio ProPublica acusaba a un sistema inteligente, COMPAS, usado en el sistema de justicia estadounidense, de tener un sesgo contra las personas negras a la hora de predecir si un delincuente volvería a reincidir o no. Concretamente, con las personas blancas tenía una mayor posibilidad de predecir que no reincidían, y finalmente sí que lo hacían. Mientras, con las negras predecía que iban a volver a delinquir y finalmente no lo hacían.

A pesar de que se armó un buen escándalo, cuatro meses después el Washington Post publicó un artículo en el que demostraba que las interpretaciones de sesgos sobre COMPAS que había realizado ProPublica no eran nada consistentes y que no estaba claro que el programa tuviera una mala preferencia. El problema está en cómo define ProPublica un sistema justo.


Fuente


Para Northpoint, la empresa desarrolladora de COMPAS, la aplicación es justa y veraz, ya que la proporción de la población que reincidió es igual en cualquiera de los dos colectivos, tal y como se puede ver en la imagen. A esto se le denomina calibración del sistema. Sin embargo, ProPublica se fijaba en el conjunto que finalmente no reincidió. Y aquí viene el problema: es imposible tener una solución tecnológica que sea justa según las dos definiciones. De hecho, eso de lo que acusó ProPublica es una de las consecuencias necesarias de diseñar un algoritmo sin sesgos. Un equipo de investigadores de la universidad de Stanford se propusieron calcular el coste de la equidad y concluyeron que el algoritmo, en efecto, se podía hacer que no tuviera la famosa distinción entre blancos y negros, pero a costa de perder precisión en el conjunto global. Llevaría a tener un 17% más de blancos en la cárcel con muy poco riesgo de reincidencia.

Hay que tener claro qué es estrictamente hablando, un sesgo, en el sentido matemático, y qué es lo que promulgan muchos medios. Vayamos en primer lugar con el sentido científico:

En estadística, un sesgo (bias en inglés) se define como un predictor que provoca que los todos los errores vayan en la misma dirección. Es distinto de la imprecisión (variance), el cual se usa para describir errores sin ninguna dirección en particular. El siguiente gráfico lo describe muy bien:



Fuente


Es decir, para un matemático un sesgo corresponde a la diferencia entre la respuesta que da un sistema de inteligencia artificial y la realidad. Sin embargo, los medios extienden que un sesgo es la diferencia entre la respuesta tecnológica y la realidad idealizada que tienen los periodistas. Y eso no tiene ningún sentido. Una cosa es la realidad veraz, la que existe y a partir de la cual se extraen los datos para entrenar a una solución inteligente, y otra cosa muy distinta es la realidad que alguien crea que debería ser.

Por decirlo de una manera sencilla: es nuestra realidad la que está sesgada. Y manipular los datos para que no lo sea, implica una manipulación que daría lugar a otro tipo de sesgos en las respuestas de los sistemas inteligentes. Cualquier modelización de nuestra realidad va a estar sesgada. Siempre va a existir el mismo problema mientras existan dos distribuciones de personas de diferente tamaño. De hecho, no importa cuánto me aleje o me acerque al detalle de la muestra: siempre apareceran subgrupos.

Como consecuencia, la cuestión sobre este tipo de algoritmos se reduce a una cuestión moral que habrá que regular de alguna manera. Habrá que establecer unas reglas de manera que se establezcan un orden de prioridades de sesgos asumibles, siendo conscientes de que se van a producir. De hecho, Google tiene una página interactiva donde se expone claramente un caso de dos grupos de población y cómo procesa la información un algoritmo a la hora de decidir si concederles un crédito o no. El ejemplo original se basaba en que a las personas negras les rechazaban muchos más créditos que a las blancas. Pero simplemente respondía a la realidad de que el primer grupo tenía menos ingresos y más impagos que el segundo. No nos gusta la realidad. Pero el gigante tecnológico concluye en que se podría eliminar ese sesgo a costa de que muchas menos personas reciban una respuesta positiva a su préstamo, en los dos grupos de población.

Cada vez aparecerán más casos de este tipo. Al caso de Amazon y COMPAS, hay que unir los no tan famosos del mismo Google, algoritmos financieros y medios de comunicación. Pero no serán ni los primeros ni los últimos, y hay que tener claro de qué estamos hablando.

En este caso concreto, me temo que los códigos abiertos no van a venir a arreglar el problema.




Fuentes:
- Jacobitemag.org
- Hackernoon.com


Comparte:

15/10/18

El gobierno… inversor, tomador de riesgos, innovador

Hoy traigo al blog un vídeo TED de una investigadora que me ha llamado la atención y creo que seguiré a partir de ahora. 

La charla TED habla sobre cuál es el papel del estado en la creación de ecosistemas innovadores dentro de países. La opinión general es que el estado es lento y que si de él dependiera, no existirían Googles, Facebooks, y ese tipo de empresas. De hecho, es una crítica habitual de los americanos a los europeos para explicar por qué en Europa no hay empresas de este tipo.

Sin embargo, Mariana Mazzucato quiere desmentir ese mensaje y cree que el papel del estado ha sido fundamental en muchos momentos de la historia, y en particular, en la creación de Sillicon Valley.






No quiero hacer spoiler de la charla, pero a mí sí que me ha convencido en particular que en esa zona de EEUU la intervención pública ha sido esencial. ¿Sabíais que Tesla también recibió muchos millones de subvención pública de la administración Obama, entre otras grandes empresas? De hecho, esta investigadora afirma que hemos socializado el riesgo de emprender, pero al mismo tiempo, privatizado las ganancias.

La opinión general de la población es que el estado debería de dejar máxima libertad para aflorar el talento, las oportunidades, las caídas y auges de empresas... harán de cualquier región un SV. Pero las evidencias de los datos dicen que no.

No tengo suficientes argumentos ni conocimiento para debatir respecto a este tema en profundidad, pero sí que me interesan los contextos sociales/económicos en los que se dieron el Renacimiento, la Primera Revolución Industrial y otros grandes acontecimientos históricos. En casi todos los que me encuentro, el éxito se debió a una colaboración entre las entidades público - privadas.




Comparte:

8/10/18

Sobre la empatía hacia los robots.. y por qué no, hacia las lavadoras

Este es un artículo que se me ha ocurrido a cuenta del recomendable libro sobre How to create a mind, de Raymond Kurzweil. Y el tema no es baladí. Durante el libro, el famoso futurólogo explica los circuitos biológicos del pensamiento y las habilidades cognitivas, y posteriormente habla de otros aspectos necesarios y complementarios para que un robot se parezca a un humano. Entre otras características, está la conciencia de sí mismos y la empatía. Hay algunas más, pero en este artículo me voy a centrar en la empatía.

La empatía es una característica esencial de los humanos que ha jugado un gran papel en que formemos sociedades durante nuestra evolución, y que nos protejamos los unos a los otros. Actualmente, se está entrenando a la inteligencia artificial y a los robots para que transmitan que sienten empatía. Y la frase es exactamente esta, ya que el robot, no siente nada. Solamente estará programado para ofrecer unas expresiones faciales, unos sonidos o unos movimientos distintos dependiendo de cómo detecte el ánimo de la persona. De hecho, esta habilidad es esencial en robots sociales usados en terapias de hospital, como los que emplea brillantemente el investigador español Jordi Albo en el hospital Saint Joan de Déu.

Sin embargo, a pesar de que el robot está actuando, los estudios están revelando que los humanos sí que sienten pena/compasión/empatía por la máquina. Un ejemplo muy sencillo de explicar lo tenemos en un artículo del pasado mes de agosto. En esta ocasión, tenemos a un robot humanoide de mucho éxito, Nao, pidiendo que no lo apaguen. Y sorprendentemente, los sujetos del experimento son más reacios a apagarlo cuando el robot suplica por su vida.
 

Puede que muchos de los que lean estas líneas no tengan nunca un robot de estas características, o que piensen que a ellos no les ocurriría. Pero planteemos la siguiente situación: ¿cuántas veces hemos golpeado con violencia la impresora, la lavadora, el coche o la televisión debido a su mal funcionamiento? 






En el vídeo precedente, ¿qué ocurriría si la máquina con cada golpe, gimiera? La ciencia indica que seguramente cesaríamos en nuestra furia contra el pobre cacharro. Seguro que muchos de los presentes, usuarios del sistema operativo Windows, han tenido que usar recurrentemente Alt + Control + Supr. Eso en cierto modo es tratar mal al software, como coger del cuello a una persona y ponerle las cosas en su sitio. ¿Y si al darle a esa combinación de teclas, el ordenador emitiera un mensaje de dolor?

Ponerle sonido a Windows en estas condiciones es muy fácil, lo cual quiere decir que engañar a los humanos y hacerles imaginar que el ordenador siente daño y está vivo, no es ciencia ficción en absoluto. Es posible que conozcáis a Furby, un juguete que tuvo éxito hace unos 20 años que trataba de formar una relación emocional entre el niño y él a través de frases graciosas.

No he encontrado ningún experimento al respecto, pero ¿creéis que aumentarían la venta de aspiradoras autónomas si tuvieran caritas sonrientes en lugar de no tener expresiones faciales? Quien diga que no, a ver qué piensa cuando conozca a Cozmo.





Pero en todo progreso hay un cierto peligro. Y el peligro es bastante importante, para mi gusto. Ya que un robot con financiación militar ha demostrado que puede manipular mentalmente a un humano a través de la empatía y la interpretación de su estado de ánimo.

Y esto es lo que da un poquito de miedo y conviene regular y conocer en profundidad cómo afecta a la mente humana.

Finalmente, si pensáis que este es un problema de nuestros días, es porque no habéis visto 2001: Una odisea en el espacio, ¡que es de 1968!
Comparte:

22/9/18

Después de la margarina, vino el robo del reloj, la bombilla y hasta la cartera

Hace unos días ya os conté la maniobra legal que permitió a unos inventores holandeses robar la receta de la margarina. Hoy traigo algunos ejemplos más, tal y como adelanté.

Desde lejanos tiempos, los gobiernos han usado el mecanismo de las patentes para sus propios intereses. Los datos históricos demuestran muy poca correlación entre creación de patentes e impulso de las innovaciones. En cambio, historias como las que traigo aquí demuestran que el uso real de las patentes era como guerra comercial, creación de monopolios y robo de tecnología entre países.

Este instrumento legal comenzó en 1474 en Venecia, que empezó a premiar con derechos a los inventores y empresarios que habían creado o habían traído tecnología a Venecia. Su intención era la de atraer artesanos a la República. Fue exitoso, por lo que los países del entorno no tardaron en crear sus propias leyes de patentes. Una de las que se recuerdan como mayor acierto fue el Estatuto de los Monopolios, publicado en 1623 en Reino Unido. Hasta entonces, las patentes en ese reino las concedía la Corona prácticamente a dedo, y su posesión implicaba los derechos sobre la comercialización de la invención. Es decir, el inventor no se veía nada retribuido.

Sin embargo, esta herramienta legal ya mostró sus imperfecciones en plena Revolución Industrial, ya que por ejemplo, James Watt exprimió su famosa patente hasta su expiración para evitar que nadie más desarrollase ningún tipo de motor, lo cual provocó un freno en la evolución de esta tecnología. Y es que los monopolios sin ánimo de innovar son uno de los principales problemas de estas protecciones.

El caso es que por razones políticas o económicas, varios países han evitado tener durante bastante tiempo una ley de patentes, y sus resultados son cuanto menos llamativos. Suiza, en primer lugar, no la tuvo hasta que en 1888 publicó una ley bastante rudimentaria, y no fue hasta 1907 cuando tuvo una ley completa tal y como la entenderíamos hoy. Dinamarca daba solo 5 años de concesión de derechos y hasta 1894 no elaboró su ley. En cuanto a Holanda, abolió su ley 1869 por una victoria política a faor del libre comercio, y no la restauró hasta 1912.

Crystal Palace (Londres)


Gracias a las ferias internacionales de la época, podemos comparar los efectos de la ausencia de este tipo de leyes en estos países. Concretamente, en la exhibición de Londres de 1851 (Crystal Palace Exhibition), Suiza y Dinamarca contribuyeron cada uno con 110 innovaciones por cada millón de habitantes, mientras que la media de los países tenía entre 55 innovaciones por cada millón. También Suiza dobló al resto de países en innovaciones durante la feria de 1876 (US Centennial Exhibition). Holanda, en esa misma edición, ganó el 86% de los premios en los que competía, frente a un 46% de media de otros países.

¿Qué hacían entonces estos países para proteger sus innovaciones? Sus industrias se centraron en innovar con gran energía en sectores donde el secreto industrial era muy útil. Principalmente, fueron instrumentos científicos, procesamiento de alimentos e industria química, y se hicieron especialistas en estos procesos y artículos. De hecho, estas actividades generaron muy pocas patentes, mientras que la industria manufacturera se llevaba la mayoría de patentes.

Además de usar el secreto industrial, usaron otras técnicas menos ortodoxas. Por ejemplo, los relojeros suizos del Valle de Joux, tradicionalmente grandes relojeros, acordaron no contratar aprendices entre 1823 y 1840, e incluso muchos no dejaban entrar en sus talleres más que al equipo de trabajo de máxima confianza.


Pero aquí llega la trampa: la ausencia de ley de patentes no sólo se usó para que los trabajadores de esos países se defendieran y protegieran sus inventos, sino que también se usó para atacar a la competencia extranjera. Los mismos relojeros suizos que he mencionado en el párrafo anterior, esencialmente copiaron todos sus modelos de los relojeros británicos, que por entonces dominaban el mundo. Algo que sorprende, ya que los trabajadores de metal eran mejores en Suiza que en Inglaterra, con más experiencia.

Pero no solo en esta industria: es vox-populi que la industria farmaceútica en Suiza le debe mucho a la ausencia de patentes. En aquella época, varios inventores franceses emigraban a Suiza para poder robar patentes de sus compatriotas sin que les pudieran atacar. Es particularmente conocido el caso de Alexandre Clavel, quien en 1869 fundó Ciba AG, una empresa de tinte textil, a partir de una patente francesa. Esta empresa a la postre, terminó convirtiéndose en el actual imperio Novartis, con sede en basilea.

Curiosamente Philips, con sede en Eindhoven (Holanda) también se aprovechó de los años en que este país no tenía ley de propiedad intelectual para robar el modelo de bombilla británico.

Por lo tanto, espero que estén quedando aclaradas mis dudas sobre la eficacia de las patentes como instrumentos reales para mejorar la innovación, sino como medidas proteccionistas e incluso de ataque entre naciones.

Pero este problema se ha agravado en los últimos 30 años debido a razones geopolíticas: en 1980 la proliferación de patentes se descontroló, que es cuando Japón superó a EEUU en el número de patentes concedidas. Estados Unidos no podía permitirse que se interpretara que los ingenieros japoneses eran mejores que los suyos, por lo que cambió su sistema de patentes:
- las investigaciones académicas en las universidades son patentables
- eliminar la exigencia de demostrar que habías llevado tu idea a la práctica (puedes patentar una idea)

Fuente
De esa manera, lo que se ha conseguido es que los países se defiendan de productos extranjeros en la frontera. Es decir, pongamos que General Electric, Toshiba, Sony, tienen distintas versiones de la misma patente, pero eso no significa que hayan innovado más en el mundo.


Todo esto me lleva a pensar que habría que repensar este sistema de protección industrial, ya que no es un medio que mejore la innovación, y desde luego, usarlo como medidor de creativididad en el mundo está lejos de ser eficaz.



Fuentes

- Moser, P. (2005). How do patent laws influence innovation? Evidence from nineteenth-century world's fairs. American economic review, 95(4), 1214-1236.

- Nicholas, T. (2013). Are Patents Creative of Destructive. Antitrust LJ, 79, 405.

- Moser, P. (2013). Patents and innovation: evidence from economic history. Journal of Economic Perspectives, 27(1), 23-44.

- The patents war (2014). Documentary. https://www.youtube.com/watch?v=uM7UFEXhqwg

- The birth of a lamp factory in 1991
Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons