Hace unos años llamó la atención y saltó al debate de la esfera pública, un polémico artículo científico con el título Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.
Esta investigación, liderada por Michal Kosinsky, “analizaba” diferentes perfiles y presumía de acertar la orientación sexual de los candidatos con una gran tasa de acierto.
Años más tarde, en 2021, el mismo autor volvía a la carga con otro artículo titulado Facial recognition technology can expose political orientation from naturalistic facial images; y nada más y nada menos, publicado en la revista Nature.
El artículo sembró rápidamente la semilla de la polémica y provocó una avalancha de críticas de otros investigadores que afirmaban que Kosinsky había desarrollado un algoritmo digno de un adolescente de 13 años, y que con ese artículo reivindicaba la vuelta de una idea clasificada como pseudociencia tiempo atrás: la frenología.
Medir la personalidad en función de la distancia entre los ojos, o de la nariz a la boca, o de la forma de las orejas. Ojalá. Los humanos son muchísimo más complejos y la inteligencia artificial no es un martillo para cualquier clavo. La frenología se ansía desde tiempos remotos, pero tuvo su edad de oro en la Era Victoriana, en el la que esa la fealdad o belleza de un individuo era el principal criterio de las autoridades para acusar a alguien de algún crimen violento. Quizás la frenología se vio aupada por otras ciencias que revolucionaron la investigación policial de la época, entre ellas el comienzo del uso del éter como anestésico general (1844), el inicio del empleo de las huellas dactilares en la identificación de personas (1879), el descubrimiento de los rayos X (1895)…
Volviendo a nuestro tiempo, ¿en qué consistió entonces el trabajo del Sr. Kosinsky? Recogieron imágenes de unos 75.000 perfiles de hombres y mujeres en sitios web de citas online. Posteriormente, las imágenes fueron sometidas a una red neuronal profunda para tratar de conseguir patrones a partir de esas imágenes. Tal y como advierte el activista Evgeny Morozov en su obra La locura del solucionismo tecnológico, con el algoritmo adecuado y los datos de aprendizaje precisos, todos podemos ser clasificados en un grupo cualquiera. Y eso es lo que ocurrió. El resultado con el que concluyeron es que la morfología de la cara es una herramienta válida para distinguir personas heterosexuales de los que no lo son.
Uno de los mayores riesgos de la inteligencia artificial es que perpetúe los errores y prejuicios del pasado, camuflándolos bajo un barniz de objetividad. Y es este tipo de estudios los que esgrimen multitud de empresas para seguir instalando y desarrollando sistemas de reconocimiento facial de criminales, de inmigrantes, violando bajo el aura de una mala ciencia multitud de derechos humanos. No es debatible. Revisiones de más de mil artículos de investigación en psicología revelan que no se puede acertar el humor ni el pensamiento de nadie a partir de sus movimientos y rasgos faciales. Quizás llame más la atención hablar de la pérdida de empleo por robots o el advenimiento de entes artificiales tipo Terminator, pero por debajo, en silencio, se libra otra lucha, y más nos vale estar atentos. Ya que la historia ha demostrado que los derechos civiles perdidos son muy difíciles de recuperar.
Este artículo salió originalmente publicado en la revista de investigación, DYNA, a la que recomiendo que echéis un vistazo.
0 comentarios:
Publicar un comentario