Inteligencia artificial, robótica, historia y algo más.

17/10/17

Evidencias del impacto de la Inteligencia Artificial en la sociedad

El pasado julio, el Parlamento Británico convocó a cualquier persona a aportar su opinión sobre evidencias del impacto de la inteligencia artificial en la sociedad, y sus directrices de regulación. Esta información era recibida por el comité científico sobre IA de dicha institución para su lectura y análisis. Aquí podéis encontrar la convocatoria correspondiente.

Las public calls de este tipo son habituales, y pueden ser de distintas disciplinas y aspectos de la sociedad, tal y como se demuestra en la lista de las últimas convocatorias.


Para el caso que nos ocupa, estas son las propuestas aceptadas, y en esta ocasión, la mía también ha sido admitida. Y es su contenido lo que trataré brevemente en este artículo.





Básicamente, enfaticé mi preocupación y necesidad de regulación hacia tres aspectos muy concretos:

1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio.

2) El panóptico digital.

3) Los hackeos sobre sistemas inteligentes.


1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio

Si pensamos en el momento en el que somos candidatos para una oferta de trabajo, está socialmente aceptado que el responsable de esa empresa nos diga que no somos aptos, sin profundizar demasiado en los detalles que le han llevado a esa decisión. O cuando solicitamos un préstamo a un banco, y nos lo deniegan. Recibimos contestaciones del tipo "el equipo de riesgos no lo ha considerado oportuno", sin entrar en detalle de qué es lo que exactamente ha declinado la balanza en nuestra contra. 

No es aceptable este nivel de ambigüedad en los sistemas inteligentes que pasen a formar parte de nuestras vidas. Si fuera un robot el que elige el ganador en el proceso de selección de un puesto de trabajo, es altamente exigible conocer en qué aspectos se ha fijado, y lo mismo si decidiera sobre nuestro préstamo financiero. En el caso de no ser transparente en la política de decisión de estos sistemas, corremos el riesgo como sociedad de ver atropellados nuestros derechos más básicos, y ser rechazados por nuestra orientación sexual, procedencia, trabajo, u otro aspecto. El término blackbox no es una excusa para todo para no revelar el funcionamiento más general de una máquina que toma decisiones.

Si un mismo sistema inteligente dice que no podemos optar a un préstamo en un banco X, ¿cómo sabemos que tampoco nos permitirá obtenerlo en el banco Y?

Además, este tipo de máquinas inteligentes pueden llegar a hacer diagnósticos médicos, recomendar tratamientos o conducir por nosotros, y por lo tanto, una transparencia sobre los criterios que usa es imprescindible.

El secreto industrial lleva existiendo desde hace mucho tiempo entre nosotros, y a pesar de que hay máquinas totalmente integradas en nuestra vida, como aviones y coches, que no revelan totalmente todo el código que emplean (véase, Dieselgate) sí que hay tests en la industria perfectamente estandarizados para comprobar cómo funcionan esas máquinas bajo una gran variedad de situaciones de funcionamiento. Algo así podría ser aplicable y exigible legalmente para sistemas inteligentes que tengan poder sobre nuestra vida. En este caso, estoy pensando que el algoritmo de recomendación de canciones de Spotify no toma este tipo de decisiones transcendentales, por ejemplo.


2) El panóptico digital
Creo que este aspecto es, de los tres que presenté, el menos tratado en la bibliografía y opinión pública. El panóptico es una idea creada por el filósofo Jeremy Bentham al final del siglo XVIII. El concepto intenta explicar cómo se altera el comportamiento de una sociedad o un colectivo cuando se siente observado. Imaginaos que tuvieráis cámaras en vuestra casa. ¿Os comportaríais de la misma manera?

Los sistemas de control de producción en fábricas son bastante recientes. Se encargan de detectar ritmo de producción, piezas defectuosas, tiempos muertos, etc. Actualmente se habla de fábricas inteligentes, donde muchos brazos robóticos y sensores controlan la producción de toda la fábrica. Ya no hace falta un supervisor que vigile si un equipo de trabajadores se emplea a fondo o no. Basta con sensores, y con aumentar el ritmo al que trabajan los robots y distintos automatismos, tal y como se refleja en la recomendable película Tiempos modernos

Me parece que la inteligencia artificial da un gran salto en esta vigilancia, ya que pone a disposición de los responsables una serie de herramientas y tratamiento de datos masivos muy avanzado. Ahora parece mucho más fácil detectar ineficiencias de trabajadores, o quién es el "manazas" que más piezas estropea, o dónde exactamente se pierde ritmo de producción. 

El panóptico de Bentham defendía que este tipo de vigilancia lleva a una especie de alienación de la gente, y es lo que habría que tener en cuenta para la incorporación de la IA a las fábricas. Creo que en lugar de emplear la información del tratamiento de datos para expulsar a los empleados, se puede usar e incentivar una formación más personalizada, y una adaptación de la disciplina de Prevención de Riesgos Laborales a este nuevo marco tecnológico.


3) Los hackeos sobre sistemas inteligentes
Este punto está relacionado con el primero de mi exposición. El aprendizaje máquina adverso (adversarial machine learning) es una rama de la ciberseguridad que estudia la alteración de señales para el engaño de sistemas inteligentes. Estas señales pueden ser imágenes, texto o audio, y la existencia de este fenómeno fue descubierto a finales de 2010. 

Actualmente, se conocen distintas técnicas de manipulación de imágenes que engañan a cámaras o sistemas inteligentes. Por ejemplo, que alguien con unas gafas de sol con lentes coloreadas no sea identificado, o la alteración pequeña de señales de tráfico para que el coche autónomo no reconozca o confunda la indicación de tráfico. Lo preocupante es que muchos de estos cambios visuales no son percibibles por el ojo humano. En este artículo se muestran algunas alteraciones que cambian totalmente la interpretación de las máquinas.


¿Qué os parecen estas amenazas? ¿Añadiríais alguna más?
Comparte:

3 comentarios:

  1. Hola Julián,

    Un post interesantísimo.

    Me fascina el desarrollo de la IA y me preocupa que no sepamos gestionar correctamente su relación con nosotros. He visto conferencias de Helena Matute y he leído artículos y parece que ya está aquí aunque no seamos muy conscientes de ello.
    Tus amenazas me han parecido muy posibles.
    En el terreno militar, en el que también se emplean robots, no sé si se podrían hackear por "el contrario" para que hiciesen daño al propio ejército.
    En realidad, mi ignorancia en el tema hace que me surjan muchas preguntas que derivan de una sola: ¿hasta dónde podrán llegar los robots en cuanto a "inteligencia" y autonomía?
    Gracias por este post.
    Un beso

    ResponderEliminar
  2. Hola, Laura! Gracias por el comentario!

    No hay ninguna restricción para que un robot se pueda volver en contra de un ejército, como de cualquiera. Por eso abogo por hacer multitud de pruebas de estrés, como a los aviones, para comprobar bajo un montón de posibilidades cómo se comportarían.

    Estamos muy lejos de tener I, robot. A eso se le llama la Artificial General Intelligence (AGI), y queda muucho. Ahora mismo, la IA vive de las rentas de los algoritmos que se desarrollaron en los 80. Lo que se ve ahora son pequeñas modificaciones sobre esos algoritmos.

    Para desarrollar o entender una AGI nos hace falta mucha más ciencia básica. No tenemos un modelo matemático sobre el cerebro, lo cual tampoco ayuda en esta dirección.

    En cuanto se alcance la AGI, sí que los robots podrían superarnos en inteligencia. En el momento actual, hacen mejores que nosotros tareas muy repetitivas:
    - búsqueda de patrones
    - identificación de señales
    - etc

    Espero haberte aclarado un poco :-). Saludos

    ResponderEliminar
  3. Me lo has aclarado muchísimo.
    Muchas gracias Julián,
    Besos

    ResponderEliminar

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons