Inteligencia artificial, robótica, historia y algo más.

23/4/23

Automatización y empleos: cuando la tecnología aumenta el empleo

Hace unos días me encontré un interesante artículo sobre tecnología y empleo. No quería dejar pasar un tema tan candente en unos días de pánico tecnológico, gracias a ChatGPT, StableDiffussion y todo lo que vendrá. El artículo se titula Automation and Jobs: When Technology Boosts Employment, que en una traducción libre, se puede entender como "Cuando la automatización y la tecnología fomentan la creación de empleo".

Es de 2019, pero aunque no sea tan reciente, lo bueno de este trabajo de investigación es que realiza un análisis de otros artículos sobre la temática. Un total de datos compilados en los sectores económicos más importantes, a lo largo de los últimos 200 años.

Cuando los ordenadores aparecieron, seguidos de las hojas de cálculo, los contables temieron por sus empleos. Pero pasó lo siguiente:


¡¿Cómo?! ¿Que un empleo tan mecánico como la contabilidad ha duplicado el número de personas dedicadas a ella?

Esto pasó sin embargo a los empleos de la agricultura:



Que se reduzcan drásticamente los empleos en este sector no resulta nuevo. Pero pongámoslo más difícil y comparemos ahora la evolución de empleo de tres sectores industriales: el del algodón, el del hierro y el de la fabricación de coches.


Como se puede ver, en los últimos dos siglos, en el caso de los tres sectores ocurrió un primer impulso de crear más empleo. Sin embargo, en el siguiente siglo en el caso del algodón y la industria metalúrgica, las personas empleadas bajaron casi lo mismo, mientras que en automoción, el número de trabajadores se mantuvo bastante estable. ¿Cómo podemos explicar esto? La respuesta la tenemos que buscar en la productividad de estos sectores:

Tal y como se pueden ver en las gráficas, la productividad sube constantemente. Al principio, esa mejora de productividad era buena para el empleo, pero llegó un momento en que ya no era el caso. La productividad siguió aumentando, pero a partir de ese momento se comió los empleos en vez de aumentarlos. ¿Por qué?

Pongámonos en una de esas situaciones, por ejemplo con el textil. En el comienzo, la ropa tenía un precio prohibitivo, y no podíamos comprar la que necesitábamos. Sin embargo, cuando llega la automatización y las fábricas, la productividad aumenta drásticamente y se fabrican muchas más prendas por parte de todos los fabricantes. Lógicamente, bajan los precios por la competencia. Al bajar los precios, el público se puede permitir comprar ropa que antes era prohibitiva, y se gasta incluso más que antes en ropa.

Es decir, antes de la automatización, quizás los consumidores se compraban la ropa justa, necesaria y aún menos. Imaginemos que la prenda valía 1.000€. Si la prenda se reduce a 100€, cada persona se animará a comprar más ropa, incluso para cada miembro de la familia. ¿Y si luego baja a €10 la prenda? Ya casi ni miras el precio y compras todo lo que necesitas para no pasar frío. No importa que baje a €1 la prenda. Ya tienes toda la ropa que necesitas. Ahora no vas a por más volumen, sino a por más diferenciación, más calidad. La demanda se satura.

Aquí está la demanda (en escala logarítmica) para las mismas tres industrias:


Resumiendo, cuando la gente tiene todo lo que necesita, se centra en otras prioridades, pero la productividad sigue subiendo, y por eso, se eliminan más y más tareas humanas, y con ello, más puestos de trabajo.

¿Y entonces cómo explicamos el caso de los contables mencionado al principio de este artículo? Para ello, recojo las palabras de Tomás Pueyo, en su entrada del blog Suma Positiva:

"Había mucha más demanda escondida (latente) de contabilidad de la que se podía permitir la gente. ¡La contabilidad es muy útil! Cuanta más contabilidad pueden las empresas tener, más quieren para entender mejor la empresa, comunicar mejor sus cuentas, optimizar sus gastos… Así que la automatización ha eliminado tareas aburridas para los contables, pero ahora hacen tareas más interesantes y útiles que no se han podido automatizar aún. Sacan aún más valor por hora trabajada que antes, y los clientes lo pagan. Más empleo."

Al menos hasta ahora

.



Comparte:

13/4/23

El momento en que las oraciones a dioses se convirtieron en conversaciones

A lo largo de su vida, a Joseph Weizenbaum le gustaba contar la historia de un programa informático que había creado en los años sesenta como profesor del MIT. Se trataba de un sencillo chatbot llamado ELIZA que podía interactuar con los usuarios en una conversación escrita. Cuando consiguió que la gente lo probara, Weizenbaum observó reacciones similares una y otra vez: la gente se quedaba embelesada con el programa. Le revelaban detalles muy íntimos de su vida. Era como si hubieran estado esperando a que alguien (o algo) les preguntara.

ELIZA era un sencillo programa informático. Buscaba la palabra clave en el enunciado del usuario y se la devolvía en forma de frase o pregunta. Cuando eso fallaba, recurría a una serie de indicaciones genéricas como "por favor, continúe" o "dígame más".  Weizenbaum había programado a ELIZA para que interactuara al estilo de un psicoterapeuta, y era bastante convincente; daba la ilusión de empatía a pesar de tratarse de un simple código. La gente mantenía largas conversaciones con el robot que parecían sesiones de terapia. Y ya se demostró en la reciente pandemia.


ELIZA fue uno de los primeros programas informáticos capaces de simular de forma convincente una conversación humana, lo que a Weizenbaum le pareció francamente inquietante. No esperaba que la gente se sintiera tan cautivada, ya que además lo había programado como una parodia de esta tecnología. Le preocupaba que los usuarios no comprendieran del todo que estaban hablando con un montón de circuitos y reflexionó sobre las implicaciones más amplias de las máquinas capaces de imitar con eficacia la sensación de comprensión humana.

Weizenbaum empezó a plantear estas grandes y difíciles cuestiones en un momento en que el campo de la inteligencia artificial era aún relativamente nuevo y estaba lleno de optimismo. Muchos investigadores soñaban con crear un mundo en el que los humanos y la tecnología se fusionaran de nuevas formas. Querían crear ordenadores que pudieran hablar con nosotros y responder a nuestras necesidades y deseos. Weizenbaum, mientras tanto, tomaría un camino diferente. Empezó a hablar en contra de la erosión de la frontera entre humanos y máquinas. Y acabaría separándose de la inteligencia artificial, convirtiéndose en uno de los primeros (y más ruidosos) críticos de la propia tecnología que ayudó a construir.

La gente lleva mucho tiempo fascinada con los dispositivos mecánicos que imitan a los humanos. Los antiguos egipcios construían estatuas de divinidades de madera y piedra y las consultaban para pedirles consejo. Los primeros budistas describieron "personas de metales preciosos" que recitaban textos sagrados. Los antiguos griegos contaban historias sobre Hefesto, el dios de la herrería, y su amor por los robots artesanos. Pero no fue hasta las décadas de 1940 y 1950 cuando los ordenadores modernos empezaron a acercar estas fantasías a la realidad. A medida que los ordenadores se hacían más potentes y se generalizaban, la gente empezó a ver el potencial de las máquinas inteligentes.

Weizenbaum llevaba tiempo interesado en la psicología y reconoció que los patrones de habla de un terapeuta podrían ser fáciles de automatizar. Sin embargo, los resultados le inquietaron. La gente parecía mantener conversaciones significativas con algo que él nunca había pensado que fuera una herramienta terapéutica real. Para otros, en cambio, parecía abrir todo un mundo de posibilidades.


Antes de llegar al MIT, Weizenbaum había pasado un tiempo en Stanford, donde se hizo amigo de un psiquiatra llamado Dr. Kenneth Colby. Colby había trabajado en un gran hospital psiquiátrico estatal donde los pacientes tenían la suerte de ver a un terapeuta una vez al mes. Vio potencial en ELIZA y empezó a promover la idea de que el programa podría ser realmente útil desde el punto de vista terapéutico. La comunidad médica empezó a prestar atención. Pensaron que quizá este programa -y otros similares- podría ayudar a ampliar el acceso a la atención sanitaria mental. E incluso podría tener ventajas sobre un terapeuta humano. Sería más barato y la gente podría hablar más libremente con un robot. Científicos con visión de futuro como Carl Sagan, escribieron sobre la idea, en su caso imaginando una red de terminales informáticos psicoterapéuticos en las ciudades.

Y aunque la idea de terminales terapéuticos en cada esquina nunca se materializó, la gente que trabajaba en salud mental seguiría experimentando con la forma de utilizar los ordenadores en su trabajo. Colby llegó a crear un chatbot llamado PARRY, que simulaba el estilo de conversación de una persona con esquizofrenia paranoide. Más tarde desarrolló un programa interactivo llamado "Superar la depresión".

Weizenbaum, por su parte, se apartó de las implicaciones expansivas de su propio proyecto. Se opuso a la idea de que algo tan sutil, íntimo y humano como la terapia pudiera reducirse a código. Empezó a argumentar que los campos que requieren compasión y comprensión humanas no deberían automatizarse. Y también le preocupaba el mismo futuro que había descrito Alan Turing: un futuro en el que los chatbots engañaran a la gente haciéndoles creer que eran humanos. Weizenbaum acabaría escribiendo sobre ELIZA: "De lo que no me había dado cuenta es de que exposiciones extremadamente breves a un programa informático relativamente sencillo podían inducir poderosos pensamientos delirantes en personas bastante normales."

Weizenbaum pasó de ser alguien que trabajaba en el corazón de la comunidad de IA en el MIT a alguien que predicaba contra ella. Donde algunos veían potencial terapéutico, él veía una peligrosa ilusión de compasión que podría ser doblegada y retorcida por gobiernos y corporaciones.

Joseph Weizenbaum acabó retirándose del MIT, pero siguió denunciando los peligros de la IA hasta que murió en 2008 a los 85 años. Y aunque fue un importante pensador humanista, algunas personas consideraron que fue demasiado lejos.

Comparte:

3/4/23

El principio de Brandolini, y tonterías las justas

Tal vez el principio más importante en los estudios de mierda es el principio de Brandolini. Acuñado por el ingeniero de software italiano Alberto Brandolini en 2014, dice:

La cantidad de energía necesaria para refutar tonterías es un orden de magnitud mayor que la necesaria para producirla.

Producir estupideces es mucho menos trabajo que limpiarlo. También es mucho más simple y barato  deshacer. Unos años antes de que Brandolini formulara su principio, el bloguero italiano Uriel Fanelli ya había señalado que, traducido libremente, “un idiota puede crear más tonterías de las que podrías esperar refutar”.

El teórico de la conspiración y personalidad de la radio Alex Jones no necesita ser un genio malvado para difundir tonterías venenosas como Sandy Hook y las historias de Pizzagate; podría ser un idiota malvado, o incluso un descarriado.

Para Luc Steels, uno de los mayores problemas son la cantidad de historias que hay sobre la Inteligencia Artificial y el poco control sobre la veracidad de las mismas. Esto está produciendo mucha confusión en la población, y lo que es peor, también producen miedo y rechazo. Y mucho más ahora, con todo el aluvión de noticias sobre GPT-4 y demás.


Frankenstein, el ciber-utopismo de Kurzweil, que habla de que la Singularidad llegará pronto, o la super-inteligencia de Nick Bostrom, son algunos ejemplos que se sacan a colación a menudo para defender que la IA acabará con nosotros. Sin embargo, Luc Steel y otros muchos científicos, culpan en parte a los medios de comunicación de la tergiversación de la información que va desde la fuente hasta el titular del periódico. Y a cuenta de las noticias de estos días, me he acordado de un par de ellos que quizás los lectores recuerden:

Fast Company publicó en 2017 un artículo titulado “IA está inventando lenguajes que los humanos no pueden entender. ¿Deberíamos detenerlo?Suena aterrador, ¿verdad? La historia describía un proyecto de investigación de Facebook que salió mal. Mientras intentaban construir un programa para enseñar a sus bots a negociar, los investigadores intentaron que los algoritmos informáticos se entrenaran unos a otros para hablar. Pero el habla que desarrollaron los algoritmos no se parecía en nada al lenguaje humano. Varios medios informaron que los investigadores cerraron rápidamente el proyecto.

Entonces, ¿cómo se veía este lenguaje de robot? Echemos un vistazo a algunos fragmentos de la conversación del chatbot:

BOB EL BOT: “Puedo, puedo, todo lo demás”.
ALICIA EL BOT: "Las bolas tienen cero para mí para mí para mí para mí para mí para mí para mí para".
BETO: “Tú, yo todo lo demás”.
ALICIA: “Las pelotas tienen una pelota para mí, para mí, para mí, para mí, para mí, para mí, para mí”.

Podría ser que la IA realmente desarrolle su propio lenguaje y se vuelva consciente de sí misma. Si lo hace, esperamos que lo haga en paz y armonía con los humanos. Pero este chatbot de Facebook no se dirigía por ese camino en particular. La publicación de blog original del equipo de Facebook simplemente describía un proyecto de investigación en el que el lenguaje del chatbot evolucionó a la repetición de oraciones sin sentido. La prensa popular los distorsionó en historias dramáticas sobre investigadores sorprendidos que luchaban por cerrar el proyecto y salvar a la raza humana.

Pero cuando los reporteros de Snopes les preguntaron sobre la historia, los investigadores comentaron que no se habían preocupado. Fue la respuesta de los medios lo que los sorprendió. “No hubo pánico”, dijo un investigador, “y el proyecto no se cerró”. No temían por la humanidad. Y quizás los desarrolladores de GPT4 sigan sin hacerlo ahora mismo.


Comparte:

1/4/23

El dilema del prisionero y GPTx

No es habitual que yo escriba dos entradas en el blog tan seguidas, pero tampoco parece normal las noticias en las últimas dos semanas sobre las últimas novedades de inteligencia artificial.

Cada vez más alumnos, familiares y allegados varios me preguntan si debemos preocuparnos por lo que está ocurriendo, o hacia dónde nos dirigimos. Y más confundidos nos dejó a todos la noticia de que el Institute Future Of Life ha publicado una carta abierta en la que han firmado ya más de 1.700 (en el momento de escribir estas líneas) pidiendo que se paren los grandes experimentos sobre IA durante seis meses, y dé tiempo a reflexionar, asegurarnos de que las IA son transparentes, éticas y fiables. Incluso Elon Musk pidió que firmásemos esa carta, y aunque yo no me fíe mucho de este personaje, sí que me he encontrado en Twitter a gente a la que respeto confesar que la han firmado.

Tal y como explican muchos científicos, como Gary Marcus, no se trata de prevenir el Skynet ni el Terminator, sino que los cambios en la sociedad y en la economía sean demasiado rápidos para adaptarse a ellos y que los software sean seguros.

A mis alumnos les suelo insistir en que últimamente el estamento más importante de las empresas no es ni el cliente, ni el trabajador, ni la sociedad. Sino el accionista. Así que en ese afán (legítimo) de ganar dinero, auguro poco porvenir a la carta abierta de los científicos. Podemos optar por frenar la robotización y GPTx-zación de la sociedad para evitar peligros éticos y destrucción de empleo. Pero yo no estoy tan seguro de que no robotizar no sea más peligroso.


Y también me da qué pensar otras utopías: ¿queda claro ya que si no existe el coche autónomo, es porque no lo han desarrollado todavía? Unas cuantas empresas han puesto todo su potencial en desarrollar modelos de lenguaje, y han generado DALLe, GPTx, Midjourney...

Y otras tantas empresas han puesto muchísimos millones en desarrollar el coche autónomo, y aún no lo tenemos. ¿Qué pasaría si al auge de GPT-4, mañana nos cuentan que Google ha recorrido 10 millones de km de manera autónoma por San Francisco sin problema?

Recuerdo que cuando yo era un poco más joven, la rumorología popular de que "ya existía el sustituto del petróleo", era un clamor, y "que no se comercializaba porque no interesaba".

Espero que estas carreras tecnológicas tipo GPTx hayan dejado claro que no es así.

Vivimos en un tiempo donde todo se acaba, se agota y ya hace tiempo que se decretó la muerte del futuro y la idea de progreso. Nos hemos sentido tan manipulados por la histeria del fin del mundo tecnológico durante tanto tiempo, que no somos capaces de organizarnos.

Estamos ante una disyuntiva. La humanidad necesita acelerar su adaptación a estas tecnologías o se debe tomar una decisión colectiva para frenar el desarrollo de estas tecnologías. Y quizás, incluso haciendo ambas cosas, no sea suficiente. Pero esta decisión es tan antigua como el dilema del prisionero. ¿Quién nos asegura que si hacemos caso a Elon Musk y paramos, no sea él el que aproveche esos 6 meses para acelerar su investigación y ponerse al día?


Os recomiendo este fin de semana intentar desconectaros un poco de toda esta histeria, coger un buen libro (en mi caso, voy a probar con Ideas que pegan, de los hermanos Chip), y disfrutar junto a vuestros seres queridos analógicos.


Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons