/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

23/4/23

Automatización y empleos: cuando la tecnología aumenta el empleo

Hace unos días me encontré un interesante artículo sobre tecnología y empleo. No quería dejar pasar un tema tan candente en unos días de pánico tecnológico, gracias a ChatGPT, StableDiffussion y todo lo que vendrá. El artículo se titula Automation and Jobs: When Technology Boosts Employment, que en una traducción libre, se puede entender como "Cuando la automatización y la tecnología fomentan la creación de empleo".

Es de 2019, pero aunque no sea tan reciente, lo bueno de este trabajo de investigación es que realiza un análisis de otros artículos sobre la temática. Un total de datos compilados en los sectores económicos más importantes, a lo largo de los últimos 200 años.

Cuando los ordenadores aparecieron, seguidos de las hojas de cálculo, los contables temieron por sus empleos. Pero pasó lo siguiente:


¡¿Cómo?! ¿Que un empleo tan mecánico como la contabilidad ha duplicado el número de personas dedicadas a ella?

Esto pasó sin embargo a los empleos de la agricultura:



Que se reduzcan drásticamente los empleos en este sector no resulta nuevo. Pero pongámoslo más difícil y comparemos ahora la evolución de empleo de tres sectores industriales: el del algodón, el del hierro y el de la fabricación de coches.


Como se puede ver, en los últimos dos siglos, en el caso de los tres sectores ocurrió un primer impulso de crear más empleo. Sin embargo, en el siguiente siglo en el caso del algodón y la industria metalúrgica, las personas empleadas bajaron casi lo mismo, mientras que en automoción, el número de trabajadores se mantuvo bastante estable. ¿Cómo podemos explicar esto? La respuesta la tenemos que buscar en la productividad de estos sectores:

Tal y como se pueden ver en las gráficas, la productividad sube constantemente. Al principio, esa mejora de productividad era buena para el empleo, pero llegó un momento en que ya no era el caso. La productividad siguió aumentando, pero a partir de ese momento se comió los empleos en vez de aumentarlos. ¿Por qué?

Pongámonos en una de esas situaciones, por ejemplo con el textil. En el comienzo, la ropa tenía un precio prohibitivo, y no podíamos comprar la que necesitábamos. Sin embargo, cuando llega la automatización y las fábricas, la productividad aumenta drásticamente y se fabrican muchas más prendas por parte de todos los fabricantes. Lógicamente, bajan los precios por la competencia. Al bajar los precios, el público se puede permitir comprar ropa que antes era prohibitiva, y se gasta incluso más que antes en ropa.

Es decir, antes de la automatización, quizás los consumidores se compraban la ropa justa, necesaria y aún menos. Imaginemos que la prenda valía 1.000€. Si la prenda se reduce a 100€, cada persona se animará a comprar más ropa, incluso para cada miembro de la familia. ¿Y si luego baja a €10 la prenda? Ya casi ni miras el precio y compras todo lo que necesitas para no pasar frío. No importa que baje a €1 la prenda. Ya tienes toda la ropa que necesitas. Ahora no vas a por más volumen, sino a por más diferenciación, más calidad. La demanda se satura.

Aquí está la demanda (en escala logarítmica) para las mismas tres industrias:


Resumiendo, cuando la gente tiene todo lo que necesita, se centra en otras prioridades, pero la productividad sigue subiendo, y por eso, se eliminan más y más tareas humanas, y con ello, más puestos de trabajo.

¿Y entonces cómo explicamos el caso de los contables mencionado al principio de este artículo? Para ello, recojo las palabras de Tomás Pueyo, en su entrada del blog Suma Positiva:

"Había mucha más demanda escondida (latente) de contabilidad de la que se podía permitir la gente. ¡La contabilidad es muy útil! Cuanta más contabilidad pueden las empresas tener, más quieren para entender mejor la empresa, comunicar mejor sus cuentas, optimizar sus gastos… Así que la automatización ha eliminado tareas aburridas para los contables, pero ahora hacen tareas más interesantes y útiles que no se han podido automatizar aún. Sacan aún más valor por hora trabajada que antes, y los clientes lo pagan. Más empleo."

Al menos hasta ahora

.



Comparte:

13/4/23

El momento en que las oraciones a dioses se convirtieron en conversaciones

A lo largo de su vida, a Joseph Weizenbaum le gustaba contar la historia de un programa informático que había creado en los años sesenta como profesor del MIT. Se trataba de un sencillo chatbot llamado ELIZA que podía interactuar con los usuarios en una conversación escrita. Cuando consiguió que la gente lo probara, Weizenbaum observó reacciones similares una y otra vez: la gente se quedaba embelesada con el programa. Le revelaban detalles muy íntimos de su vida. Era como si hubieran estado esperando a que alguien (o algo) les preguntara.

ELIZA era un sencillo programa informático. Buscaba la palabra clave en el enunciado del usuario y se la devolvía en forma de frase o pregunta. Cuando eso fallaba, recurría a una serie de indicaciones genéricas como "por favor, continúe" o "dígame más".  Weizenbaum había programado a ELIZA para que interactuara al estilo de un psicoterapeuta, y era bastante convincente; daba la ilusión de empatía a pesar de tratarse de un simple código. La gente mantenía largas conversaciones con el robot que parecían sesiones de terapia. Y ya se demostró en la reciente pandemia.


ELIZA fue uno de los primeros programas informáticos capaces de simular de forma convincente una conversación humana, lo que a Weizenbaum le pareció francamente inquietante. No esperaba que la gente se sintiera tan cautivada, ya que además lo había programado como una parodia de esta tecnología. Le preocupaba que los usuarios no comprendieran del todo que estaban hablando con un montón de circuitos y reflexionó sobre las implicaciones más amplias de las máquinas capaces de imitar con eficacia la sensación de comprensión humana.

Weizenbaum empezó a plantear estas grandes y difíciles cuestiones en un momento en que el campo de la inteligencia artificial era aún relativamente nuevo y estaba lleno de optimismo. Muchos investigadores soñaban con crear un mundo en el que los humanos y la tecnología se fusionaran de nuevas formas. Querían crear ordenadores que pudieran hablar con nosotros y responder a nuestras necesidades y deseos. Weizenbaum, mientras tanto, tomaría un camino diferente. Empezó a hablar en contra de la erosión de la frontera entre humanos y máquinas. Y acabaría separándose de la inteligencia artificial, convirtiéndose en uno de los primeros (y más ruidosos) críticos de la propia tecnología que ayudó a construir.

La gente lleva mucho tiempo fascinada con los dispositivos mecánicos que imitan a los humanos. Los antiguos egipcios construían estatuas de divinidades de madera y piedra y las consultaban para pedirles consejo. Los primeros budistas describieron "personas de metales preciosos" que recitaban textos sagrados. Los antiguos griegos contaban historias sobre Hefesto, el dios de la herrería, y su amor por los robots artesanos. Pero no fue hasta las décadas de 1940 y 1950 cuando los ordenadores modernos empezaron a acercar estas fantasías a la realidad. A medida que los ordenadores se hacían más potentes y se generalizaban, la gente empezó a ver el potencial de las máquinas inteligentes.

Weizenbaum llevaba tiempo interesado en la psicología y reconoció que los patrones de habla de un terapeuta podrían ser fáciles de automatizar. Sin embargo, los resultados le inquietaron. La gente parecía mantener conversaciones significativas con algo que él nunca había pensado que fuera una herramienta terapéutica real. Para otros, en cambio, parecía abrir todo un mundo de posibilidades.


Antes de llegar al MIT, Weizenbaum había pasado un tiempo en Stanford, donde se hizo amigo de un psiquiatra llamado Dr. Kenneth Colby. Colby había trabajado en un gran hospital psiquiátrico estatal donde los pacientes tenían la suerte de ver a un terapeuta una vez al mes. Vio potencial en ELIZA y empezó a promover la idea de que el programa podría ser realmente útil desde el punto de vista terapéutico. La comunidad médica empezó a prestar atención. Pensaron que quizá este programa -y otros similares- podría ayudar a ampliar el acceso a la atención sanitaria mental. E incluso podría tener ventajas sobre un terapeuta humano. Sería más barato y la gente podría hablar más libremente con un robot. Científicos con visión de futuro como Carl Sagan, escribieron sobre la idea, en su caso imaginando una red de terminales informáticos psicoterapéuticos en las ciudades.

Y aunque la idea de terminales terapéuticos en cada esquina nunca se materializó, la gente que trabajaba en salud mental seguiría experimentando con la forma de utilizar los ordenadores en su trabajo. Colby llegó a crear un chatbot llamado PARRY, que simulaba el estilo de conversación de una persona con esquizofrenia paranoide. Más tarde desarrolló un programa interactivo llamado "Superar la depresión".

Weizenbaum, por su parte, se apartó de las implicaciones expansivas de su propio proyecto. Se opuso a la idea de que algo tan sutil, íntimo y humano como la terapia pudiera reducirse a código. Empezó a argumentar que los campos que requieren compasión y comprensión humanas no deberían automatizarse. Y también le preocupaba el mismo futuro que había descrito Alan Turing: un futuro en el que los chatbots engañaran a la gente haciéndoles creer que eran humanos. Weizenbaum acabaría escribiendo sobre ELIZA: "De lo que no me había dado cuenta es de que exposiciones extremadamente breves a un programa informático relativamente sencillo podían inducir poderosos pensamientos delirantes en personas bastante normales."

Weizenbaum pasó de ser alguien que trabajaba en el corazón de la comunidad de IA en el MIT a alguien que predicaba contra ella. Donde algunos veían potencial terapéutico, él veía una peligrosa ilusión de compasión que podría ser doblegada y retorcida por gobiernos y corporaciones.

Joseph Weizenbaum acabó retirándose del MIT, pero siguió denunciando los peligros de la IA hasta que murió en 2008 a los 85 años. Y aunque fue un importante pensador humanista, algunas personas consideraron que fue demasiado lejos.

Comparte:

3/4/23

El principio de Brandolini, y tonterías las justas

Tal vez el principio más importante en los estudios de mierda es el principio de Brandolini. Acuñado por el ingeniero de software italiano Alberto Brandolini en 2014, dice:

La cantidad de energía necesaria para refutar tonterías es un orden de magnitud mayor que la necesaria para producirla.

Producir estupideces es mucho menos trabajo que limpiarlo. También es mucho más simple y barato  deshacer. Unos años antes de que Brandolini formulara su principio, el bloguero italiano Uriel Fanelli ya había señalado que, traducido libremente, “un idiota puede crear más tonterías de las que podrías esperar refutar”.

El teórico de la conspiración y personalidad de la radio Alex Jones no necesita ser un genio malvado para difundir tonterías venenosas como Sandy Hook y las historias de Pizzagate; podría ser un idiota malvado, o incluso un descarriado.

Para Luc Steels, uno de los mayores problemas son la cantidad de historias que hay sobre la Inteligencia Artificial y el poco control sobre la veracidad de las mismas. Esto está produciendo mucha confusión en la población, y lo que es peor, también producen miedo y rechazo. Y mucho más ahora, con todo el aluvión de noticias sobre GPT-4 y demás.


Frankenstein, el ciber-utopismo de Kurzweil, que habla de que la Singularidad llegará pronto, o la super-inteligencia de Nick Bostrom, son algunos ejemplos que se sacan a colación a menudo para defender que la IA acabará con nosotros. Sin embargo, Luc Steel y otros muchos científicos, culpan en parte a los medios de comunicación de la tergiversación de la información que va desde la fuente hasta el titular del periódico. Y a cuenta de las noticias de estos días, me he acordado de un par de ellos que quizás los lectores recuerden:

Fast Company publicó en 2017 un artículo titulado “IA está inventando lenguajes que los humanos no pueden entender. ¿Deberíamos detenerlo?Suena aterrador, ¿verdad? La historia describía un proyecto de investigación de Facebook que salió mal. Mientras intentaban construir un programa para enseñar a sus bots a negociar, los investigadores intentaron que los algoritmos informáticos se entrenaran unos a otros para hablar. Pero el habla que desarrollaron los algoritmos no se parecía en nada al lenguaje humano. Varios medios informaron que los investigadores cerraron rápidamente el proyecto.

Entonces, ¿cómo se veía este lenguaje de robot? Echemos un vistazo a algunos fragmentos de la conversación del chatbot:

BOB EL BOT: “Puedo, puedo, todo lo demás”.
ALICIA EL BOT: "Las bolas tienen cero para mí para mí para mí para mí para mí para mí para mí para".
BETO: “Tú, yo todo lo demás”.
ALICIA: “Las pelotas tienen una pelota para mí, para mí, para mí, para mí, para mí, para mí, para mí”.

Podría ser que la IA realmente desarrolle su propio lenguaje y se vuelva consciente de sí misma. Si lo hace, esperamos que lo haga en paz y armonía con los humanos. Pero este chatbot de Facebook no se dirigía por ese camino en particular. La publicación de blog original del equipo de Facebook simplemente describía un proyecto de investigación en el que el lenguaje del chatbot evolucionó a la repetición de oraciones sin sentido. La prensa popular los distorsionó en historias dramáticas sobre investigadores sorprendidos que luchaban por cerrar el proyecto y salvar a la raza humana.

Pero cuando los reporteros de Snopes les preguntaron sobre la historia, los investigadores comentaron que no se habían preocupado. Fue la respuesta de los medios lo que los sorprendió. “No hubo pánico”, dijo un investigador, “y el proyecto no se cerró”. No temían por la humanidad. Y quizás los desarrolladores de GPT4 sigan sin hacerlo ahora mismo.


Comparte:

1/4/23

El dilema del prisionero y GPTx

No es habitual que yo escriba dos entradas en el blog tan seguidas, pero tampoco parece normal las noticias en las últimas dos semanas sobre las últimas novedades de inteligencia artificial.

Cada vez más alumnos, familiares y allegados varios me preguntan si debemos preocuparnos por lo que está ocurriendo, o hacia dónde nos dirigimos. Y más confundidos nos dejó a todos la noticia de que el Institute Future Of Life ha publicado una carta abierta en la que han firmado ya más de 1.700 (en el momento de escribir estas líneas) pidiendo que se paren los grandes experimentos sobre IA durante seis meses, y dé tiempo a reflexionar, asegurarnos de que las IA son transparentes, éticas y fiables. Incluso Elon Musk pidió que firmásemos esa carta, y aunque yo no me fíe mucho de este personaje, sí que me he encontrado en Twitter a gente a la que respeto confesar que la han firmado.

Tal y como explican muchos científicos, como Gary Marcus, no se trata de prevenir el Skynet ni el Terminator, sino que los cambios en la sociedad y en la economía sean demasiado rápidos para adaptarse a ellos y que los software sean seguros.

A mis alumnos les suelo insistir en que últimamente el estamento más importante de las empresas no es ni el cliente, ni el trabajador, ni la sociedad. Sino el accionista. Así que en ese afán (legítimo) de ganar dinero, auguro poco porvenir a la carta abierta de los científicos. Podemos optar por frenar la robotización y GPTx-zación de la sociedad para evitar peligros éticos y destrucción de empleo. Pero yo no estoy tan seguro de que no robotizar no sea más peligroso.


Y también me da qué pensar otras utopías: ¿queda claro ya que si no existe el coche autónomo, es porque no lo han desarrollado todavía? Unas cuantas empresas han puesto todo su potencial en desarrollar modelos de lenguaje, y han generado DALLe, GPTx, Midjourney...

Y otras tantas empresas han puesto muchísimos millones en desarrollar el coche autónomo, y aún no lo tenemos. ¿Qué pasaría si al auge de GPT-4, mañana nos cuentan que Google ha recorrido 10 millones de km de manera autónoma por San Francisco sin problema?

Recuerdo que cuando yo era un poco más joven, la rumorología popular de que "ya existía el sustituto del petróleo", era un clamor, y "que no se comercializaba porque no interesaba".

Espero que estas carreras tecnológicas tipo GPTx hayan dejado claro que no es así.

Vivimos en un tiempo donde todo se acaba, se agota y ya hace tiempo que se decretó la muerte del futuro y la idea de progreso. Nos hemos sentido tan manipulados por la histeria del fin del mundo tecnológico durante tanto tiempo, que no somos capaces de organizarnos.

Estamos ante una disyuntiva. La humanidad necesita acelerar su adaptación a estas tecnologías o se debe tomar una decisión colectiva para frenar el desarrollo de estas tecnologías. Y quizás, incluso haciendo ambas cosas, no sea suficiente. Pero esta decisión es tan antigua como el dilema del prisionero. ¿Quién nos asegura que si hacemos caso a Elon Musk y paramos, no sea él el que aproveche esos 6 meses para acelerar su investigación y ponerse al día?


Os recomiendo este fin de semana intentar desconectaros un poco de toda esta histeria, coger un buen libro (en mi caso, voy a probar con Ideas que pegan, de los hermanos Chip), y disfrutar junto a vuestros seres queridos analógicos.


Comparte:

30/3/23

En Dios confíamos. Todos los demás deben traer referencias (incluídos GPT-4 y hermanos)

Dicen que la el motor de vapor, el invento por antonomasia en la Revolución Industrial, aumentó la productividad de la economía en un 20%. Yo no sé medir la productividad, ni tengo claro que los expertos, cuando hablan de ella, sepan de lo que hablan. Y tampoco sé ya qué incremento de la productividad habrán prometido sobre GPT-4.

Creo que estamos más centrados en detectar los fallos que realiza GPT-4 que en entender bien la que se nos viene encima. Microsoft ha comenzado a incluir inteligencia artificial en todo su arsenal de herramientas Office, Bing, y esto parece que será solo el principio. Parece que en cualquier interfaz en la que se pueda introducir texto, nos van a meter algún tipo de asistente de conversación.

GPT-4 hace cosas increíbles, sí.

Es capaz
de desarrollar una app para iPhone en minutos, y colgártela en su repositorio online.
Es capaz de responder a enunciados de problemas matemáticos de la asignatura que imparto en la universidad, aunque lo resuelva mal. O quizás el que lo haga mal sea yo. Ya no estoy seguro.
Es capaz de responder sobre ideologías políticas y razonar sobre supuestos hipotéticos mejor que cualquier persona que conozcáis, probablemente.
Es capaz de hacerlo también sobre Dios, y probablemente, si conocíais a alguien capaz de hablar de una manera tan fluida sobre anarquismo, deberíais borrarla de saber hacerlo sobre Dios.
Es capaz de escribir libros, y lo está haciendo a destajo y vendiéndolos en Amazon.
Es capaz de aprobar exámenes con fama de ser dificilísimos.
Es capaz (o eso dicen) de sustituir en sus puestos de trabajo a nosécuántosporiciento de las personas de EEUU.



El infierno es, sobre todo, aquello que perdiste inevitablemente, aquello contra lo que nada pudiste hacer. Un tal Rawl decía que la desigualdad puede justificarse si todos en la sociedad se benefician de ella.

Quizás GPT-4 se convierta en una especie de calculadora moderna, ¿por qué no? La calculadora no sirve para hacer exámenes, pero permite que no tengamos que realizar las operaciones de cálculo a mano. Ahorra muchísimo tiempo, pero hay que saber manejarla. ¿Será la profesión del futuro la de ingeniero especialista en hablar con inteligencias artificiales?

Por cierto:
A pesar de que GPT-4 escriba libros y artículos, no parece que haya nadie particularmente interesado en leerlos.
A pesar de que apruebe exámenes dificílisimos, ChatGPT, GPT-4 está entrenado con lo que había en internet, no sé sabe muy bien con qué, pero es muy probable que haya sido entrenado con las respuestas de esos exámenes.
A pesar de que parezca perfecto, estas herramientas aún se inventan muchas respuestas.
A pesar de que eliminen tareas laborales, bienvenido sean, quizás estemos más cerca de no regular nuestra sociedad según el trabajo.

GPT y todos sus hermanos es una tecnología increíble. Quizás haya venido a cambiar las cosas, o quizás no. La sobreinformación no ayuda a tranquilizar los ánimos, y a percibir las nuevas noticias como peligros y no como oportunidades. Dependerá en parte de nosotros.


Estamos ante una disyuntiva
. La humanidad necesita acelerar su adaptación a estas tecnologías o se debe tomar una decisión colectiva para frenar el desarrollo de estas tecnologías.

Vivimos en un tiempo donde todo se acaba, se agota y ya hace tiempo que se decretó la muerte del futuro y la idea de progreso (Marina Garcés).


Comparte:

23/3/23

Reseña de Cleverlands, de Lucy Crehan. Un repaso a los mejores sistemas nacionales educativos

 Mientras le preparaban la cicuta, Sócrates aprendió una aria para flauta
- ¿De qué servirá? - le preguntaron
Así la sabré antes de morir
El conocimiento es el fin en sí mismo.
(Italo Calvino, Por qué leer los clásicos)


Uno de los últimos libros que ha llegado a mis manos ha sido Cleverlands, de Lucy Crehan, un ensayo descriptivo muy interesante sobre los mejores modelos educativos del mundo. La autora es una consultora experta en educación, y dedica varios años a vivir, entrevistar y experimentar los sistemas educativos que más éxito están teniendo en los últimos años, sobre todo según los resultados de los exámenes PISA. Estos sistemas son el finlandés, coreano, japonés, chino, canadiense, singapureño...


Como persona que vive profesionalmente de la docencia, el libro me ha encantado, se lee muy fácil, y el libro está estructurado en capítulos cortos en los que se utilizan uno o dos capítulos para describir el modelo de cada país, y destacar algunas características que le han llamado la atención. La autora también da algún palo a los tests PISA y a la predominancia que han conseguido como vara de medir. Quizás también nos debiera de hacer pensar.

No voy a destripar aquí el libro, y a cualquier persona interesada en la enseñanza, le recomiendo que se lea el libro. Me ha llamado mucho la atención la postura de los padres de los alumnos en Japón, la autonomía que tienen los profesores en Finlandia, que en China algo así como el equivalente a nuestra Selectividad es primordial para encontrar una buena pareja...


Hace tiempo que me convencí de que copiar sistemas entre países es algo harto difícil, ya que cada uno tiene su idiosincrasia, su cultura, y sus presiones político-sociales. En algo tan complejo y vital como los conocimientos y valores que recibirán nuestros alumnos en los centros educativos, no podemos conformarnos con que sean las leyes las únicas que cambien. También tendremos que cambiar nosotros.

Eso sí, el libro también destaca ciertas desventajas o aspectos negativos de algunos de estos sistemas tan brillantes. Innovar en educación NO es fácil.

Por el ritmo con el que está escrito, por lo que me ha enseñado, y por lo ameno que es, Cleverlands merece 5 estrellas sin duda.

Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons