Inteligencia artificial, robótica, historia y algo más.

13/4/23

El momento en que las oraciones a dioses se convirtieron en conversaciones

A lo largo de su vida, a Joseph Weizenbaum le gustaba contar la historia de un programa informático que había creado en los años sesenta como profesor del MIT. Se trataba de un sencillo chatbot llamado ELIZA que podía interactuar con los usuarios en una conversación escrita. Cuando consiguió que la gente lo probara, Weizenbaum observó reacciones similares una y otra vez: la gente se quedaba embelesada con el programa. Le revelaban detalles muy íntimos de su vida. Era como si hubieran estado esperando a que alguien (o algo) les preguntara.

ELIZA era un sencillo programa informático. Buscaba la palabra clave en el enunciado del usuario y se la devolvía en forma de frase o pregunta. Cuando eso fallaba, recurría a una serie de indicaciones genéricas como "por favor, continúe" o "dígame más".  Weizenbaum había programado a ELIZA para que interactuara al estilo de un psicoterapeuta, y era bastante convincente; daba la ilusión de empatía a pesar de tratarse de un simple código. La gente mantenía largas conversaciones con el robot que parecían sesiones de terapia. Y ya se demostró en la reciente pandemia.


ELIZA fue uno de los primeros programas informáticos capaces de simular de forma convincente una conversación humana, lo que a Weizenbaum le pareció francamente inquietante. No esperaba que la gente se sintiera tan cautivada, ya que además lo había programado como una parodia de esta tecnología. Le preocupaba que los usuarios no comprendieran del todo que estaban hablando con un montón de circuitos y reflexionó sobre las implicaciones más amplias de las máquinas capaces de imitar con eficacia la sensación de comprensión humana.

Weizenbaum empezó a plantear estas grandes y difíciles cuestiones en un momento en que el campo de la inteligencia artificial era aún relativamente nuevo y estaba lleno de optimismo. Muchos investigadores soñaban con crear un mundo en el que los humanos y la tecnología se fusionaran de nuevas formas. Querían crear ordenadores que pudieran hablar con nosotros y responder a nuestras necesidades y deseos. Weizenbaum, mientras tanto, tomaría un camino diferente. Empezó a hablar en contra de la erosión de la frontera entre humanos y máquinas. Y acabaría separándose de la inteligencia artificial, convirtiéndose en uno de los primeros (y más ruidosos) críticos de la propia tecnología que ayudó a construir.

La gente lleva mucho tiempo fascinada con los dispositivos mecánicos que imitan a los humanos. Los antiguos egipcios construían estatuas de divinidades de madera y piedra y las consultaban para pedirles consejo. Los primeros budistas describieron "personas de metales preciosos" que recitaban textos sagrados. Los antiguos griegos contaban historias sobre Hefesto, el dios de la herrería, y su amor por los robots artesanos. Pero no fue hasta las décadas de 1940 y 1950 cuando los ordenadores modernos empezaron a acercar estas fantasías a la realidad. A medida que los ordenadores se hacían más potentes y se generalizaban, la gente empezó a ver el potencial de las máquinas inteligentes.

Weizenbaum llevaba tiempo interesado en la psicología y reconoció que los patrones de habla de un terapeuta podrían ser fáciles de automatizar. Sin embargo, los resultados le inquietaron. La gente parecía mantener conversaciones significativas con algo que él nunca había pensado que fuera una herramienta terapéutica real. Para otros, en cambio, parecía abrir todo un mundo de posibilidades.


Antes de llegar al MIT, Weizenbaum había pasado un tiempo en Stanford, donde se hizo amigo de un psiquiatra llamado Dr. Kenneth Colby. Colby había trabajado en un gran hospital psiquiátrico estatal donde los pacientes tenían la suerte de ver a un terapeuta una vez al mes. Vio potencial en ELIZA y empezó a promover la idea de que el programa podría ser realmente útil desde el punto de vista terapéutico. La comunidad médica empezó a prestar atención. Pensaron que quizá este programa -y otros similares- podría ayudar a ampliar el acceso a la atención sanitaria mental. E incluso podría tener ventajas sobre un terapeuta humano. Sería más barato y la gente podría hablar más libremente con un robot. Científicos con visión de futuro como Carl Sagan, escribieron sobre la idea, en su caso imaginando una red de terminales informáticos psicoterapéuticos en las ciudades.

Y aunque la idea de terminales terapéuticos en cada esquina nunca se materializó, la gente que trabajaba en salud mental seguiría experimentando con la forma de utilizar los ordenadores en su trabajo. Colby llegó a crear un chatbot llamado PARRY, que simulaba el estilo de conversación de una persona con esquizofrenia paranoide. Más tarde desarrolló un programa interactivo llamado "Superar la depresión".

Weizenbaum, por su parte, se apartó de las implicaciones expansivas de su propio proyecto. Se opuso a la idea de que algo tan sutil, íntimo y humano como la terapia pudiera reducirse a código. Empezó a argumentar que los campos que requieren compasión y comprensión humanas no deberían automatizarse. Y también le preocupaba el mismo futuro que había descrito Alan Turing: un futuro en el que los chatbots engañaran a la gente haciéndoles creer que eran humanos. Weizenbaum acabaría escribiendo sobre ELIZA: "De lo que no me había dado cuenta es de que exposiciones extremadamente breves a un programa informático relativamente sencillo podían inducir poderosos pensamientos delirantes en personas bastante normales."

Weizenbaum pasó de ser alguien que trabajaba en el corazón de la comunidad de IA en el MIT a alguien que predicaba contra ella. Donde algunos veían potencial terapéutico, él veía una peligrosa ilusión de compasión que podría ser doblegada y retorcida por gobiernos y corporaciones.

Joseph Weizenbaum acabó retirándose del MIT, pero siguió denunciando los peligros de la IA hasta que murió en 2008 a los 85 años. Y aunque fue un importante pensador humanista, algunas personas consideraron que fue demasiado lejos.

Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons