Inteligencia artificial, robótica, historia y algo más.

3/4/23

El principio de Brandolini, y tonterías las justas

Tal vez el principio más importante en los estudios de mierda es el principio de Brandolini. Acuñado por el ingeniero de software italiano Alberto Brandolini en 2014, dice:

La cantidad de energía necesaria para refutar tonterías es un orden de magnitud mayor que la necesaria para producirla.

Producir estupideces es mucho menos trabajo que limpiarlo. También es mucho más simple y barato  deshacer. Unos años antes de que Brandolini formulara su principio, el bloguero italiano Uriel Fanelli ya había señalado que, traducido libremente, “un idiota puede crear más tonterías de las que podrías esperar refutar”.

El teórico de la conspiración y personalidad de la radio Alex Jones no necesita ser un genio malvado para difundir tonterías venenosas como Sandy Hook y las historias de Pizzagate; podría ser un idiota malvado, o incluso un descarriado.

Para Luc Steels, uno de los mayores problemas son la cantidad de historias que hay sobre la Inteligencia Artificial y el poco control sobre la veracidad de las mismas. Esto está produciendo mucha confusión en la población, y lo que es peor, también producen miedo y rechazo. Y mucho más ahora, con todo el aluvión de noticias sobre GPT-4 y demás.


Frankenstein, el ciber-utopismo de Kurzweil, que habla de que la Singularidad llegará pronto, o la super-inteligencia de Nick Bostrom, son algunos ejemplos que se sacan a colación a menudo para defender que la IA acabará con nosotros. Sin embargo, Luc Steel y otros muchos científicos, culpan en parte a los medios de comunicación de la tergiversación de la información que va desde la fuente hasta el titular del periódico. Y a cuenta de las noticias de estos días, me he acordado de un par de ellos que quizás los lectores recuerden:

Fast Company publicó en 2017 un artículo titulado “IA está inventando lenguajes que los humanos no pueden entender. ¿Deberíamos detenerlo?Suena aterrador, ¿verdad? La historia describía un proyecto de investigación de Facebook que salió mal. Mientras intentaban construir un programa para enseñar a sus bots a negociar, los investigadores intentaron que los algoritmos informáticos se entrenaran unos a otros para hablar. Pero el habla que desarrollaron los algoritmos no se parecía en nada al lenguaje humano. Varios medios informaron que los investigadores cerraron rápidamente el proyecto.

Entonces, ¿cómo se veía este lenguaje de robot? Echemos un vistazo a algunos fragmentos de la conversación del chatbot:

BOB EL BOT: “Puedo, puedo, todo lo demás”.
ALICIA EL BOT: "Las bolas tienen cero para mí para mí para mí para mí para mí para mí para mí para".
BETO: “Tú, yo todo lo demás”.
ALICIA: “Las pelotas tienen una pelota para mí, para mí, para mí, para mí, para mí, para mí, para mí”.

Podría ser que la IA realmente desarrolle su propio lenguaje y se vuelva consciente de sí misma. Si lo hace, esperamos que lo haga en paz y armonía con los humanos. Pero este chatbot de Facebook no se dirigía por ese camino en particular. La publicación de blog original del equipo de Facebook simplemente describía un proyecto de investigación en el que el lenguaje del chatbot evolucionó a la repetición de oraciones sin sentido. La prensa popular los distorsionó en historias dramáticas sobre investigadores sorprendidos que luchaban por cerrar el proyecto y salvar a la raza humana.

Pero cuando los reporteros de Snopes les preguntaron sobre la historia, los investigadores comentaron que no se habían preocupado. Fue la respuesta de los medios lo que los sorprendió. “No hubo pánico”, dijo un investigador, “y el proyecto no se cerró”. No temían por la humanidad. Y quizás los desarrolladores de GPT4 sigan sin hacerlo ahora mismo.


Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons