Probablemente, este curso escolar que hace ya unas semanas que hemos comenzado, sea más difícil de lo habitual. Una opinión particularmente tóxica que me estoy encontrando en X, antiguo Twitter, es que su peor pesadilla es que un estudiante emplee un programa de inteligencia artificial para copiar un ejercicio y engañar al profesor. Eso parece peor que el hecho de que toda la clase engañe al docente.
También hay diseñadores de inteligencia artificial que siguen vendiendo que su software ayuda a identificar texto escrito con esta tecnología. Puede que no funcione siempre, pero según ellos, eso es siempre mucho mejor que no tener ningún programa informático. Y creo que estamos poniendo el foco de atención en un argumento del debate totalmente erróneo.
Los profesores están cediendo a la opción más fácil, posiblemente bajo la ilusión de que los detectores de texto de IA como GPTZero son lo suficientemente buenos (aquí uso “detector de IA” como una herramienta de IA diseñada para detectar IA hecha a partir de texto creado por humanos).
Están, con razón, ansiosos y preocupados: el año escolar que comienza este otoño será más difícil de lo habitual. Nadie puede predecir el impacto que tendrá la IA generativa en la educación. Todos lo estamos descubriendo sobre la marcha.
Esta acción preventiva de los docentes (utilizando indiscriminadamente herramientas de detección defectuosas a su disposición) por bien intencionada que sea, no hace más que añadir otro problema a la próxima epidemia de trampas de la IA. La sistematización de este tema no sólo es un profundo fracaso social y educativo sino verdaderamente frustrante y desalentador para los estudiantes y profesores, que se ven ansiosos y atrapados en un aparente sistema educativo que solo se rige por el copiado de contenido, sin salida a nuevas metodologías docentes para aquellos que quieren seguir aprendiendo.
Pero, ¿no deberían los detectores de IA detectar la IA? ¿Por qué sucede todo esto en primer lugar?
Comencemos con la dura verdad obvia, pero quizás no tan obvia: no podemos confiar en los detectores de IA y ni siquiera deberían comercializarse ni promocionarse.
Existe la necesidad de encontrar un remedio a la ola de herramientas de inteligencia artificial que están haciendo que la redacción de ensayos (bueno, prácticamente cualquier tarea de escritura que implique generación y creatividad) quede obsoleta. Por tanto, es comprensible que los profesores hayan encontrado alivio en los detectores de IA.
En algunos casos, son conscientes de que los detectores no son perfectos y, después de un análisis apropiado de coste-beneficio, consideran que vale la pena correr el riesgo de algunos falsos positivos (es decir, acusaciones injustificadas) si eso garantiza que no obtengan falsos negativos (es decir, que no haya trampas). Pero estoy casi seguro de que se trata de una minoría; en la mayoría de los casos, los profesores tienen ingenuamente buenas intenciones: simplemente no tienen en cuenta la posibilidad de que los detectores de IA tengan fallos y no sean perfectos.
Esto es culpa suya por no hacer un esfuerzo adicional para comprender la tecnología que están utilizando, pero también culpa de los medios de comunicación y de las empresas fabricantes de detectores por su tendencia a exagerar las capacidades de estos detectores en un intento de ganar la pelea por nuestra atención. y convencernos de que el problema del texto generado por IA que inunda nuestros canales de información no es tan grave. Y además, realmente desean que los detectores funcionen perfectamente.
Creo que es seguro asumir que la mayoría de los profesores no sólo quieren que los detectores detecten a los tramposos de la IA, sino que lo hagan de manera infalible y confiable. Ésta es, por supuesto, una posición loable, pero no tan alcanzable como podría parecer a partir del supuesto superficial y lógico pero erróneo de que la relación semántica entre “generador” y “detector” implica capacidades iguales pero opuestas.
Los generadores no sólo existen unos pasos por delante en términos tecnológicos que los detectores, sino que el tipo de tarea que realizan se vuelve aceptable desde el punto de vista de la calidad en un umbral mucho más bajo. La precisión requerida para que un detector sea considerado una herramienta utilizable es casi del 100%.
Para mí, la posibilidad de emplear esta técnica es un rotundo NO. Los detectores de IA no son una solución. No siempre atrapan a los tramposos. A veces acusan falsamente a los que no hacen trampa. Y no hay forma de evitar esto, como pronto lo veremos. Funcionan muchísimo peor que los generadores en la tarea que se supone que deben realizar (y están mal diseñados).
Todos los intentos de construir un detector de IA han fracasado. Sin embargo, esto no impidió que los investigadores lo intentaran.
Después de probar varios enfoques, los peores augurios se hicieron realidad y la evidencia se centró en la falta de falta de fiabilidad e inexactitud de los detectores: ni las universidades, ni las empresas, ni los investigadores independientes han logrado, en los siete meses transcurridos desde que OpenAI puso el mundo patas arriba, crear un detector de IA que coincide con la calidad y capacidad de los generadores de IA, incluso aquellos mucho peores que ChatGPT.
Para el que quiera leer un análisis más profundo de cómo funcionan y fallan exactamente los detectores, le recomiendo que consulte este artículo del investigador en int. artificial Sebastian Raschka, donde revisa los cuatro tipos principales de detectores y explica en qué se diferencian. O este otro artículo, donde se explica por qué los detectores de antiplagio consideran que la constitución de EEUU está escrita por una inteligencia artificial.
Los generadores de texto de IA como ChatGPT se entrenan, luego se ajustan y luego se refuerzan en texto escrito por humanos, por lo que a medida que mejoran, se espera que parte del texto escrito por humanos se marque inevitablemente como escrito por IA y viceversa.
Quizás la solución radique en hacer que el texto generado por IA sea intrínsecamente detectable mediante algoritmos. ¿Se pueden poner marcas de agua a las herramientas de IA? ¿Pueden las empresas diseñar una especie de estilo digital en sus productos? De nuevo, malas noticias. Incluso OpenAI, que de open no tiene nada, ya anunció que la marca de agua no funciona como antiplagio. Además, crear esa señal sería una excusa perfecta para inundar todo de fake-news y falsificar precisamente eso, la marca identificativa.
Mi humilde opinión es que tenemos que seguir trabajando para integrar la IA en la educación. Nadie, y repito, nadie, tiene la respuesta a cómo se transformará esta actividad tan importante de nuestra sociedad. Pero soy optimista. Y sobre cómo hacerlo, hablaré en los próximos artículos.
0 comentarios:
Publicar un comentario