Inteligencia artificial, robótica, historia y algo más.

28/10/23

Los robotaxis echan el freno: la compañía Cruise suspende todas sus operaciones

Ayer saltó la noticia de que el estado de California retiraba la licencia a una empresa de taxis sin conductor después de que uno de sus vehículos no detectara que tenía una persona atropellada bajo él. Se trata de la empresa Cruise, propiedad de General Motors, y una de las que más avanzadas estaban en la carrera por dominar la conducción autónoma. En palabras de Carlos del Castillo, periodista de ElDiario.es:

"Son las nueve y media de la noche en San Francisco. Con su semáforo en rojo, una transeúnte cruza un paso de cebra en una de las zonas de más actividad de la ciudad, resultando atropellada por un conductor que se da a la fuga. El impacto hace que la víctima salga despedida al carril adyacente, por donde circula un vehículo de Cruise, uno de los dos servicios de taxis sin conductor activos en San Francisco. El coche autónomo frena en seco pero no consigue evitarla, pasándole por encima. Según recoge el informe de las autoridades, el robotaxi intenta entonces hacer una “maniobra de giro mientras el peatón estaba debajo del vehículo”, arrastrando bajo él a la mujer unos seis metros.".

El accidente y posterior actuación del vehículo de Cruise han provocado la inmediata suspensión de las 400 licencias que la compañía tenía para operar taxis sin conductor en San Francisco. Las autoridades de transporte de California acusan a la empresa (propiedad de General Motors y en la que también han invertido Honda o Microsoft) de haber “falseado información relacionada con la seguridad de la tecnología autónoma de sus vehículos” y ocultar el vídeo del accidente.

El verano ha sido particularmente intenso en las noticias de estos vehículos, particularmente para Waymo (propiedad de Google) y Cruise. En una evolución de noticias con ritmo de montaña rusa, el 11 de agosto de 2023, ambas empresas obtuvieron la aprobación de la Comisión de Servicios Públicos de California, con lo que pudieron comenzar a ofrecer servicios de taxi 24 horas al día, los 7 días a la semana, y cobrando (hasta entonces, su actividad estaba restringida a unos horarios de poca densidad de tráfico). Cruise y Waymo ya prestaban servicios de transporte de pago sin conductor en el área metropolitana de Phoenix, donde el gobierno del estado de Arizona optó por no regular la tecnología de los vehículos autónomos. Pero el clima estable de California, sus ciudades densamente pobladas, su excedente de talento tecnológico y su normativa sobre este tipo de autos, la hacían un reto comercial muy goloso. La concesión de esta licencia no recibió la aprobación de muchos de los ciudadanos de San Francisco, que ya estaban un poco hartos de las robotaxis, incluso en su horario limitado.



Poco les duró la alegría, y es que unos días más tarde, el 19 de agosto de 2023, las autoridades californianas redujeron a la mitad de flota de vehículos Cruise, tras unos incidentes que habían ocurrido la noche anterior del 17 de ese mes: un taxi se empotró contra un camión de bomberos que acudía en una emergencia, y en otro incidente unas horas más tarde, fue un coche "normal", pilotado por un humano, el que se saltó un semáforo y arrolló a uno de estos robotaxis. En total, Cruise pasó de unos 300 vehículos que tenía circulando en la ciudad a la mitad.

Desde que que se concedió las licencias a las empresas de General Motors como a la de Google, distintos han sido las noticias que se han hecho virales sobre estos vehículos. Probablemente en parte por el hartazgo de la población, por la risa, por la falta de noticias en verano, y por hacer leña del árbol caído. Estas noticias fueron la de diez vehículos Cruise que dejaron de funcionar y provocaron un atascazo (según la compañía, debido a problemas de conectividad), y la de un robot de la misma compañía se quedó atascado en cemento fresco que había en una zona de obras del asfalto.



Todo esto da para reflexionar mucho en mi oficio, pero será en un siguiente post que quiero redactar para expresar mi opinión al respecto.

Comparte:

13/10/23

Taller de inteligencia artificial y casos prácticos para centros educativos

Siguiendo con la entrada anterior, en ésta quería aportar mi pequeño granito de arena a la odisea que está siendo en algunos centros educativos implementar algo sobre inteligencia artificial, adquirir competencias digitales, etc.

Hace unos años, en 2019, un compañero de mi universidad y yo propusimos un sencillo taller para enseñar y desmitificar ideas fundamentales sobre inteligencia artificial. El taller duraba 1h 30 a lo sumo, tiene los contenidos fundamentales para entender qué es inteligencia artificial y algunos algoritmos matemáticos sencillos y en los ensayos en institutos que hicimos, fue un completo éxito. Tanto es así, que el taller fue aceptado como artículo de investigación educativa en una prestigiosa revista científica. Es decir, que hay otros investigadores que han certificado que el taller funciona y está bien estructurado. Y además, ¿sabéis qué es lo mejor? Que el taller se fundamenta en la programación por bloques Scratch, y todo es totalmente abierto y gratuito. El taller lo podéis encontrar en mi repositorio GitHub.

El funcionamiento de este pequeño taller, consiste en que en los 15 primeros minutos de actividad, a los estudiantes se les impartieron los siguientes conceptos de una manera muy sintética:
              - Introducción a la inteligencia artificial
              - En qué consiste el algoritmo de clusterización K-means
              -  Cómo funciona una red neuronal

Posteriormente, los chavales tuvieron 45 minutos para realizar dos ejercicios y poner en práctica las nociones básicas que se les había impartido hace unos minutos. La metodología de esta parte práctica se implementó de la siguiente manera: los alumnos trabajaron en parejas, y tenían a su disposición el archivo de un algoritmo de inteligencia artificial implementado en Scratch. En este archivo estaba implementado casi todo el código necesario, salvo un par de huecos que tenían que rellenar para que todo el programa se ejecutase correctamente. Para que fuera un poco más fácil, en una esquina de la zona de trabajo de Scratch, los alumnos tenían las piezas de código que había que encajar en los huecos, pero desordenadas. Una vez que completaban el código, los estudiantes podían comprobar si habían acertado o no ejecutándolo en el mismo Scratch.

A los estudiantes se les asignó dos problemas, uno detrás de otro:

1) El algoritmo de clusterización K-means, donde tenían que conseguir clasificar una nube de puntos en tantos clusters como quisieran. Los clusters estaban definidos por 'puntos gordos' de colores, y la clasificación consistía en pintar los puntitos según el color del 'punto gordo' más cercano que tuvieran.

2) Posteriormente se asignó una red neuronal muy sencilla (dos entradas y una salida), entrenada con los datos de entrada y salida de una puerta lógica AND. Para cada ejercicio disponían de 20 minutos como máximo.

A continuación incluyo una imagen representativa de estos problemas:


En 2020, llegó el COVID, conocido por todos. Lo que nos obligó a encerrarnos en casa, y nos obligó a todos los docentes en el mundo a replantear nuestros temarios de manera online y digital. Lo cual aceleró la estrategia de digitalización de la educación que estaba preparando la Comisión Europea. El llamado Plan de Acción de Educación Digital. Y tal y como os conté en el blog, yo participé entre los años 2021 y 2022 en el Grupo de Expertos de la Comisión Europea para la implantación ética de herramientas de inteligencia artificial en la enseñanza. Éramos unos 15 expertos, uno por cada país de la Eurozona, más o menos. Así que de estos temas, humildemente, algo sé.

El curso pasado, más de una docena de institutos en toda España se pusieron en contacto conmigo para que les ayudara a entender e implementar el taller de IA del que os he hablado. Las edades de los estudiantes iban desde los 14 años hasta los 18. Y francamente, tras ponerme en contacto con ellos para ver qué tal les había ido, estaban muy contentos con el material.

Así que a lo largo del año pasado y de este, en mi grupo de investigación hemos seguido trabajando en crear más ejercicios accesibles, sencillos, entendibles por alumnado y profesorado, y adaptables a cualquier tipo de dificultad en el aula. Gracias a todo lo que he aprendido con mis colegas europeos, ahora tenemos mucho más claro qué es lo que funciona, y qué no. Tenemos ejercicios que se adaptan a la velocidad de aprendizaje de cada alumno, ejercicios que permiten crear enunciados numéricos diferentes para cada uno de ellos, ejercicios que miden la velocidad y nivel de aprendizaje de una tarea concreta... y por supuesto, todo ello, sin entrar en complejos softwares ni programas informáticos. Todo estará abierto.

Los profesores y los centros están haciendo un trabajo ingente por adaptarse a toda la burocracia, acreditaciones y evaluación por competencias que les piden desde las administraciones. Adoptar la IA como una herramienta, sin pensar que el profesor pierda protagonismo, es el camino. Hagámosles la vida más fácil y no intentamos oponernos a esta tecnología, que ya se ha quedado.

Comparte:

4/10/23

Dejad de oponeros a la inteligencia artificial en la Educación

Probablemente, este curso escolar que hace ya unas semanas que hemos comenzado, sea más difícil de lo habitual. Una opinión particularmente tóxica que me estoy encontrando en X, antiguo Twitter, es que su peor pesadilla es que un estudiante emplee un programa de inteligencia artificial para copiar un ejercicio y engañar al profesor. Eso parece peor que el hecho de que toda la clase engañe al docente.

También hay diseñadores de inteligencia artificial que siguen vendiendo que su software ayuda a identificar texto escrito con esta tecnología. Puede que no funcione siempre, pero según ellos, eso es siempre mucho mejor que no tener ningún programa informático. Y creo que estamos poniendo el foco de atención en un argumento del debate totalmente erróneo.

Los profesores están cediendo a la opción más fácil, posiblemente bajo la ilusión de que los detectores de texto de IA como GPTZero son lo suficientemente buenos (aquí uso “detector de IA” como una herramienta de IA diseñada para detectar IA hecha a partir de texto creado por humanos).

Están, con razón, ansiosos y preocupados: el año escolar que comienza este otoño será más difícil de lo habitual. Nadie puede predecir el impacto que tendrá la IA generativa en la educación. Todos lo estamos descubriendo sobre la marcha.


Esta acción preventiva de los docentes (utilizando indiscriminadamente herramientas de detección defectuosas a su disposición) por bien intencionada que sea, no hace más que añadir otro problema a la próxima epidemia de trampas de la IA. La sistematización de este tema no sólo es un profundo fracaso social y educativo sino verdaderamente frustrante y desalentador para los estudiantes y profesores, que se ven ansiosos y atrapados en un aparente sistema educativo que solo se rige por el copiado de contenido, sin salida a nuevas metodologías docentes para aquellos que quieren seguir aprendiendo.

Pero, ¿no deberían los detectores de IA detectar la IA? ¿Por qué sucede todo esto en primer lugar?

Comencemos con la dura verdad obvia, pero quizás no tan obvia: no podemos confiar en los detectores de IA y ni siquiera deberían comercializarse ni promocionarse.

Existe la necesidad de encontrar un remedio a la ola de herramientas de inteligencia artificial que están haciendo que la redacción de ensayos (bueno, prácticamente cualquier tarea de escritura que implique generación y creatividad) quede obsoleta. Por tanto, es comprensible que los profesores hayan encontrado alivio en los detectores de IA.

En algunos casos, son conscientes de que los detectores no son perfectos y, después de un análisis apropiado de coste-beneficio, consideran que vale la pena correr el riesgo de algunos falsos positivos (es decir, acusaciones injustificadas) si eso garantiza que no obtengan falsos negativos (es decir, que no haya trampas). Pero estoy casi seguro de que se trata de una minoría; en la mayoría de los casos, los profesores tienen ingenuamente buenas intenciones: simplemente no tienen en cuenta la posibilidad de que los detectores de IA tengan fallos y no sean perfectos.

Esto es culpa suya por no hacer un esfuerzo adicional para comprender la tecnología que están utilizando, pero también culpa de los medios de comunicación y de las empresas fabricantes de detectores por su tendencia a exagerar las capacidades de estos detectores en un intento de ganar la pelea por nuestra atención. y convencernos de que el problema del texto generado por IA que inunda nuestros canales de información no es tan grave. Y además, realmente desean que los detectores funcionen perfectamente.

Creo que es seguro asumir que la mayoría de los profesores no sólo quieren que los detectores detecten a los tramposos de la IA, sino que lo hagan de manera infalible y confiable. Ésta es, por supuesto, una posición loable, pero no tan alcanzable como podría parecer a partir del supuesto superficial y lógico pero erróneo de que la relación semántica entre “generador” y “detector” implica capacidades iguales pero opuestas.

Los generadores no sólo existen unos pasos por delante en términos tecnológicos que los detectores, sino que el tipo de tarea que realizan se vuelve aceptable desde el punto de vista de la calidad en un umbral mucho más bajo. La precisión requerida para que un detector sea considerado una herramienta utilizable es casi del 100%.

Para mí, la posibilidad de emplear esta técnica es un rotundo NO. Los detectores de IA no son una solución. No siempre atrapan a los tramposos. A veces acusan falsamente a los que no hacen trampa. Y no hay forma de evitar esto, como pronto lo veremos. Funcionan muchísimo peor que los generadores en la tarea que se supone que deben realizar (y están mal diseñados).

Todos los intentos de construir un detector de IA han fracasado. Sin embargo, esto no impidió que los investigadores lo intentaran.

Después de probar varios enfoques, los peores augurios se hicieron realidad y la evidencia se centró en la falta de falta de fiabilidad e inexactitud de los detectores: ni las universidades, ni las empresas, ni los investigadores independientes han logrado, en los siete meses transcurridos desde que OpenAI puso el mundo patas arriba, crear un detector de IA que coincide con la calidad y capacidad de los generadores de IA, incluso aquellos mucho peores que ChatGPT.

Para el que quiera leer un análisis más profundo de cómo funcionan y fallan exactamente los detectores, le recomiendo que consulte este artículo del investigador en int. artificial Sebastian Raschka, donde revisa los cuatro tipos principales de detectores y explica en qué se diferencian. O este otro artículo, donde se explica por qué los detectores de antiplagio consideran que la constitución de EEUU está escrita por una inteligencia artificial.



Los generadores de texto de IA como ChatGPT se entrenan, luego se ajustan y luego se refuerzan en texto escrito por humanos, por lo que a medida que mejoran, se espera que parte del texto escrito por humanos se marque inevitablemente como escrito por IA y viceversa.

Quizás la solución radique en hacer que el texto generado por IA sea intrínsecamente detectable mediante algoritmos. ¿Se pueden poner marcas de agua a las herramientas de IA? ¿Pueden las empresas diseñar una especie de estilo digital en sus productos? De nuevo, malas noticias. Incluso OpenAI, que de open no tiene nada, ya anunció que la marca de agua no funciona como antiplagio. Además, crear esa señal sería una excusa perfecta para inundar todo de fake-news y falsificar precisamente eso, la marca identificativa.

Mi humilde opinión es que tenemos que seguir trabajando para integrar la IA en la educación. Nadie, y repito, nadie, tiene la respuesta a cómo se transformará esta actividad tan importante de nuestra sociedad. Pero soy optimista. Y sobre cómo hacerlo, hablaré en los próximos artículos.


Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons