/*JULIAN: CÓDIGO CLAUDE /*FIN JULIAN El blog de Julián Estévez

Inteligencia artificial, robótica, historia y algo más.

20/9/24

Herramientas gratuitas de inteligencia artificial en educación

La inteligencia artificial (IA) está transformando rápidamente diversos aspectos de nuestras vidas, y el campo de la educación no es una excepción. En los últimos años, hemos sido testigos de un creciente interés en la aplicación de herramientas de IA para mejorar y personalizar la experiencia educativa. Desde sistemas de tutoría adaptativa hasta asistentes virtuales para docentes, la IA promete revolucionar la forma en que enseñamos y aprendemos. Las adaptaciones de los planes de estudio para el empleo de estas herramientas se está cociendo lenta, pero firmemente, creo.

Tenemos que tener claro qué no hará la IA en nuestros centros educativos:

La IA nunca será capaz de alternar estrategias de enseñanza según el día, la hora, la motivación de los estudiantes o la materia de cada clase. Adaptarse y flexibilizar la hora de clase, midiendo el ambiente de clase, está solo al alcance de docentes humanos. Por no hablar de captar la atención, promover el diálogo y escuchar con verdadero interés las preocupaciones de los estudiantes. Dudo que podamos disponer de una inteligencia artificial que evite la disrupción, los conflictos, el desapego a la escuela o la pesada mochila (no solo física) que porta cada alumno.


Aún así, cada vez hay más evidencia científica de que estas herramientas pueden contribuir a una liberación de carga de trabajo de los docentes, a una educación más personalizada, y a una enseñanza y aprendizaje más eficaz, y que permitirá a los estudiantes ser ciudadanos más conscientes de la tecnología que nos está invadiendo en estos tiempos. Prueba de esta evidencia son los informes de la UNESCO, Guía para el uso de IA generativa en educación e investigación, o el documento de la Comisión Europea, Directrices éticas sobre el uso de la inteligencia artificial en la educación y formación para los educadores.


Fuente


En todo caso, desde este post me gustaría contribuir a la adopción de estas herramientas y la mejora de la educación de la mejor manera posible, y por eso, os traigo algunas de las mejores herramientas gratuitas que he encontrado para su uso en las aulas:


ChatGPT
ChatGPT destaca por su capacidad para ofrecer explicaciones detalladas, entablar debates sobre una amplia gama de temas y generar ideas creativas. Su versatilidad le permite adaptarse a diversos contextos, personalizando el proceso de aprendizaje. Esta adaptabilidad permite proporcionar respuestas ajustadas a las necesidades específicas de cada estudiante, potenciando así la aplicación individualizada del aprendizaje. El límite para aplicar esta herramienta a educación es la imaginación del docente, y se le puede pedir resumir textos, reescribirlos, corregir la ortografía, pedir que prepare el contenido para un temario concreto, o incluso crear el guion para una presentación.


Diffit
(Asistente IA para la creación de recursos educativos)

El principal reclamo de esta herramienta con IA es que facilita al profesorado la búsqueda de recursos para sus asignaturas, indicando la fuente de donde extrae la información. Así, genera textos sobre el tema que se le indique y tiene en cuenta el curso de los estudiantes para adaptarlos a sus conocimientos de forma más fácil; de estos textos también elabora un resumen, un vocabulario con las palabras más importantes y un cuestionario que los docentes pueden utilizar para comprobar si el alumnado ha entendido los contenidos explicados. El profesorado puede compartir, por otro lado, los contenidos que genera la aplicación mediante tarjetas didácticas, cuadernos de ejercicios, de respuesta corta… Es posible probarla de manera gratuita durante un mes y el único requisito es disponer de una cuenta de Google.


QuestionWell (Generador inteligente de cuestionarios educativos)
QuestionWell es una innovadora herramienta diseñada para simplificar la labor docente en la creación de exámenes y actividades de evaluación. Con solo unos minutos, los profesores pueden generar cuestionarios personalizados relacionados con su temario específico y crea preguntas relevantes en cuestión de minutos, tanto para exámenes como para actividades de clase. Además, permite exportar los cuestionarios a plataformas populares como Moodle, Quizziz y Kahoot! Y con una cuenta Google, se puede emplear su versión gratuita con las funcionalidades básicas.


GrammarlyGO (Creador y optimizador de contenido escrito)
GrammarlyGO permite a los usuarios crear escritos, reescribir y generar ideas de manera rápida y fácil. Otras características, como responder al contexto del correo electrónico que recibes, generar ideas y esquemas, y mejorar tu escritura de manera inteligente, también están accesibles. Para concluir, la versión de IA de Grammarly puede proporcionar funciones más personalizadas y beneficiosas para aquellos que quieren crear y pulir sus escritos.


PDFGear (Herramienta inteligente para resumir)
PDFgear es una herramienta de IA completamente gratuita que puede ayudarte a extraer rápidamente información de un archivo PDF grande y está entre los mejores resumidores de IA y mejores chatbots educativos. Para usarlo, puedes preguntar cualquier cosa en el archivo PDF y localizar lo que buscas en segundos, lo que lo hace una solución útil para resumir artículos de investigación. Además, puedes usar esta herramienta de IA para revisar múltiples PDFs de una sola vez.



Y hay muchas más herramientas interesantes,  como Duolingo o Socrative. En mi trabajo, por ejemplo, desarrollamos una herramienta de inteligencia artificial con el lenguaje gráfico de programación Scratch. Y como participante en algunas actividades de la Comisión Europea sobre estos temas educativos, esto es un tema que me apasiona. Así que si tenéis cualquier duda o queréis contactar conmigo, lo podéis hacer aquí sin problema y estaré encantado de ayudaros.

Y recordad,

La IA no ofrece el afecto que se merecen los alumnos. Nada sustituye el aliento o el consuelo del docente. Sin el apoyo personal y la compañía del profesorado perpetuaríamos un modelo basado únicamente en la eficiencia donde la inclusión pasa a un segundo plano. Los cientos de datos (muchas veces inútiles) de nuestras hojas de cálculo calificadoras serán poca cosa en comparación a los millones de datos que cada estudiante producirá a lo largo de su trayectoria educativa. Citando a Freire, en sus "Cartas a quien pretende enseñar", las cualidades de un docente son insustituibles por máquina alguna: la humildad, la amorosidad, la valentía, la tolerancia, la competencia, la capacidad de decidir, la seguridad, la ética, la justicia, la tensión entre la paciencia y la impaciencia, la parsimonia verbal...





Comparte:

17/9/24

Sobre la posible prohibición de los LLM

Después de tres años, este verano se aprobó la Ley de Inteligencia Artificial, la nueva ley de la UE. Pero la realidad es que el trabajo duro empieza ahora. Aunque la ley entrará en vigor el 1 de agosto de 2024, los ciudadanos de la UE empezarán a ver los cambios a finales de año. Los organismos reguladores tendrán que ponerse en marcha para hacer cumplir la ley como es debido, y las empresas dispondrán de hasta tres años para cumplirla. Hay muchos resúmenes en la red sobre las implicaciones de esta ley, pero haré aquí mi propio resumen para contextualizar este post. Aquí está el texto completo de la ley y una guía útil para navegar por ella. Esto es lo que cambiará (y lo que no) con la Ley de IA:



1. Algunos usos de la IA quedarán prohibidos este mismo año
La Ley impone restricciones a los casos de uso de la IA que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad, la educación y la vigilancia policial. Estos usos quedarán prohibidos a finales de año.

También prohíbe algunos usos que se consideran un «riesgo inaceptable». Entre ellos se incluyen algunos casos de uso bastante extravagantes y ambiguos, como los sistemas de IA que despliegan «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y dificultar la toma de decisiones informadas», o explotan a personas vulnerables. La Ley de IA también prohíbe los sistemas que infieren características sensibles, como las opiniones políticas o la orientación sexual de alguien, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohíbe la creación de bases de datos de reconocimiento facial mediante el scrapeo de bases de datos de Internet, como hace Clearview AI.

Sin embargo, hay algunas salvedades bastante importantes. Por ejemplo, la Ley de IA no prohíbe de plano los casos de uso controvertidos de la IA, como el reconocimiento facial. Y aunque las empresas y las escuelas no están autorizadas a utilizar software que pretenda reconocer las emociones de las personas, pueden hacerlo si es por razones médicas o de seguridad.


2. Será más obvio cuándo estás interactuando con un sistema de IA
Las empresas tecnológicas estarán obligadas a etiquetar los deepfakes y el contenido generado por IA y notificar a las personas cuando estén interactuando con un chatbot u otro sistema de IA. La Ley de IA también exigirá a las empresas que desarrollen medios generados por IA de forma que sea posible detectarlos. Esta es una noticia prometedora en la lucha contra la desinformación, y dará un gran impulso a la investigación en torno a las marcas de agua y la procedencia de los contenidos.


3. Los ciudadanos podrán denunciar si han sido perjudicados por una IA
La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar el cumplimiento, la aplicación y la ejecución (y están contratando personal). Gracias a la Ley de IA, los ciudadanos de la UE podrán presentar quejas sobre los sistemas de IA cuando sospechen que han sido perjudicados por uno de ellos, y podrán recibir explicaciones sobre por qué los sistemas de IA tomaron las decisiones que tomaron. Es un primer paso importante para dar a las personas más capacidad de actuación en un mundo cada vez más automatizado. Sin embargo, esto requerirá que los ciudadanos tengan un nivel decente de conocimientos sobre IA y sean conscientes de cómo se producen los daños algorítmicos. Para la mayoría de la gente, estos son todavía conceptos muy extraños y abstractos.


4. Las empresas de IA tendrán que ser más transparentes
La mayoría de los usos de la IA no requerirán el cumplimiento de la Ley de IA. Sólo las empresas de IA que desarrollen tecnologías en sectores de «alto riesgo», como infraestructuras críticas o sanidad, tendrán nuevas obligaciones cuando la Ley entre plenamente en vigor dentro de tres años. Entre ellas figuran mejorar la gobernanza de los datos, garantizar la supervisión humana y evaluar cómo afectarán estos sistemas a los derechos de las personas.

Las empresas de IA que desarrollen «modelos de IA de propósito general», como modelos lingüísticos, también tendrán que crear y conservar documentación técnica que muestre cómo construyeron el modelo, cómo respetan la ley de derechos de autor y publicar un resumen disponible públicamente de qué datos de entrenamiento se utilizaron para entrenar el modelo de IA. Otras empresas, por el contrario, simplemente no lanzarán su producto en Europa.

Según la Comisión Europea, «actualmente, se considera que los modelos de IA de propósito general que se entrenaron utilizando una potencia informática total de más de 1025 FLOPs plantean riesgos sistémicos.» (La Orden Ejecutiva de Biden sobre IA se basaba anteriormente en 1026 FLOPs)

También vale la pena señalar que los modelos de IA gratuitos y de código abierto que comparten todos los detalles de cómo se construyó el modelo, incluida su arquitectura, parámetros y ponderaciones, están exentos de muchas de las obligaciones de la Ley de IA. Según esta ley, «específicamente desarrollados y puestos en servicio con el único fin de la investigación y el desarrollo científicos» de sus normas. Aunque esta exención es útil para permitir la investigación científica, los modelos de IA producidos con fines académicos bajo una licencia de código abierto pueden luego ser reutilizados con fines comerciales. Esta disposición crea de hecho una laguna legal por la que los modelos de IA producidos con fines científicos eluden las normas de seguridad que la UE ha creado bajo la creencia de que dichas normas son necesarias para prevenir los daños causados por la IA.


¿Pueden los gobiernos controlar el futuro de la IA? Parece que van a intentarlo

En los 18 meses transcurridos desde que ChatGPT de OpenAI irrumpió en escena, seguido de una oleada de chatbots de IA competidores, el mundo se ha visto inundado de visiones contradictorias sobre nuestro futuro impulsado por la IA. Estas predicciones abarcan desde sueños utópicos hasta pesadillas distópicas, dejando muchas preguntas sin respuesta: ¿Iniciará la IA una nueva era de progreso sin precedentes o nos llevará por el camino de la destrucción social?

Esta constatación ha suscitado intensos debates sobre cómo aprovechar las ventajas de la IA al tiempo que se mitigan sus riesgos. En las últimas semanas se ha producido una oleada de actividad en este ámbito:

¿Podrían los gobiernos prohibir el uso de herramientas de inteligencia artificial?

Un informe encargado por el gobierno estadounidense advierte de los importantes riesgos para la seguridad nacional que plantea la IA y sugiere, entre otras cosas, prohibir la publicación de modelos de código abierto, con penas de cárcel si es necesario.



Un informe encargado por el gobierno de Estados Unidos advierte de los importantes riesgos para la seguridad nacional que plantea la inteligencia artificial. Los tres autores del informe, titulado An Action Plan to Increase the Safety and Security of Advanced AI, trabajaron en él durante más de un año. Hablaron con más de 200 funcionarios, expertos y empleados de empresas líderes en IA, como OpenAI, Google DeepMind, Anthropic y Meta.

No solo eso, sino que EEUU también está considerando restringir la «exportación» a China de modelos de código abierto y propietarios de LLM. Todavía no me he enterado de cómo quieren aplicar esta medida. Y cada vez se encuentran más iniciativas para prohibir las iniciativas de código abierto en todas partes.




Código abierto y LLM

Como hemos mencionado antes, la Ley de IA exime al código abierto del cumplimiento de las normas, aparentemente, pero han creado una enorme complejidad en la consideración de lo que es el código abierto. En realidad, el término «código abierto» no significa nada, y las instituciones especializadas adaptan continuamente las definiciones oficiales. Así que la reglamentación de este concepto puede ser realmente difícil o injusta. Imagino que los legisladores intentan evitar el siguiente escenario:

Esos modelos serán incontrolados, lo que implica una de cuatro subcreencias:
1. Comenzarán su vida como código abierto;
2. Estarán mal controlados por sus creadores de código cerrado;
3. Los desarrolladores de código abierto, como Meta y Mistral, seguirán con entusiasmo a los proveedores de código cerrado y lanzarán modelos con capacidad para causar daños catastróficos como código abierto;
4. Un actor malicioso creará por sí mismo un modelo capaz de causar daños catastróficos.

No puedo imaginar cómo podría ejecutarse esta medida, o incluso cómo podría auditarse con precisión cualquier algoritmo de IA. Si hoy le preguntaras a Sam Altman cómo funciona GPT o1, no te diría nada, a pesar de conocer el código. Como dije en mi último post, la interpretabilidad del código es una idea poliedrica.

Sin embargo, sigo convencido de que los gobiernos no dejarán que esta tecnología sea totalmente libre. ¿Sabías que la NSA está sentada en el consejo de OpenAI? ¿Podría el gobierno decidir que hay que pedir un permiso especial para utilizar una determinada cantidad de potencia de la GPU?

Este asunto no significa que se vaya a multar a un autónomo que desarrolle una aplicación basada en ChatGPT para orientar a los clientes a la hora de comprar un coche. La Comisión Europea en el texto, diferencia claramente entre un sistema de inteligencia artificial y un modelo de inteligencia artificial, y por tanto, esta prohibición está pensada en alguien como Sam Altman, que podría lograr la tan deseada AGI.

Recordemos que hace unas semanas, Twitter fue prohibido en Brasil.





Comparte:

8/9/24

La revolución de la IA en el campo de batalla

En la niebla de la guerra, la información es poder. Y en Ucrania, la inteligencia artificial está atravesando esa niebla como nunca antes. El conflicto en curso se ha convertido en un campo de pruebas para los sistemas militares basados en IA, con la plataforma Delta de Ucrania a la cabeza. Junto a ella, la MetaConstellation de Palantir y los innovadores drones Saker están remodelando la forma de librar las guerras en el siglo XXI. Lejos de los robots no realistas e inspirados en Hollywood, la verdadera innovación reside en la gestión de datos. Veamos cómo estas revolucionarias tecnologías están dejando su huella en el campo de batalla.



Delta: El centro de mando ucraniano potenciado por IA

Una de las bazas de Ucrania en la guerra contra Rusia es el sistema Delta, responsable de la obtención de imágenes del campo de batalla en tiempo real. La solución ucraniana se ha integrado, entre otros, con el sistema polaco de control de tiro Topaz.

Delta es un sistema desarrollado en Ucrania, responsable del conocimiento de la situación y la gestión del campo de batalla. Su tarea consiste en procesar datos obtenidos de diversas fuentes (incluidos los proporcionados por países occidentales) y mostrarlos en tiempo real.

De este modo, los mandos ucranianos pueden seguir en directo la situación del campo de batalla. Delta está disponible tanto en ordenadores normales como en tabletas y teléfonos inteligentes. El sistema se considera un eslabón clave de la «cadena de mando» ucraniana (el proceso que va desde la detección del objetivo hasta su destrucción).

Imagine un sistema capaz de seguir los movimientos del enemigo, predecir sus próximos pasos y ayudar a coordinar una respuesta, todo ello en tiempo real. Eso es Delta en pocas palabras. Desarrollado por innovadores militares ucranianos, Delta es esencialmente un «Google para los militares».

Así es como funciona:

  • Recogida de datos: Delta obtiene información de diversas fuentes: drones, satélites, sensores terrestres e incluso redes sociales.

  • Análisis de inteligencia artificial: Los algoritmos de inteligencia artificial del sistema analizan los datos e identifican patrones y posibles amenazas.

  • Visualización: Toda esta información se muestra en una interfaz cartográfica de fácil manejo, que ofrece a los mandos una imagen clara del campo de batalla.

  • Ayuda a la toma de decisiones: Delta no se limita a mostrar lo que está ocurriendo, sino que ayuda a predecir lo que podría ocurrir a continuación, contribuyendo así a la planificación estratégica.


¿Cuál es el impacto? Las fuerzas ucranianas pueden reaccionar más rápida y eficazmente a los movimientos rusos. Es como tener una bola de cristal, pero alimentada por IA de vanguardia en lugar de magia. De alguna manera, este es el uso más puro de la Inteligencia Artificial, ya que se trata de limpiar y procesar datos. Probablemente, el sistema Delta ha sido el primer uso real de la IA en batalla.

Así que es importante entender que el sistema Delta no es un arma autónoma cruel, sino que «sólo» ayuda a tomar decisiones mejores y más rápidas que los humanos. Mi opinión es que es ridículo dejar que una máquina tome decisiones militares, y además, los estados de la OTAN no pueden saltarse la cadena de mando: cada acción tomada en el campo de batalla y sus implicaciones deben estar claramente respaldadas por un equipo humano, y ellos serán los únicos responsables en caso de que algo vaya mal.

Este sistema no se ha inventado en dos días, sino que Ucrania lo ha estado desarrollando a lo largo de los últimos años y presentándolo a sus aliados.




MetaConstelación de Palantir: Ojos en el cielo

Mientras que Delta procesa información procedente de diversas fuentes, MetaConstellation de Palantir se centra en proporcionar inteligencia satelital de primera categoría. Este sistema no se limita a obtener bonitas imágenes del espacio, sino que cambia la forma en que se utilizan los datos de los satélites en la guerra.

MetaConstellation hace algunas cosas clave:

  • Fusión de datos: Combina datos de múltiples fuentes satelitales, incluidos satélites comerciales y gubernamentales.

  • Análisis basado en inteligencia artificial: Al igual que Delta, MetaConstellation utiliza IA para analizar estos datos, detectando cambios y anomalías que los analistas humanos podrían pasar por alto.

  • Información predictiva: El sistema puede ayudar a predecir acontecimientos futuros basándose en patrones observados, lo que proporciona a las fuerzas ucranianas una ventaja estratégica.

Al proporcionar este nivel de conocimiento, MetaConstellation ha desempeñado un papel crucial en importantes operaciones ucranianas, como la liberación de Kherson.

Podría ser una aplicación que cambiara por completo las reglas del juego en futuras guerras. Además, según las declaraciones corporativas de Palantir, están planeando dar un gran impulso a su división militar y compartir este tipo de sistemas con sus clientes (obviamente, reducidos a aliados del Tío Sam).




Conozca al Saker Scout

En un hecho sin precedentes, los desarrolladores ucranianos han confirmado que sus drones ya realizan ataques autónomos contra las fuerzas rusas sin operadores humanos. Esto marca un hito importante en la guerra, ya que es el primer uso confirmado de esta tecnología en combate. Hace ya algunos meses que oímos hablar de este sistema en las noticias.

Esta maravilla impulsada por IA puede:

  • Identificar y atacar 64 tipos diferentes de objetivos militares rusos

  • Operar en zonas con fuertes interferencias de radio

  • Transportar hasta 3 kilos de explosivos

  • Recorrer aproximadamente 12 kilómetros


El Saker Scout no trabaja solo. Está integrado con el sistema de inteligencia Delta de Ucrania, creando un mapa completo del campo de batalla mediante la fusión de datos de diversas fuentes. Esta integración permite

  • Reconocimiento autónomo de zonas

  • Identificación rápida de posiciones enemigas

  • Reducción drástica del tiempo de análisis

  • Capacidad de ataque autónomo


Quizás lo más controvertido sea que el Saker Scout puede realizar ataques totalmente autónomos. Sin embargo, este punto merece una breve explicación. El sistema Saker no es un sistema plug & play en el que el dron decide desde el campo de batalla a qué enemigo atacar. No. La realidad es un poco diferente: debido a las defensas electromagnéticas (jamming), los drones de ambos bandos no pueden acercarse a la línea de frente de sus enemigos sin ser detectados, o sin que sus comunicaciones sean suprimidas debido al jamming. Así que los ucranianos diseñaron una solución muy inteligente. Un piloto humano puede volar hasta la zona donde comienza el bloqueo, e incluso elegir algún lugar del campo enemigo para atacar. Entonces, el soldado puede cambiar el modo de vuelo a autónomo, y el sistema Saker guiará el dron hasta el objetivo que el soldado señaló un minuto antes. De este modo, las interferencias no pueden detener a los drones. Obviamente, los robots no pueden decidir a qué enemigo atacar. El robot aéreo puede volar de forma autónoma menos de 1 km normalmente, y esta táctica se denomina autonomía terminal.

Aunque de momento esta capacidad sólo se ha utilizado a pequeña escala, plantea importantes cuestiones éticas y preocupaciones sobre el futuro de la guerra.

Curiosamente, la empresa Saker no nació de necesidades militares. Fundada en 2021, en un principio se centró en el desarrollo de IA asequible para pequeñas empresas, especialmente en agricultura. Sin embargo, la invasión rusa provocó un rápido giro hacia las aplicaciones militares.



Conclusión

Toda la nueva vigilancia masiva desarrollada para esta guerra está haciendo que muchas armas tradicionales, como los tanques, no se acerquen a menos de 8-10 km del frente, ya que son detectadas inmediatamente: las viejas tácticas de guerra se están quedando obsoletas.

Mientras Ucrania sigue desplegando estos drones dotados de inteligencia artificial, el mundo observa atentamente. El uso de armas autónomas en combate ya no es un escenario hipotético: está ocurriendo ahora. Una cosa es segura: el genio ha salido de la botella. Los sistemas basados en IA como Delta, MetaConstellation y Saker han llegado para quedarse y están cambiando nuestra forma de entender la guerra moderna. Mientras observamos cómo evolucionan estas tecnologías en los campos de batalla de Ucrania, vislumbramos los conflictos venideros, para bien o para mal.




Comparte:

25/8/24

La búsqueda del gadget que sustituirá al teléfono móvil

Este verano me ha venido a la mente en varias ocasiones un nuevo gadget que Apple lanzó al mercado hace unos meses. Lo han llamado Vision Pro y son unas gafas de realidad mixta que permiten al usuario sumergirse en una mezcla entre realidad real y virtual. Seguro que una imagen del producto lo explicará mucho mejor que yo.




Sin embargo, no deja de llamarme la atención esta imagen extraída del vídeo de presentación de este producto, en el que se ve a un padre que lleva esas gafas y está grabando a su hija. Qué ironía.



Y no soy el único, ya que enseguida aparecieron comentarios sobre dicha escena, y lo absurdo que es que en el cumpleaños de tus hijos lleves puesto un casco que te aísle del mundo. ¡Y pagando 3.500$ por el cacharro!

Hace unos meses, las redes sociales clamaban en contra de las pantallas y su uso en educación, a la par que se lanzaban obras de investigadores en psicología alertando de la supuesta conexión entre el uso de internet y el suicidio entre adolescentes. Pero sobre los adultos no se decía nada, esa debía de ser la ventaja.

El caso es que las Vision Pro volvieron a aparecer en noticias para anunciar que muchos usuarios estaban devolviendo las gafas a los pocos días de recibirlas, ya que les provocaba mareos. Y no nos debería extrañar, ya que la cinetosis que provoca las náuseas y los mareos en realidad virtual se conoce desde hace algunas décadas, y se pueden encontrar muchas noticias en la web (aquí o aquí, como muestra) sobre los problemas que tenían este tipo de gafas para no provocar estas desagradables sensaciones. Precisamente, la última vez que se mencionó este tema fue cuando Meta intentó poner de moda su famoso Metaverso y sus gafas Oculus Rift.

Por mucho marketing y mucha ciencia, aún hay quien no quiere aprender, y Meta sigue intentando desarrollar unas nuevas gafas de esas con las que uno podría usar para bucear, pero también ha creado en colaboración con Ray-Ban unas gafas "normales" que permiten grabar y hacer fotos a todo lo que te rodee.

Sin ninguna duda, las grandes empresas Big Tech están persiguiendo ser las primeras en diseñar- o provocar que nos guste- cómo será el próximo dispositivo de electrónica de consumo que sustituya al smartphone, y ha habido varios ejemplos sobre ello: aparte de estas gafas de realidad mixta que combinarían una gran cantidad de capacidades de la IA generativa y liberar las manos, Samsung ha probado a desarrollar un anillo, el pin de Humane y el Rabbit R1. En palabras del experto en tecnología, Antonio Ortiz:

En las últimas semanas, la recepción de dos propuestas de nuevo hardware basado en IA - el pin de Humane y el Rabbit R1 - ha estado entre la ridiculización y una decepción poco disimulada. Ambos planteaban la tesis inicial: con los grandes modelos de lenguaje multimodales y su capacidad de procesar la voz, el texto y la imagen, tendremos asistentes con los que manejar el mundo digital. Lo haremos con la voz y sin necesidad de utilizar el teléfono móvil.

Es en este último aspecto donde hay un debate interesante. Escapar del smartphone parece más una necesidad de los fabricantes que algo consecuencia de la base técnica. El punto con las Ray-Ban conectadas de Meta es que son un complemento del teléfono móvil y, no aspirando a sustituirlo, pueden lograr que lo usemos menos. De repente vas haciendo alguna foto o vídeo sin sacarlo del bolsillo.


A casi nadie le está convenciendo estos dispositivos. La narrativa de Apple refleja una visión tecnológica optimista, reminiscente de la era dorada del iPhone: la tecnología digital como herramienta de empoderamiento, creatividad y conexión, que libera y potencia al individuo. Sin embargo, el signo de los tiempos actual ha cambiado. Como en un péndulo, hoy nos encontramos en el extremo opuesto. Hoy, el discurso imperante es que la tecnología nos está volviendo adictos, que era una excusa de las empresas para tenernos permanentemente conectados al trabajo, que estamos generando contenido gratuito para las grandes plataformas de redes sociales, y que encima, nos están vigilando y espiando.

La propuesta de usar gafas de realidad mixta en entornos íntimos como reuniones familiares o entre amigos choca con nuestro sentido común actual. Esto sugiere que Apple podría estar desconectada de las preocupaciones contemporáneas, y que sigue viviendo en la misma época de marketing donde el iPhone lo cambió todo. La sociedad actual busca relaciones humanas y experiencias mundanas menos mediadas por la tecnología, mientras que la realidad aumentada/virtual representa precisamente lo contrario. Y este verano, mientras yo descansaba al aire libre y veía cómo se comportaba la gente, creo que es en lo que no paraba de fijarme, y en la necesidad de experiencias no-digitales que sigue queriendo tener la gente, aún y cuando no suelta su teléfono móvil de la mano.

Establecer nuevos hábitos tecnológicos es un desafío considerable, especialmente cuando se malinterpreta el clima de opinión pública, como parece ser el caso de Apple en esta ocasión.






Comparte:

19/8/24

¿Qué significa en realidad que un software o algoritmo sea interpretable?

Imagina que eres médico y utilizas un sistema de IA de última generación para diagnosticar a tus pacientes. Un día, te dice que un paciente tiene una enfermedad rara, pero cuando le preguntas por qué, simplemente parpadea, incapaz de explicar su razonamiento. Frustrante, ¿verdad? Este escenario puede sonar a ciencia ficción, pero es un reto real en el mundo del aprendizaje automático hoy en día.

Bienvenido al fascinante mundo de la interpretabilidad de modelos, un tema que lleva muchos años dando que hablar en la comunidad de la IA. A medida que los modelos de aprendizaje automático se vuelven más complejos e influyen más en nuestras vidas, nos enfrentamos a una pregunta acuciante: ¿Cómo podemos confiar en las decisiones tomadas por algoritmos que no comprendemos del todo?

En un artículo clásico -muy citado- titulado «The Mythos of Model Interpretability» (2017) el investigador Zachary C. Lipton profundiza en este aspecto crucial. Sostiene que, aunque todo el mundo parece hablar de interpretabilidad, en realidad no tenemos una definición clara y consensuada de lo que significa.


La importancia de la interpretabilidad


Entonces, ¿qué importancia tiene la interpretabilidad? Bueno, resulta que hay varias interpretaciones o motivaciones diferentes para la interpretabilidad en el aprendizaje automático:

Confianza (trust): Queremos estar seguros de que nuestros modelos toman decisiones por las razones correctas. Imaginemos un coche autoconducido que hace un giro brusco: ¿no querríamos saber por qué?

Causalidad (causality): En campos como la medicina, no sólo nos interesan las predicciones, sino entender las causas subyacentes. Una IA capaz de predecir una enfermedad cardiaca es útil, pero una que pueda explicar los factores que la provocan tiene un valor incalculable.

Toma de decisiones justa y ética: Como la IA se utiliza cada vez más en ámbitos delicados como la justicia penal y la aprobación de préstamos, tenemos que asegurarnos de que no perpetúa los prejuicios. Si una IA deniega un préstamo a alguien, tenemos que poder examinar su proceso de toma de decisiones.

Informatividad (informativiness): A veces queremos que nuestros modelos nos enseñen algo nuevo sobre el mundo. Un modelo interpretable puede revelar patrones o relaciones inesperadas en los datos.

Transferibilidad (transferability): Necesitamos saber hasta qué punto nuestros modelos funcionarán bien en situaciones nuevas y ligeramente diferentes. Esto es crucial para desplegar sistemas de IA en el mundo real, donde las condiciones pueden cambiar.


Fuente

Enfoques de la interpretabilidad


Lipton señala que hay distintas formas de lograr la interpretabilidad. Algunos investigadores se centran en hacer más transparente el funcionamiento interno de los modelos, mientras que otros desarrollan técnicas para explicar las decisiones de los modelos a posteriori.

Los enfoques de la transparencia incluyen:

  • Simulabilidad: ¿Puede un ser humano simular todo el modelo?

  • Descomponibilidad: ¿Puede entenderse intuitivamente cada parte del modelo?

  • Transparencia algorítmica: ¿Entendemos cómo funciona el algoritmo de aprendizaje?


Entre los métodos de interpretabilidad post hoc se incluyen:
  • Explicaciones textuales: Generación de explicaciones legibles para el ser humano sobre las decisiones del modelo.

  • Visualización: Creación de representaciones visuales de lo que ha aprendido el modelo.

  • Explicaciones locales: Explicar predicciones individuales en lugar de todo el modelo.

  • Explicación mediante ejemplos: Mostrar casos similares que el modelo utilizó para tomar su decisión.


Curiosamente, el artículo cuestiona algunos supuestos comunes. Por ejemplo, mucha gente cree que los modelos lineales simples son intrínsecamente más interpretables que las redes neuronales complejas. Pero Lipton sostiene que esto no siempre es cierto: depende de lo que entendamos por interpretabilidad y de cómo se utilicen los modelos. Por ejemplo, un modelo lineal con miles de características puede ser más difícil de entender a primera vista que una red neuronal entrenada con datos brutos. La elección entre interpretabilidad y rendimiento no siempre está clara.



El arma de doble filo de la interpretabilidad


Aunque el impulso a favor de la interpretabilidad es generalmente positivo, Lipton advierte de que no está exento de posibles inconvenientes
. Por ejemplo, a veces, hacer que un modelo sea más interpretable puede reducir su precisión. O puede que las explicaciones sencillas nos den una falsa sensación de seguridad sobre los sistemas complejos. O tal vez, quién sabe, un modelo muy interpretable podría revelar información sensible sobre los datos de entrenamiento.

A medida que la IA sigue dando forma a nuestro mundo, tenemos que ser más precisos sobre lo que queremos decir cuando exigimos modelos «interpretables». No se trata sólo de simplificar las cosas, sino de garantizar que nuestros sistemas de IA se ajusten a los valores humanos y sean fiables a la hora de tomar decisiones importantes.

La búsqueda de una IA interpretable es algo más que un reto técnico: es un paso crucial en la creación de sistemas de IA en los que podamos confiar y que podamos utilizar de forma responsable en la sociedad. Mientras seguimos ampliando los límites de lo que la IA puede hacer, también debemos ampliar nuestra comprensión de cómo funciona. Es un viaje que promete no solo hacer que nuestros sistemas de IA sean más fiables, sino también profundizar en nuestra propia comprensión de la toma de decisiones y de la propia inteligencia.





Comparte:

10/8/24

La evolución de la legislación antimonopolio en Estados Unidos: De la Standard Oil a Robert Bork

Esta historia no sólo dio forma a la industria petrolera, sino que también sentó las bases de la legislación antimonopolio en Estados Unidos. Desde las ambiciosas empresas de John D. Rockefeller hasta las influyentes ideas de Robert Bork, la trayectoria de la legislación antimonopolio refleja la lucha constante de la nación por equilibrar los principios del libre mercado con la necesidad de impedir las prácticas monopolísticas. En este post, intento explicar los momentos cruciales de este viaje, demostrando cómo el caso de la Standard Oil se convirtió en un punto de inflexión en la política antimonopolio estadounidense y cómo, décadas más tarde, juristas como Robert Bork replantearon el debate.



El ascenso de la Standard Oil

La historia comienza con John D. Rockefeller, un hombre cuyo nombre se convertiría en sinónimo tanto de inmensa riqueza como de prácticas empresariales controvertidas. Nacido en 1839, Rockefeller demostró desde muy joven una gran perspicacia para los negocios. En 1870 fundó la Standard Oil Company, poniendo en marcha una serie de acontecimientos que remodelarían la economía estadounidense.

El enfoque empresarial de Rockefeller fue revolucionario. Implantó la integración vertical, controlando todos los aspectos del negocio del petróleo, desde la producción hasta la distribución. Esta estrategia, combinada con tácticas agresivas como la fijación de precios predatorios y la obtención de descuentos favorables a los ferrocarriles, permitió a Standard Oil dominar rápidamente el mercado. En la década de 1880, la empresa controlaba aproximadamente el 90% de la producción de petróleo de Estados Unidos.

Aunque los métodos de Rockefeller condujeron a una mayor eficiencia y a precios más bajos para los consumidores, también expulsaron a los competidores y consolidaron el poder de un modo que alarmó a muchos estadounidenses. El auge de la Standard Oil y de otros "trusts" en industrias como el acero y el tabaco provocó una reacción violenta de la opinión pública, que exigió la intervención del gobierno.



La Ley Sherman de Defensa de la Competencia de 1890

En respuesta a la creciente preocupación por los monopolios y el poder que estaba adquiriendo la Standard Oil, el Congreso aprobó la Ley Sherman de Defensa de la Competencia en 1890. Esta legislación histórica declaraba ilegal "todo contrato, combinación en forma de trust o de otro tipo, o conspiración, que restrinja el comercio". También prohibía la monopolización y los intentos de monopolización.

Sin embargo, la amplitud del lenguaje de la Ley Sherman planteó inicialmente problemas para su aplicación. Los tribunales se esforzaban por interpretar sus disposiciones y los primeros casos solían dar lugar a decisiones favorables a las grandes empresas. No fue hasta principios del siglo XX cuando la Ley se utilizó eficazmente contra los grandes trusts, siendo la Standard Oil su objetivo más famoso.

 

El caso del gobierno contra Standard Oil

En 1906, bajo la administración del Presidente Theodore Roosevelt, el gobierno de EE.UU. presentó una demanda contra Standard Oil, alegando violaciones de la Ley Sherman Antimonopolio. El caso acusaba a Standard Oil de utilizar prácticas anticompetitivas para eliminar rivales y mantener su monopolio en la industria petrolera.

Los argumentos del gobierno se centraban en las tácticas comerciales de Standard Oil, que incluían:

  • Precios predatorios para expulsar a los competidores del negocio

  • Formación de empresas fantasma para crear la ilusión de competencia

  • Utilizar su tamaño y poder de mercado para obtener tarifas preferentes de los ferrocarriles

  • Espionaje industrial contra la competencia



La decisión del Tribunal Supremo (1911)

Tras años de batallas legales, el caso llegó al Tribunal Supremo. En una decisión histórica de 1911, el Tribunal dictaminó que Standard Oil había violado la Ley Sherman de Defensa de la Competencia. El Presidente del Tribunal Supremo, Edward White, introdujo el criterio de la "regla de la razón", que establecía que la Ley sólo prohibía las restricciones "irrazonables" del comercio.

El Tribunal ordenó la disolución de Standard Oil en 34 empresas separadas, divididas principalmente por regiones y actividades, incluidas las que se convertirían en ExxonMobil, Chevron y partes de BP, algunas de las cuales son hoy las mayores compañías petroleras del mundo. Esta decisión conmocionó al mundo empresarial estadounidense y sentó un precedente para la futura aplicación de la legislación antimonopolio.

La disolución de la Standard Oil tuvo consecuencias de gran alcance:


  1. Demostró la voluntad y la capacidad del gobierno para desafiar incluso a las empresas más poderosas.

  2. La "regla de la razón" se convirtió en la piedra angular de la legislación antimonopolio, permitiendo un análisis más matizado de las prácticas empresariales.

  3. Desencadenó un periodo de mayor aplicación de la legislación antimonopolio, que influyó en el modo en que las empresas operaban y se estructuraban.

  4. Paradójicamente, la disolución acabó por aumentar la riqueza de los accionistas, incluido el propio Rockefeller, ya que el valor de las empresas separadas creció.


En las décadas posteriores al caso de la Standard Oil, la aplicación de las leyes antimonopolio sufrió altibajos con las cambiantes mareas políticas y teorías económicas. Sin embargo, el principio básico de que los monopolios eran perjudiciales para la economía permaneció prácticamente incontestado hasta la segunda mitad del siglo XX.


Robert Bork y la Escuela Antimonopolio de Chicago

Llegó Robert Bork, un jurista que influiría profundamente en el pensamiento antimonopolio. Bork, que más tarde fue juez federal y nominado sin éxito al Tribunal Supremo, publicó "La paradoja antimonopolio" en 1978. Este libro ponía en tela de juicio muchas suposiciones arraigadas sobre la legislación antimonopolio y sus fines.

Entre los argumentos clave de Bork se encontraban los siguientes:

  • El objetivo principal de la legislación antimonopolio debe ser el bienestar del consumidor, no la protección de los competidores.

  • Muchas fusiones verticales y prácticas que antes se consideraban anticompetitivas podrían en realidad aumentar la eficiencia y beneficiar a los consumidores.

  • La atención debe centrarse en el análisis económico y no en objetivos políticos o sociales.


Bork argumentó que la intención original de la Ley Sherman era proteger el bienestar de los consumidores, no preservar un gran número de pequeñas empresas por su propio bien. Criticó lo que consideraba un exceso de celo en la aplicación de la ley antimonopolio, que paradójicamente podía perjudicar a los consumidores al reducir la eficiencia económica.

Las ideas de Bork, junto con las de otros economistas y juristas de la Escuela de Chicago, cobraron gran fuerza en la década de 1980. Esto condujo a un cambio sustancial en la forma en que los tribunales y los reguladores abordaban los casos antimonopolio:

  • Se pasó de la ilegalidad per se de muchas prácticas a un enfoque más basado en la regla de la razón.

  • Los tribunales empezaron a exigir pruebas más contundentes de los perjuicios causados a los consumidores antes de declarar violaciones de la legislación antimonopolio.

  • Las fusiones y restricciones verticales empezaron a verse con mejores ojos.

  • La defensa de la eficiencia adquirió más peso en el análisis de las fusiones.


Estos cambios se tradujeron en una disminución general de la aplicación de las normas antimonopolio y en un listón más alto para demostrar el daño anticompetitivo. Entre los casos más notables en los que influyó este pensamiento se incluyen la aprobación de varias grandes fusiones y la resolución del largo caso antimonopolio de IBM.


El panorama antimonopolio moderno

En la actualidad, el ámbito de la legislación antimonopolio sigue evolucionando. Aunque la norma del bienestar del consumidor sigue siendo influyente, cada vez se debate más sobre sus limitaciones, especialmente en la era digital. El auge de gigantes tecnológicos como Google, Amazon y Facebook ha suscitado nuevas preguntas sobre el poder del mercado y la competencia.

Sin embargo, la forma de infringir la ley es ahora diferente en la economía digital. Ahora, los reguladores están preocupados por los siguientes aspectos:

  • Adquisiciones de competidores potenciales: Las grandes empresas tecnológicas han sido acusadas de comprar empresas más pequeñas e innovadoras que podrían haberse convertido en futuros competidores.

  • Efectos de red y dominio del mercado: La naturaleza de las plataformas digitales suele dar lugar a mercados en los que "el ganador se lo lleva todo", lo que dificulta la competencia a los nuevos operadores.

  • Ventajas de los datos: Las enormes cantidades de datos de usuarios recopilados por estas empresas crean importantes barreras de entrada para los competidores potenciales.

  • Autopreferenciación: Acusaciones de que estas empresas favorecen sus propios productos y servicios en sus plataformas, desfavoreciendo a los competidores.


Y algunos ejemplos reales de estas violaciones se han visto en los últimos años:

Las adquisiciones de Facebook:
En 2012, Facebook adquirió Instagram por 1.000 millones de dólares cuando era una app para compartir fotos en crecimiento con 30 millones de usuarios.

En 2014, Facebook compró WhatsApp por 19.000 millones de dólares, afianzando su posición en la mensajería.

Estas adquisiciones son ahora el centro de las demandas antimonopolio presentadas por la FTC y 48 fiscales generales estatales en 2020, alegando que Facebook participó en una estrategia sistemática para eliminar las amenazas a su monopolio.


El dominio de Google en las búsquedas:
El Departamento de Justicia de Estados Unidos presentó una demanda antimonopolio contra Google en 2020, centrada en los acuerdos de Google con fabricantes de teléfonos y navegadores para ser el motor de búsqueda predeterminado.

La demanda alega que estas prácticas perjudican injustamente a motores de búsqueda más pequeños como DuckDuckGo.

El trato de Amazon a los vendedores de terceros:
Amazon ha sido acusada de utilizar datos de terceros vendedores para desarrollar productos de la competencia.
En 2020, la investigación del subcomité antimonopolio de la Cámara de Representantes halló pruebas de que Amazon utilizaba datos de vendedores de terceros para copiar productos y favorecer sus propias ofertas.

Prácticas de Apple en la App Store:
Apple se ha enfrentado a críticas y desafíos legales por sus políticas de la App Store, incluido el requisito de que las aplicaciones utilicen el sistema de pago de Apple para las compras dentro de la aplicación, de las que Apple se lleva una comisión.

Epic Games, el creador de Fortnite, demandó a Apple en 2020 por estas prácticas, lo que desembocó en un sonado proceso judicial.

A medida que nos enfrentamos a estos nuevos desafíos, los principios establecidos en el caso Standard Oil y el marco teórico proporcionado por académicos como Robert Bork siguen informando el debate. Sin embargo, los responsables políticos y los tribunales reconocen cada vez más que estos enfoques tradicionales pueden necesitar ser adaptados o ampliados para abordar eficazmente las características únicas de los mercados digitales.

La rápida evolución de la industria tecnológica y su papel central en la vida moderna garantizan que la legislación antimonopolio seguirá siendo un área crítica y muy debatida de la política económica en los próximos años. Al igual que ocurrió con la Standard Oil hace más de un siglo, las autoridades antimonopolio de hoy se enfrentan a la cuestión de cómo mantener la competitividad de los mercados y proteger el bienestar de los consumidores en una economía dominada por unas pocas empresas poderosas.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons