Inteligencia artificial, robótica, historia y algo más.

17/9/24

Sobre la posible prohibición de los LLM

Después de tres años, este verano se aprobó la Ley de Inteligencia Artificial, la nueva ley de la UE. Pero la realidad es que el trabajo duro empieza ahora. Aunque la ley entrará en vigor el 1 de agosto de 2024, los ciudadanos de la UE empezarán a ver los cambios a finales de año. Los organismos reguladores tendrán que ponerse en marcha para hacer cumplir la ley como es debido, y las empresas dispondrán de hasta tres años para cumplirla. Hay muchos resúmenes en la red sobre las implicaciones de esta ley, pero haré aquí mi propio resumen para contextualizar este post. Aquí está el texto completo de la ley y una guía útil para navegar por ella. Esto es lo que cambiará (y lo que no) con la Ley de IA:



1. Algunos usos de la IA quedarán prohibidos este mismo año
La Ley impone restricciones a los casos de uso de la IA que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad, la educación y la vigilancia policial. Estos usos quedarán prohibidos a finales de año.

También prohíbe algunos usos que se consideran un «riesgo inaceptable». Entre ellos se incluyen algunos casos de uso bastante extravagantes y ambiguos, como los sistemas de IA que despliegan «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y dificultar la toma de decisiones informadas», o explotan a personas vulnerables. La Ley de IA también prohíbe los sistemas que infieren características sensibles, como las opiniones políticas o la orientación sexual de alguien, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohíbe la creación de bases de datos de reconocimiento facial mediante el scrapeo de bases de datos de Internet, como hace Clearview AI.

Sin embargo, hay algunas salvedades bastante importantes. Por ejemplo, la Ley de IA no prohíbe de plano los casos de uso controvertidos de la IA, como el reconocimiento facial. Y aunque las empresas y las escuelas no están autorizadas a utilizar software que pretenda reconocer las emociones de las personas, pueden hacerlo si es por razones médicas o de seguridad.


2. Será más obvio cuándo estás interactuando con un sistema de IA
Las empresas tecnológicas estarán obligadas a etiquetar los deepfakes y el contenido generado por IA y notificar a las personas cuando estén interactuando con un chatbot u otro sistema de IA. La Ley de IA también exigirá a las empresas que desarrollen medios generados por IA de forma que sea posible detectarlos. Esta es una noticia prometedora en la lucha contra la desinformación, y dará un gran impulso a la investigación en torno a las marcas de agua y la procedencia de los contenidos.


3. Los ciudadanos podrán denunciar si han sido perjudicados por una IA
La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar el cumplimiento, la aplicación y la ejecución (y están contratando personal). Gracias a la Ley de IA, los ciudadanos de la UE podrán presentar quejas sobre los sistemas de IA cuando sospechen que han sido perjudicados por uno de ellos, y podrán recibir explicaciones sobre por qué los sistemas de IA tomaron las decisiones que tomaron. Es un primer paso importante para dar a las personas más capacidad de actuación en un mundo cada vez más automatizado. Sin embargo, esto requerirá que los ciudadanos tengan un nivel decente de conocimientos sobre IA y sean conscientes de cómo se producen los daños algorítmicos. Para la mayoría de la gente, estos son todavía conceptos muy extraños y abstractos.


4. Las empresas de IA tendrán que ser más transparentes
La mayoría de los usos de la IA no requerirán el cumplimiento de la Ley de IA. Sólo las empresas de IA que desarrollen tecnologías en sectores de «alto riesgo», como infraestructuras críticas o sanidad, tendrán nuevas obligaciones cuando la Ley entre plenamente en vigor dentro de tres años. Entre ellas figuran mejorar la gobernanza de los datos, garantizar la supervisión humana y evaluar cómo afectarán estos sistemas a los derechos de las personas.

Las empresas de IA que desarrollen «modelos de IA de propósito general», como modelos lingüísticos, también tendrán que crear y conservar documentación técnica que muestre cómo construyeron el modelo, cómo respetan la ley de derechos de autor y publicar un resumen disponible públicamente de qué datos de entrenamiento se utilizaron para entrenar el modelo de IA. Otras empresas, por el contrario, simplemente no lanzarán su producto en Europa.

Según la Comisión Europea, «actualmente, se considera que los modelos de IA de propósito general que se entrenaron utilizando una potencia informática total de más de 1025 FLOPs plantean riesgos sistémicos.» (La Orden Ejecutiva de Biden sobre IA se basaba anteriormente en 1026 FLOPs)

También vale la pena señalar que los modelos de IA gratuitos y de código abierto que comparten todos los detalles de cómo se construyó el modelo, incluida su arquitectura, parámetros y ponderaciones, están exentos de muchas de las obligaciones de la Ley de IA. Según esta ley, «específicamente desarrollados y puestos en servicio con el único fin de la investigación y el desarrollo científicos» de sus normas. Aunque esta exención es útil para permitir la investigación científica, los modelos de IA producidos con fines académicos bajo una licencia de código abierto pueden luego ser reutilizados con fines comerciales. Esta disposición crea de hecho una laguna legal por la que los modelos de IA producidos con fines científicos eluden las normas de seguridad que la UE ha creado bajo la creencia de que dichas normas son necesarias para prevenir los daños causados por la IA.


¿Pueden los gobiernos controlar el futuro de la IA? Parece que van a intentarlo

En los 18 meses transcurridos desde que ChatGPT de OpenAI irrumpió en escena, seguido de una oleada de chatbots de IA competidores, el mundo se ha visto inundado de visiones contradictorias sobre nuestro futuro impulsado por la IA. Estas predicciones abarcan desde sueños utópicos hasta pesadillas distópicas, dejando muchas preguntas sin respuesta: ¿Iniciará la IA una nueva era de progreso sin precedentes o nos llevará por el camino de la destrucción social?

Esta constatación ha suscitado intensos debates sobre cómo aprovechar las ventajas de la IA al tiempo que se mitigan sus riesgos. En las últimas semanas se ha producido una oleada de actividad en este ámbito:

¿Podrían los gobiernos prohibir el uso de herramientas de inteligencia artificial?

Un informe encargado por el gobierno estadounidense advierte de los importantes riesgos para la seguridad nacional que plantea la IA y sugiere, entre otras cosas, prohibir la publicación de modelos de código abierto, con penas de cárcel si es necesario.



Un informe encargado por el gobierno de Estados Unidos advierte de los importantes riesgos para la seguridad nacional que plantea la inteligencia artificial. Los tres autores del informe, titulado An Action Plan to Increase the Safety and Security of Advanced AI, trabajaron en él durante más de un año. Hablaron con más de 200 funcionarios, expertos y empleados de empresas líderes en IA, como OpenAI, Google DeepMind, Anthropic y Meta.

No solo eso, sino que EEUU también está considerando restringir la «exportación» a China de modelos de código abierto y propietarios de LLM. Todavía no me he enterado de cómo quieren aplicar esta medida. Y cada vez se encuentran más iniciativas para prohibir las iniciativas de código abierto en todas partes.




Código abierto y LLM

Como hemos mencionado antes, la Ley de IA exime al código abierto del cumplimiento de las normas, aparentemente, pero han creado una enorme complejidad en la consideración de lo que es el código abierto. En realidad, el término «código abierto» no significa nada, y las instituciones especializadas adaptan continuamente las definiciones oficiales. Así que la reglamentación de este concepto puede ser realmente difícil o injusta. Imagino que los legisladores intentan evitar el siguiente escenario:

Esos modelos serán incontrolados, lo que implica una de cuatro subcreencias:
1. Comenzarán su vida como código abierto;
2. Estarán mal controlados por sus creadores de código cerrado;
3. Los desarrolladores de código abierto, como Meta y Mistral, seguirán con entusiasmo a los proveedores de código cerrado y lanzarán modelos con capacidad para causar daños catastróficos como código abierto;
4. Un actor malicioso creará por sí mismo un modelo capaz de causar daños catastróficos.

No puedo imaginar cómo podría ejecutarse esta medida, o incluso cómo podría auditarse con precisión cualquier algoritmo de IA. Si hoy le preguntaras a Sam Altman cómo funciona GPT o1, no te diría nada, a pesar de conocer el código. Como dije en mi último post, la interpretabilidad del código es una idea poliedrica.

Sin embargo, sigo convencido de que los gobiernos no dejarán que esta tecnología sea totalmente libre. ¿Sabías que la NSA está sentada en el consejo de OpenAI? ¿Podría el gobierno decidir que hay que pedir un permiso especial para utilizar una determinada cantidad de potencia de la GPU?

Este asunto no significa que se vaya a multar a un autónomo que desarrolle una aplicación basada en ChatGPT para orientar a los clientes a la hora de comprar un coche. La Comisión Europea en el texto, diferencia claramente entre un sistema de inteligencia artificial y un modelo de inteligencia artificial, y por tanto, esta prohibición está pensada en alguien como Sam Altman, que podría lograr la tan deseada AGI.

Recordemos que hace unas semanas, Twitter fue prohibido en Brasil.





Comparte:

8/9/24

La revolución de la IA en el campo de batalla

En la niebla de la guerra, la información es poder. Y en Ucrania, la inteligencia artificial está atravesando esa niebla como nunca antes. El conflicto en curso se ha convertido en un campo de pruebas para los sistemas militares basados en IA, con la plataforma Delta de Ucrania a la cabeza. Junto a ella, la MetaConstellation de Palantir y los innovadores drones Saker están remodelando la forma de librar las guerras en el siglo XXI. Lejos de los robots no realistas e inspirados en Hollywood, la verdadera innovación reside en la gestión de datos. Veamos cómo estas revolucionarias tecnologías están dejando su huella en el campo de batalla.



Delta: El centro de mando ucraniano potenciado por IA

Una de las bazas de Ucrania en la guerra contra Rusia es el sistema Delta, responsable de la obtención de imágenes del campo de batalla en tiempo real. La solución ucraniana se ha integrado, entre otros, con el sistema polaco de control de tiro Topaz.

Delta es un sistema desarrollado en Ucrania, responsable del conocimiento de la situación y la gestión del campo de batalla. Su tarea consiste en procesar datos obtenidos de diversas fuentes (incluidos los proporcionados por países occidentales) y mostrarlos en tiempo real.

De este modo, los mandos ucranianos pueden seguir en directo la situación del campo de batalla. Delta está disponible tanto en ordenadores normales como en tabletas y teléfonos inteligentes. El sistema se considera un eslabón clave de la «cadena de mando» ucraniana (el proceso que va desde la detección del objetivo hasta su destrucción).

Imagine un sistema capaz de seguir los movimientos del enemigo, predecir sus próximos pasos y ayudar a coordinar una respuesta, todo ello en tiempo real. Eso es Delta en pocas palabras. Desarrollado por innovadores militares ucranianos, Delta es esencialmente un «Google para los militares».

Así es como funciona:

  • Recogida de datos: Delta obtiene información de diversas fuentes: drones, satélites, sensores terrestres e incluso redes sociales.

  • Análisis de inteligencia artificial: Los algoritmos de inteligencia artificial del sistema analizan los datos e identifican patrones y posibles amenazas.

  • Visualización: Toda esta información se muestra en una interfaz cartográfica de fácil manejo, que ofrece a los mandos una imagen clara del campo de batalla.

  • Ayuda a la toma de decisiones: Delta no se limita a mostrar lo que está ocurriendo, sino que ayuda a predecir lo que podría ocurrir a continuación, contribuyendo así a la planificación estratégica.


¿Cuál es el impacto? Las fuerzas ucranianas pueden reaccionar más rápida y eficazmente a los movimientos rusos. Es como tener una bola de cristal, pero alimentada por IA de vanguardia en lugar de magia. De alguna manera, este es el uso más puro de la Inteligencia Artificial, ya que se trata de limpiar y procesar datos. Probablemente, el sistema Delta ha sido el primer uso real de la IA en batalla.

Así que es importante entender que el sistema Delta no es un arma autónoma cruel, sino que «sólo» ayuda a tomar decisiones mejores y más rápidas que los humanos. Mi opinión es que es ridículo dejar que una máquina tome decisiones militares, y además, los estados de la OTAN no pueden saltarse la cadena de mando: cada acción tomada en el campo de batalla y sus implicaciones deben estar claramente respaldadas por un equipo humano, y ellos serán los únicos responsables en caso de que algo vaya mal.

Este sistema no se ha inventado en dos días, sino que Ucrania lo ha estado desarrollando a lo largo de los últimos años y presentándolo a sus aliados.




MetaConstelación de Palantir: Ojos en el cielo

Mientras que Delta procesa información procedente de diversas fuentes, MetaConstellation de Palantir se centra en proporcionar inteligencia satelital de primera categoría. Este sistema no se limita a obtener bonitas imágenes del espacio, sino que cambia la forma en que se utilizan los datos de los satélites en la guerra.

MetaConstellation hace algunas cosas clave:

  • Fusión de datos: Combina datos de múltiples fuentes satelitales, incluidos satélites comerciales y gubernamentales.

  • Análisis basado en inteligencia artificial: Al igual que Delta, MetaConstellation utiliza IA para analizar estos datos, detectando cambios y anomalías que los analistas humanos podrían pasar por alto.

  • Información predictiva: El sistema puede ayudar a predecir acontecimientos futuros basándose en patrones observados, lo que proporciona a las fuerzas ucranianas una ventaja estratégica.

Al proporcionar este nivel de conocimiento, MetaConstellation ha desempeñado un papel crucial en importantes operaciones ucranianas, como la liberación de Kherson.

Podría ser una aplicación que cambiara por completo las reglas del juego en futuras guerras. Además, según las declaraciones corporativas de Palantir, están planeando dar un gran impulso a su división militar y compartir este tipo de sistemas con sus clientes (obviamente, reducidos a aliados del Tío Sam).




Conozca al Saker Scout

En un hecho sin precedentes, los desarrolladores ucranianos han confirmado que sus drones ya realizan ataques autónomos contra las fuerzas rusas sin operadores humanos. Esto marca un hito importante en la guerra, ya que es el primer uso confirmado de esta tecnología en combate. Hace ya algunos meses que oímos hablar de este sistema en las noticias.

Esta maravilla impulsada por IA puede:

  • Identificar y atacar 64 tipos diferentes de objetivos militares rusos

  • Operar en zonas con fuertes interferencias de radio

  • Transportar hasta 3 kilos de explosivos

  • Recorrer aproximadamente 12 kilómetros


El Saker Scout no trabaja solo. Está integrado con el sistema de inteligencia Delta de Ucrania, creando un mapa completo del campo de batalla mediante la fusión de datos de diversas fuentes. Esta integración permite

  • Reconocimiento autónomo de zonas

  • Identificación rápida de posiciones enemigas

  • Reducción drástica del tiempo de análisis

  • Capacidad de ataque autónomo


Quizás lo más controvertido sea que el Saker Scout puede realizar ataques totalmente autónomos. Sin embargo, este punto merece una breve explicación. El sistema Saker no es un sistema plug & play en el que el dron decide desde el campo de batalla a qué enemigo atacar. No. La realidad es un poco diferente: debido a las defensas electromagnéticas (jamming), los drones de ambos bandos no pueden acercarse a la línea de frente de sus enemigos sin ser detectados, o sin que sus comunicaciones sean suprimidas debido al jamming. Así que los ucranianos diseñaron una solución muy inteligente. Un piloto humano puede volar hasta la zona donde comienza el bloqueo, e incluso elegir algún lugar del campo enemigo para atacar. Entonces, el soldado puede cambiar el modo de vuelo a autónomo, y el sistema Saker guiará el dron hasta el objetivo que el soldado señaló un minuto antes. De este modo, las interferencias no pueden detener a los drones. Obviamente, los robots no pueden decidir a qué enemigo atacar. El robot aéreo puede volar de forma autónoma menos de 1 km normalmente, y esta táctica se denomina autonomía terminal.

Aunque de momento esta capacidad sólo se ha utilizado a pequeña escala, plantea importantes cuestiones éticas y preocupaciones sobre el futuro de la guerra.

Curiosamente, la empresa Saker no nació de necesidades militares. Fundada en 2021, en un principio se centró en el desarrollo de IA asequible para pequeñas empresas, especialmente en agricultura. Sin embargo, la invasión rusa provocó un rápido giro hacia las aplicaciones militares.



Conclusión

Toda la nueva vigilancia masiva desarrollada para esta guerra está haciendo que muchas armas tradicionales, como los tanques, no se acerquen a menos de 8-10 km del frente, ya que son detectadas inmediatamente: las viejas tácticas de guerra se están quedando obsoletas.

Mientras Ucrania sigue desplegando estos drones dotados de inteligencia artificial, el mundo observa atentamente. El uso de armas autónomas en combate ya no es un escenario hipotético: está ocurriendo ahora. Una cosa es segura: el genio ha salido de la botella. Los sistemas basados en IA como Delta, MetaConstellation y Saker han llegado para quedarse y están cambiando nuestra forma de entender la guerra moderna. Mientras observamos cómo evolucionan estas tecnologías en los campos de batalla de Ucrania, vislumbramos los conflictos venideros, para bien o para mal.




Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons