Inteligencia artificial, robótica, historia y algo más.

17/9/24

Sobre la posible prohibición de los LLM

Después de tres años, este verano se aprobó la Ley de Inteligencia Artificial, la nueva ley de la UE. Pero la realidad es que el trabajo duro empieza ahora. Aunque la ley entrará en vigor el 1 de agosto de 2024, los ciudadanos de la UE empezarán a ver los cambios a finales de año. Los organismos reguladores tendrán que ponerse en marcha para hacer cumplir la ley como es debido, y las empresas dispondrán de hasta tres años para cumplirla. Hay muchos resúmenes en la red sobre las implicaciones de esta ley, pero haré aquí mi propio resumen para contextualizar este post. Aquí está el texto completo de la ley y una guía útil para navegar por ella. Esto es lo que cambiará (y lo que no) con la Ley de IA:



1. Algunos usos de la IA quedarán prohibidos este mismo año
La Ley impone restricciones a los casos de uso de la IA que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad, la educación y la vigilancia policial. Estos usos quedarán prohibidos a finales de año.

También prohíbe algunos usos que se consideran un «riesgo inaceptable». Entre ellos se incluyen algunos casos de uso bastante extravagantes y ambiguos, como los sistemas de IA que despliegan «técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y dificultar la toma de decisiones informadas», o explotan a personas vulnerables. La Ley de IA también prohíbe los sistemas que infieren características sensibles, como las opiniones políticas o la orientación sexual de alguien, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohíbe la creación de bases de datos de reconocimiento facial mediante el scrapeo de bases de datos de Internet, como hace Clearview AI.

Sin embargo, hay algunas salvedades bastante importantes. Por ejemplo, la Ley de IA no prohíbe de plano los casos de uso controvertidos de la IA, como el reconocimiento facial. Y aunque las empresas y las escuelas no están autorizadas a utilizar software que pretenda reconocer las emociones de las personas, pueden hacerlo si es por razones médicas o de seguridad.


2. Será más obvio cuándo estás interactuando con un sistema de IA
Las empresas tecnológicas estarán obligadas a etiquetar los deepfakes y el contenido generado por IA y notificar a las personas cuando estén interactuando con un chatbot u otro sistema de IA. La Ley de IA también exigirá a las empresas que desarrollen medios generados por IA de forma que sea posible detectarlos. Esta es una noticia prometedora en la lucha contra la desinformación, y dará un gran impulso a la investigación en torno a las marcas de agua y la procedencia de los contenidos.


3. Los ciudadanos podrán denunciar si han sido perjudicados por una IA
La Ley de la IA creará una nueva Oficina Europea de la IA para coordinar el cumplimiento, la aplicación y la ejecución (y están contratando personal). Gracias a la Ley de IA, los ciudadanos de la UE podrán presentar quejas sobre los sistemas de IA cuando sospechen que han sido perjudicados por uno de ellos, y podrán recibir explicaciones sobre por qué los sistemas de IA tomaron las decisiones que tomaron. Es un primer paso importante para dar a las personas más capacidad de actuación en un mundo cada vez más automatizado. Sin embargo, esto requerirá que los ciudadanos tengan un nivel decente de conocimientos sobre IA y sean conscientes de cómo se producen los daños algorítmicos. Para la mayoría de la gente, estos son todavía conceptos muy extraños y abstractos.


4. Las empresas de IA tendrán que ser más transparentes
La mayoría de los usos de la IA no requerirán el cumplimiento de la Ley de IA. Sólo las empresas de IA que desarrollen tecnologías en sectores de «alto riesgo», como infraestructuras críticas o sanidad, tendrán nuevas obligaciones cuando la Ley entre plenamente en vigor dentro de tres años. Entre ellas figuran mejorar la gobernanza de los datos, garantizar la supervisión humana y evaluar cómo afectarán estos sistemas a los derechos de las personas.

Las empresas de IA que desarrollen «modelos de IA de propósito general», como modelos lingüísticos, también tendrán que crear y conservar documentación técnica que muestre cómo construyeron el modelo, cómo respetan la ley de derechos de autor y publicar un resumen disponible públicamente de qué datos de entrenamiento se utilizaron para entrenar el modelo de IA. Otras empresas, por el contrario, simplemente no lanzarán su producto en Europa.

Según la Comisión Europea, «actualmente, se considera que los modelos de IA de propósito general que se entrenaron utilizando una potencia informática total de más de 1025 FLOPs plantean riesgos sistémicos.» (La Orden Ejecutiva de Biden sobre IA se basaba anteriormente en 1026 FLOPs)

También vale la pena señalar que los modelos de IA gratuitos y de código abierto que comparten todos los detalles de cómo se construyó el modelo, incluida su arquitectura, parámetros y ponderaciones, están exentos de muchas de las obligaciones de la Ley de IA. Según esta ley, «específicamente desarrollados y puestos en servicio con el único fin de la investigación y el desarrollo científicos» de sus normas. Aunque esta exención es útil para permitir la investigación científica, los modelos de IA producidos con fines académicos bajo una licencia de código abierto pueden luego ser reutilizados con fines comerciales. Esta disposición crea de hecho una laguna legal por la que los modelos de IA producidos con fines científicos eluden las normas de seguridad que la UE ha creado bajo la creencia de que dichas normas son necesarias para prevenir los daños causados por la IA.


¿Pueden los gobiernos controlar el futuro de la IA? Parece que van a intentarlo

En los 18 meses transcurridos desde que ChatGPT de OpenAI irrumpió en escena, seguido de una oleada de chatbots de IA competidores, el mundo se ha visto inundado de visiones contradictorias sobre nuestro futuro impulsado por la IA. Estas predicciones abarcan desde sueños utópicos hasta pesadillas distópicas, dejando muchas preguntas sin respuesta: ¿Iniciará la IA una nueva era de progreso sin precedentes o nos llevará por el camino de la destrucción social?

Esta constatación ha suscitado intensos debates sobre cómo aprovechar las ventajas de la IA al tiempo que se mitigan sus riesgos. En las últimas semanas se ha producido una oleada de actividad en este ámbito:

¿Podrían los gobiernos prohibir el uso de herramientas de inteligencia artificial?

Un informe encargado por el gobierno estadounidense advierte de los importantes riesgos para la seguridad nacional que plantea la IA y sugiere, entre otras cosas, prohibir la publicación de modelos de código abierto, con penas de cárcel si es necesario.



Un informe encargado por el gobierno de Estados Unidos advierte de los importantes riesgos para la seguridad nacional que plantea la inteligencia artificial. Los tres autores del informe, titulado An Action Plan to Increase the Safety and Security of Advanced AI, trabajaron en él durante más de un año. Hablaron con más de 200 funcionarios, expertos y empleados de empresas líderes en IA, como OpenAI, Google DeepMind, Anthropic y Meta.

No solo eso, sino que EEUU también está considerando restringir la «exportación» a China de modelos de código abierto y propietarios de LLM. Todavía no me he enterado de cómo quieren aplicar esta medida. Y cada vez se encuentran más iniciativas para prohibir las iniciativas de código abierto en todas partes.




Código abierto y LLM

Como hemos mencionado antes, la Ley de IA exime al código abierto del cumplimiento de las normas, aparentemente, pero han creado una enorme complejidad en la consideración de lo que es el código abierto. En realidad, el término «código abierto» no significa nada, y las instituciones especializadas adaptan continuamente las definiciones oficiales. Así que la reglamentación de este concepto puede ser realmente difícil o injusta. Imagino que los legisladores intentan evitar el siguiente escenario:

Esos modelos serán incontrolados, lo que implica una de cuatro subcreencias:
1. Comenzarán su vida como código abierto;
2. Estarán mal controlados por sus creadores de código cerrado;
3. Los desarrolladores de código abierto, como Meta y Mistral, seguirán con entusiasmo a los proveedores de código cerrado y lanzarán modelos con capacidad para causar daños catastróficos como código abierto;
4. Un actor malicioso creará por sí mismo un modelo capaz de causar daños catastróficos.

No puedo imaginar cómo podría ejecutarse esta medida, o incluso cómo podría auditarse con precisión cualquier algoritmo de IA. Si hoy le preguntaras a Sam Altman cómo funciona GPT o1, no te diría nada, a pesar de conocer el código. Como dije en mi último post, la interpretabilidad del código es una idea poliedrica.

Sin embargo, sigo convencido de que los gobiernos no dejarán que esta tecnología sea totalmente libre. ¿Sabías que la NSA está sentada en el consejo de OpenAI? ¿Podría el gobierno decidir que hay que pedir un permiso especial para utilizar una determinada cantidad de potencia de la GPU?

Este asunto no significa que se vaya a multar a un autónomo que desarrolle una aplicación basada en ChatGPT para orientar a los clientes a la hora de comprar un coche. La Comisión Europea en el texto, diferencia claramente entre un sistema de inteligencia artificial y un modelo de inteligencia artificial, y por tanto, esta prohibición está pensada en alguien como Sam Altman, que podría lograr la tan deseada AGI.

Recordemos que hace unas semanas, Twitter fue prohibido en Brasil.





Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons