Inteligencia artificial, robótica, historia y algo más.

25/8/24

La búsqueda del gadget que sustituirá al teléfono móvil

Este verano me ha venido a la mente en varias ocasiones un nuevo gadget que Apple lanzó al mercado hace unos meses. Lo han llamado Vision Pro y son unas gafas de realidad mixta que permiten al usuario sumergirse en una mezcla entre realidad real y virtual. Seguro que una imagen del producto lo explicará mucho mejor que yo.




Sin embargo, no deja de llamarme la atención esta imagen extraída del vídeo de presentación de este producto, en el que se ve a un padre que lleva esas gafas y está grabando a su hija. Qué ironía.



Y no soy el único, ya que enseguida aparecieron comentarios sobre dicha escena, y lo absurdo que es que en el cumpleaños de tus hijos lleves puesto un casco que te aísle del mundo. ¡Y pagando 3.500$ por el cacharro!

Hace unos meses, las redes sociales clamaban en contra de las pantallas y su uso en educación, a la par que se lanzaban obras de investigadores en psicología alertando de la supuesta conexión entre el uso de internet y el suicidio entre adolescentes. Pero sobre los adultos no se decía nada, esa debía de ser la ventaja.

El caso es que las Vision Pro volvieron a aparecer en noticias para anunciar que muchos usuarios estaban devolviendo las gafas a los pocos días de recibirlas, ya que les provocaba mareos. Y no nos debería extrañar, ya que la cinetosis que provoca las náuseas y los mareos en realidad virtual se conoce desde hace algunas décadas, y se pueden encontrar muchas noticias en la web (aquí o aquí, como muestra) sobre los problemas que tenían este tipo de gafas para no provocar estas desagradables sensaciones. Precisamente, la última vez que se mencionó este tema fue cuando Meta intentó poner de moda su famoso Metaverso y sus gafas Oculus Rift.

Por mucho marketing y mucha ciencia, aún hay quien no quiere aprender, y Meta sigue intentando desarrollar unas nuevas gafas de esas con las que uno podría usar para bucear, pero también ha creado en colaboración con Ray-Ban unas gafas "normales" que permiten grabar y hacer fotos a todo lo que te rodee.

Sin ninguna duda, las grandes empresas Big Tech están persiguiendo ser las primeras en diseñar- o provocar que nos guste- cómo será el próximo dispositivo de electrónica de consumo que sustituya al smartphone, y ha habido varios ejemplos sobre ello: aparte de estas gafas de realidad mixta que combinarían una gran cantidad de capacidades de la IA generativa y liberar las manos, Samsung ha probado a desarrollar un anillo, el pin de Humane y el Rabbit R1. En palabras del experto en tecnología, Antonio Ortiz:

En las últimas semanas, la recepción de dos propuestas de nuevo hardware basado en IA - el pin de Humane y el Rabbit R1 - ha estado entre la ridiculización y una decepción poco disimulada. Ambos planteaban la tesis inicial: con los grandes modelos de lenguaje multimodales y su capacidad de procesar la voz, el texto y la imagen, tendremos asistentes con los que manejar el mundo digital. Lo haremos con la voz y sin necesidad de utilizar el teléfono móvil.

Es en este último aspecto donde hay un debate interesante. Escapar del smartphone parece más una necesidad de los fabricantes que algo consecuencia de la base técnica. El punto con las Ray-Ban conectadas de Meta es que son un complemento del teléfono móvil y, no aspirando a sustituirlo, pueden lograr que lo usemos menos. De repente vas haciendo alguna foto o vídeo sin sacarlo del bolsillo.


A casi nadie le está convenciendo estos dispositivos. La narrativa de Apple refleja una visión tecnológica optimista, reminiscente de la era dorada del iPhone: la tecnología digital como herramienta de empoderamiento, creatividad y conexión, que libera y potencia al individuo. Sin embargo, el signo de los tiempos actual ha cambiado. Como en un péndulo, hoy nos encontramos en el extremo opuesto. Hoy, el discurso imperante es que la tecnología nos está volviendo adictos, que era una excusa de las empresas para tenernos permanentemente conectados al trabajo, que estamos generando contenido gratuito para las grandes plataformas de redes sociales, y que encima, nos están vigilando y espiando.

La propuesta de usar gafas de realidad mixta en entornos íntimos como reuniones familiares o entre amigos choca con nuestro sentido común actual. Esto sugiere que Apple podría estar desconectada de las preocupaciones contemporáneas, y que sigue viviendo en la misma época de marketing donde el iPhone lo cambió todo. La sociedad actual busca relaciones humanas y experiencias mundanas menos mediadas por la tecnología, mientras que la realidad aumentada/virtual representa precisamente lo contrario. Y este verano, mientras yo descansaba al aire libre y veía cómo se comportaba la gente, creo que es en lo que no paraba de fijarme, y en la necesidad de experiencias no-digitales que sigue queriendo tener la gente, aún y cuando no suelta su teléfono móvil de la mano.

Establecer nuevos hábitos tecnológicos es un desafío considerable, especialmente cuando se malinterpreta el clima de opinión pública, como parece ser el caso de Apple en esta ocasión.






Comparte:

19/8/24

¿Qué significa en realidad que un software o algoritmo sea interpretable?

Imagina que eres médico y utilizas un sistema de IA de última generación para diagnosticar a tus pacientes. Un día, te dice que un paciente tiene una enfermedad rara, pero cuando le preguntas por qué, simplemente parpadea, incapaz de explicar su razonamiento. Frustrante, ¿verdad? Este escenario puede sonar a ciencia ficción, pero es un reto real en el mundo del aprendizaje automático hoy en día.

Bienvenido al fascinante mundo de la interpretabilidad de modelos, un tema que lleva muchos años dando que hablar en la comunidad de la IA. A medida que los modelos de aprendizaje automático se vuelven más complejos e influyen más en nuestras vidas, nos enfrentamos a una pregunta acuciante: ¿Cómo podemos confiar en las decisiones tomadas por algoritmos que no comprendemos del todo?

En un artículo clásico -muy citado- titulado «The Mythos of Model Interpretability» (2017) el investigador Zachary C. Lipton profundiza en este aspecto crucial. Sostiene que, aunque todo el mundo parece hablar de interpretabilidad, en realidad no tenemos una definición clara y consensuada de lo que significa.


La importancia de la interpretabilidad


Entonces, ¿qué importancia tiene la interpretabilidad? Bueno, resulta que hay varias interpretaciones o motivaciones diferentes para la interpretabilidad en el aprendizaje automático:

Confianza (trust): Queremos estar seguros de que nuestros modelos toman decisiones por las razones correctas. Imaginemos un coche autoconducido que hace un giro brusco: ¿no querríamos saber por qué?

Causalidad (causality): En campos como la medicina, no sólo nos interesan las predicciones, sino entender las causas subyacentes. Una IA capaz de predecir una enfermedad cardiaca es útil, pero una que pueda explicar los factores que la provocan tiene un valor incalculable.

Toma de decisiones justa y ética: Como la IA se utiliza cada vez más en ámbitos delicados como la justicia penal y la aprobación de préstamos, tenemos que asegurarnos de que no perpetúa los prejuicios. Si una IA deniega un préstamo a alguien, tenemos que poder examinar su proceso de toma de decisiones.

Informatividad (informativiness): A veces queremos que nuestros modelos nos enseñen algo nuevo sobre el mundo. Un modelo interpretable puede revelar patrones o relaciones inesperadas en los datos.

Transferibilidad (transferability): Necesitamos saber hasta qué punto nuestros modelos funcionarán bien en situaciones nuevas y ligeramente diferentes. Esto es crucial para desplegar sistemas de IA en el mundo real, donde las condiciones pueden cambiar.


Fuente

Enfoques de la interpretabilidad


Lipton señala que hay distintas formas de lograr la interpretabilidad. Algunos investigadores se centran en hacer más transparente el funcionamiento interno de los modelos, mientras que otros desarrollan técnicas para explicar las decisiones de los modelos a posteriori.

Los enfoques de la transparencia incluyen:

  • Simulabilidad: ¿Puede un ser humano simular todo el modelo?

  • Descomponibilidad: ¿Puede entenderse intuitivamente cada parte del modelo?

  • Transparencia algorítmica: ¿Entendemos cómo funciona el algoritmo de aprendizaje?


Entre los métodos de interpretabilidad post hoc se incluyen:
  • Explicaciones textuales: Generación de explicaciones legibles para el ser humano sobre las decisiones del modelo.

  • Visualización: Creación de representaciones visuales de lo que ha aprendido el modelo.

  • Explicaciones locales: Explicar predicciones individuales en lugar de todo el modelo.

  • Explicación mediante ejemplos: Mostrar casos similares que el modelo utilizó para tomar su decisión.


Curiosamente, el artículo cuestiona algunos supuestos comunes. Por ejemplo, mucha gente cree que los modelos lineales simples son intrínsecamente más interpretables que las redes neuronales complejas. Pero Lipton sostiene que esto no siempre es cierto: depende de lo que entendamos por interpretabilidad y de cómo se utilicen los modelos. Por ejemplo, un modelo lineal con miles de características puede ser más difícil de entender a primera vista que una red neuronal entrenada con datos brutos. La elección entre interpretabilidad y rendimiento no siempre está clara.



El arma de doble filo de la interpretabilidad


Aunque el impulso a favor de la interpretabilidad es generalmente positivo, Lipton advierte de que no está exento de posibles inconvenientes
. Por ejemplo, a veces, hacer que un modelo sea más interpretable puede reducir su precisión. O puede que las explicaciones sencillas nos den una falsa sensación de seguridad sobre los sistemas complejos. O tal vez, quién sabe, un modelo muy interpretable podría revelar información sensible sobre los datos de entrenamiento.

A medida que la IA sigue dando forma a nuestro mundo, tenemos que ser más precisos sobre lo que queremos decir cuando exigimos modelos «interpretables». No se trata sólo de simplificar las cosas, sino de garantizar que nuestros sistemas de IA se ajusten a los valores humanos y sean fiables a la hora de tomar decisiones importantes.

La búsqueda de una IA interpretable es algo más que un reto técnico: es un paso crucial en la creación de sistemas de IA en los que podamos confiar y que podamos utilizar de forma responsable en la sociedad. Mientras seguimos ampliando los límites de lo que la IA puede hacer, también debemos ampliar nuestra comprensión de cómo funciona. Es un viaje que promete no solo hacer que nuestros sistemas de IA sean más fiables, sino también profundizar en nuestra propia comprensión de la toma de decisiones y de la propia inteligencia.





Comparte:

10/8/24

La evolución de la legislación antimonopolio en Estados Unidos: De la Standard Oil a Robert Bork

Esta historia no sólo dio forma a la industria petrolera, sino que también sentó las bases de la legislación antimonopolio en Estados Unidos. Desde las ambiciosas empresas de John D. Rockefeller hasta las influyentes ideas de Robert Bork, la trayectoria de la legislación antimonopolio refleja la lucha constante de la nación por equilibrar los principios del libre mercado con la necesidad de impedir las prácticas monopolísticas. En este post, intento explicar los momentos cruciales de este viaje, demostrando cómo el caso de la Standard Oil se convirtió en un punto de inflexión en la política antimonopolio estadounidense y cómo, décadas más tarde, juristas como Robert Bork replantearon el debate.



El ascenso de la Standard Oil

La historia comienza con John D. Rockefeller, un hombre cuyo nombre se convertiría en sinónimo tanto de inmensa riqueza como de prácticas empresariales controvertidas. Nacido en 1839, Rockefeller demostró desde muy joven una gran perspicacia para los negocios. En 1870 fundó la Standard Oil Company, poniendo en marcha una serie de acontecimientos que remodelarían la economía estadounidense.

El enfoque empresarial de Rockefeller fue revolucionario. Implantó la integración vertical, controlando todos los aspectos del negocio del petróleo, desde la producción hasta la distribución. Esta estrategia, combinada con tácticas agresivas como la fijación de precios predatorios y la obtención de descuentos favorables a los ferrocarriles, permitió a Standard Oil dominar rápidamente el mercado. En la década de 1880, la empresa controlaba aproximadamente el 90% de la producción de petróleo de Estados Unidos.

Aunque los métodos de Rockefeller condujeron a una mayor eficiencia y a precios más bajos para los consumidores, también expulsaron a los competidores y consolidaron el poder de un modo que alarmó a muchos estadounidenses. El auge de la Standard Oil y de otros "trusts" en industrias como el acero y el tabaco provocó una reacción violenta de la opinión pública, que exigió la intervención del gobierno.



La Ley Sherman de Defensa de la Competencia de 1890

En respuesta a la creciente preocupación por los monopolios y el poder que estaba adquiriendo la Standard Oil, el Congreso aprobó la Ley Sherman de Defensa de la Competencia en 1890. Esta legislación histórica declaraba ilegal "todo contrato, combinación en forma de trust o de otro tipo, o conspiración, que restrinja el comercio". También prohibía la monopolización y los intentos de monopolización.

Sin embargo, la amplitud del lenguaje de la Ley Sherman planteó inicialmente problemas para su aplicación. Los tribunales se esforzaban por interpretar sus disposiciones y los primeros casos solían dar lugar a decisiones favorables a las grandes empresas. No fue hasta principios del siglo XX cuando la Ley se utilizó eficazmente contra los grandes trusts, siendo la Standard Oil su objetivo más famoso.

 

El caso del gobierno contra Standard Oil

En 1906, bajo la administración del Presidente Theodore Roosevelt, el gobierno de EE.UU. presentó una demanda contra Standard Oil, alegando violaciones de la Ley Sherman Antimonopolio. El caso acusaba a Standard Oil de utilizar prácticas anticompetitivas para eliminar rivales y mantener su monopolio en la industria petrolera.

Los argumentos del gobierno se centraban en las tácticas comerciales de Standard Oil, que incluían:

  • Precios predatorios para expulsar a los competidores del negocio

  • Formación de empresas fantasma para crear la ilusión de competencia

  • Utilizar su tamaño y poder de mercado para obtener tarifas preferentes de los ferrocarriles

  • Espionaje industrial contra la competencia



La decisión del Tribunal Supremo (1911)

Tras años de batallas legales, el caso llegó al Tribunal Supremo. En una decisión histórica de 1911, el Tribunal dictaminó que Standard Oil había violado la Ley Sherman de Defensa de la Competencia. El Presidente del Tribunal Supremo, Edward White, introdujo el criterio de la "regla de la razón", que establecía que la Ley sólo prohibía las restricciones "irrazonables" del comercio.

El Tribunal ordenó la disolución de Standard Oil en 34 empresas separadas, divididas principalmente por regiones y actividades, incluidas las que se convertirían en ExxonMobil, Chevron y partes de BP, algunas de las cuales son hoy las mayores compañías petroleras del mundo. Esta decisión conmocionó al mundo empresarial estadounidense y sentó un precedente para la futura aplicación de la legislación antimonopolio.

La disolución de la Standard Oil tuvo consecuencias de gran alcance:


  1. Demostró la voluntad y la capacidad del gobierno para desafiar incluso a las empresas más poderosas.

  2. La "regla de la razón" se convirtió en la piedra angular de la legislación antimonopolio, permitiendo un análisis más matizado de las prácticas empresariales.

  3. Desencadenó un periodo de mayor aplicación de la legislación antimonopolio, que influyó en el modo en que las empresas operaban y se estructuraban.

  4. Paradójicamente, la disolución acabó por aumentar la riqueza de los accionistas, incluido el propio Rockefeller, ya que el valor de las empresas separadas creció.


En las décadas posteriores al caso de la Standard Oil, la aplicación de las leyes antimonopolio sufrió altibajos con las cambiantes mareas políticas y teorías económicas. Sin embargo, el principio básico de que los monopolios eran perjudiciales para la economía permaneció prácticamente incontestado hasta la segunda mitad del siglo XX.


Robert Bork y la Escuela Antimonopolio de Chicago

Llegó Robert Bork, un jurista que influiría profundamente en el pensamiento antimonopolio. Bork, que más tarde fue juez federal y nominado sin éxito al Tribunal Supremo, publicó "La paradoja antimonopolio" en 1978. Este libro ponía en tela de juicio muchas suposiciones arraigadas sobre la legislación antimonopolio y sus fines.

Entre los argumentos clave de Bork se encontraban los siguientes:

  • El objetivo principal de la legislación antimonopolio debe ser el bienestar del consumidor, no la protección de los competidores.

  • Muchas fusiones verticales y prácticas que antes se consideraban anticompetitivas podrían en realidad aumentar la eficiencia y beneficiar a los consumidores.

  • La atención debe centrarse en el análisis económico y no en objetivos políticos o sociales.


Bork argumentó que la intención original de la Ley Sherman era proteger el bienestar de los consumidores, no preservar un gran número de pequeñas empresas por su propio bien. Criticó lo que consideraba un exceso de celo en la aplicación de la ley antimonopolio, que paradójicamente podía perjudicar a los consumidores al reducir la eficiencia económica.

Las ideas de Bork, junto con las de otros economistas y juristas de la Escuela de Chicago, cobraron gran fuerza en la década de 1980. Esto condujo a un cambio sustancial en la forma en que los tribunales y los reguladores abordaban los casos antimonopolio:

  • Se pasó de la ilegalidad per se de muchas prácticas a un enfoque más basado en la regla de la razón.

  • Los tribunales empezaron a exigir pruebas más contundentes de los perjuicios causados a los consumidores antes de declarar violaciones de la legislación antimonopolio.

  • Las fusiones y restricciones verticales empezaron a verse con mejores ojos.

  • La defensa de la eficiencia adquirió más peso en el análisis de las fusiones.


Estos cambios se tradujeron en una disminución general de la aplicación de las normas antimonopolio y en un listón más alto para demostrar el daño anticompetitivo. Entre los casos más notables en los que influyó este pensamiento se incluyen la aprobación de varias grandes fusiones y la resolución del largo caso antimonopolio de IBM.


El panorama antimonopolio moderno

En la actualidad, el ámbito de la legislación antimonopolio sigue evolucionando. Aunque la norma del bienestar del consumidor sigue siendo influyente, cada vez se debate más sobre sus limitaciones, especialmente en la era digital. El auge de gigantes tecnológicos como Google, Amazon y Facebook ha suscitado nuevas preguntas sobre el poder del mercado y la competencia.

Sin embargo, la forma de infringir la ley es ahora diferente en la economía digital. Ahora, los reguladores están preocupados por los siguientes aspectos:

  • Adquisiciones de competidores potenciales: Las grandes empresas tecnológicas han sido acusadas de comprar empresas más pequeñas e innovadoras que podrían haberse convertido en futuros competidores.

  • Efectos de red y dominio del mercado: La naturaleza de las plataformas digitales suele dar lugar a mercados en los que "el ganador se lo lleva todo", lo que dificulta la competencia a los nuevos operadores.

  • Ventajas de los datos: Las enormes cantidades de datos de usuarios recopilados por estas empresas crean importantes barreras de entrada para los competidores potenciales.

  • Autopreferenciación: Acusaciones de que estas empresas favorecen sus propios productos y servicios en sus plataformas, desfavoreciendo a los competidores.


Y algunos ejemplos reales de estas violaciones se han visto en los últimos años:

Las adquisiciones de Facebook:
En 2012, Facebook adquirió Instagram por 1.000 millones de dólares cuando era una app para compartir fotos en crecimiento con 30 millones de usuarios.

En 2014, Facebook compró WhatsApp por 19.000 millones de dólares, afianzando su posición en la mensajería.

Estas adquisiciones son ahora el centro de las demandas antimonopolio presentadas por la FTC y 48 fiscales generales estatales en 2020, alegando que Facebook participó en una estrategia sistemática para eliminar las amenazas a su monopolio.


El dominio de Google en las búsquedas:
El Departamento de Justicia de Estados Unidos presentó una demanda antimonopolio contra Google en 2020, centrada en los acuerdos de Google con fabricantes de teléfonos y navegadores para ser el motor de búsqueda predeterminado.

La demanda alega que estas prácticas perjudican injustamente a motores de búsqueda más pequeños como DuckDuckGo.

El trato de Amazon a los vendedores de terceros:
Amazon ha sido acusada de utilizar datos de terceros vendedores para desarrollar productos de la competencia.
En 2020, la investigación del subcomité antimonopolio de la Cámara de Representantes halló pruebas de que Amazon utilizaba datos de vendedores de terceros para copiar productos y favorecer sus propias ofertas.

Prácticas de Apple en la App Store:
Apple se ha enfrentado a críticas y desafíos legales por sus políticas de la App Store, incluido el requisito de que las aplicaciones utilicen el sistema de pago de Apple para las compras dentro de la aplicación, de las que Apple se lleva una comisión.

Epic Games, el creador de Fortnite, demandó a Apple en 2020 por estas prácticas, lo que desembocó en un sonado proceso judicial.

A medida que nos enfrentamos a estos nuevos desafíos, los principios establecidos en el caso Standard Oil y el marco teórico proporcionado por académicos como Robert Bork siguen informando el debate. Sin embargo, los responsables políticos y los tribunales reconocen cada vez más que estos enfoques tradicionales pueden necesitar ser adaptados o ampliados para abordar eficazmente las características únicas de los mercados digitales.

La rápida evolución de la industria tecnológica y su papel central en la vida moderna garantizan que la legislación antimonopolio seguirá siendo un área crítica y muy debatida de la política económica en los próximos años. Al igual que ocurrió con la Standard Oil hace más de un siglo, las autoridades antimonopolio de hoy se enfrentan a la cuestión de cómo mantener la competitividad de los mercados y proteger el bienestar de los consumidores en una economía dominada por unas pocas empresas poderosas.



Comparte:

1/8/24

La falta de validez de los experimentos piloto para medir la semana laboral de cuatro días

La idea de una semana laboral de cuatro días, o la reducción de la jornada laboral por el mismo salario, ha suscitado mucha atención en todo el mundo y se ha hecho cada vez más popular. Varios estudios de investigación han indicado que la jornada laboral reducida puede tener efectos positivos en el bienestar, el empleo, la economía y la productividad, pero también que presenta retos y no es adecuada para todo tipo de empresas.

En los últimos años se ha desarrollado una nueva oleada de programas piloto a pequeña escala que supuestamente ofrecen una mejor comprensión del concepto sobre el terreno. Sin embargo, para proporcionar información creíble y valiosa, los programas piloto deben estar bien diseñados, aplicados y evaluados. Con el fin de estudiarlos en detalle, Hugo Cuello, que es analista político senior español en el Innovation Growth Lab, ha redactado recientemente un informe publicado para la Comisión Europea, centrado en investigar en detalle sus resultados, alcance y limitaciones.

Es importante mencionar que ni el objetivo de este post ni el del "informe" es cuestionar la validez de la semana laboral de cuatro días, sino analizar las características cuantitativas de los proyectos piloto, sus indicadores de impacto y los principales problemas metodológicos, aportando información para que futuros proyectos piloto mejoren el conocimiento en la materia. Al igual que los experimentos de Renta Básica Universal, o cualquier otro experimento socioeconómico, los experimentos deben estar bien diseñados.

En este post, se muestra un resumen de las conclusiones del informe:



1. Un análisis causal deficiente del impacto del programa

El principal problema de los proyectos piloto es que no incluyen ningún análisis experimental o cuasiexperimental para medir el impacto causal del programa. La gran mayoría de los que implicaban al sector privado utilizaban comparaciones antes y después (pre-post) de la introducción de la intervención. Sin embargo, esto no basta para deducir el impacto del programa de cuatro días.

Este débil enfoque para medir la causalidad ha llevado a que cambios no relacionados con el impacto del programa se incluyan erróneamente como parte del efecto de la semana laboral de cuatro días

 

2. Falta de profundidad en el estudio y la información comunicada


Los programas piloto también tienen otros problemas en cuanto a datos y transparencia. De hecho, sólo unos pocos ofrecen información verificable y ninguno se ha publicado en una revista académica, por lo que no se han sometido a las mismas normas rigurosas que se exigen en las publicaciones científicas.

En algunos casos, falta la información estadística más básica, incluido si el resultado es estadísticamente significativo o no. Es decir, si el resultado es causa de error debido a variaciones aleatorias en la muestra. También falta información que cualquier investigador riguroso consideraría esencial, como tablas comparativas de referencia, pruebas de robustez o pruebas de sensibilidad.

Dado que ningún proyecto presentó públicamente un plan de análisis previo antes de lanzar el piloto, no sabemos si los indicadores que comunicaron son todos los que pensaban utilizar originalmente o si sólo se quedaron con los que mostraban los efectos deseados. Al analizar demasiados indicadores, la probabilidad de encontrar resultados positivos por azar es alta.

Por otra parte, los proyectos piloto se basan principalmente en encuestas, centradas en las percepciones de los empleados, que son muy vulnerables a los sesgos y a los errores de información. Algunas preguntas utilizan enfoques retrospectivos (poco aconsejables en el desarrollo de encuestas) para medir la productividad o la satisfacción laboral, pidiendo al empleado que recuerde el ritmo de trabajo antes del piloto y lo compare con el posterior. Algunas de las preguntas planteadas ni siquiera son pertinentes para medir lo que supuestamente intentan observar.
 

 

 3. Falta de referencias para ampliar el programa

Ni las empresas participantes ni sus empleados son una representación completa del tejido empresarial del país. Por ejemplo, en los programas piloto de la 4 Day Week Global, las empresas participantes pertenecen principalmente a los sectores de la informática, las telecomunicaciones y los servicios profesionales. Además, suelen estar mucho más convencidas, motivadas y abiertas al cambio, lo que significa que probablemente ya se encuentran en una senda de crecimiento.

En realidad, los pilotos los desarrollan empresas más o menos comprometidas con la causa. Es lógico, ya que deciden participar voluntariamente. Saber lo que funciona para ese grupo concreto puede aportar valor, pero nos dice muy poco sobre las posibilidades de ampliar la política a escala nacional: Que funcione para ellos no significa que vaya a funcionar para otros. Tampoco nos informa sobre posibles efectos heterogéneos o el efecto en otros sectores, tamaños o modos de gestión.

Por último, los pilotos tampoco ofrecen información sobre los costes reales de la intervención. Las empresas pasaron meses recibiendo formación y tutoría para introducir la semana laboral de cuatro días. Todos estos apoyos tienen costes, además de aquellos en los que incurre la empresa para cambiar sus sistemas internos.

En resumen, los programas piloto adolecen de un mal análisis causal del impacto del programa, falta de transparencia y mal uso de los datos. Además, se realizan con muestras pequeñas, sesgadas y poco representativas. En otras palabras, no aportan valor para saber dónde funciona y dónde no.

De hecho, los pilotos parecen haber sido diseñados con un claro interés propagandístico, mucho más preocupados por convencer que por explicar. Y hasta ahora les ha funcionado bastante bien, ya que es habitual encontrar artículos e informes muy poco críticos con sus resultados. Esto no significa que la semana laboral de cuatro días sea una mala idea, sino que debería investigarse y medirse más.

Una versión más detallada de las conclusiones del informe de Hugo Cuello aparece en el blog español Nada Es Gratis, que puede consultarse libremente.



Hoy en día, la mayoría de las luchas de los trabajadores giran en torno a la mejora de los salarios, las prestaciones o las condiciones de trabajo. Pero hasta la Gran Depresión de los años 30, los movimientos socialistas y obreros también lucharon por reducciones progresivas de la jornada laboral, y lo consiguieron. En el siglo XIX, el movimiento por una jornada laboral de diez horas dio paso a la demanda de ocho horas. Incluso en la década de 1930, la Federación Estadounidense del Trabajo apoyó una ley para reducir la semana laboral a treinta horas. Sin embargo, después de la Segunda Guerra Mundial, por diversas razones, la reducción del trabajo desapareció de la agenda. Se asumió la semana de cuarenta horas y el conflicto se centró en la compensación económica.

Hoy, la eliminación del trabajo asalariado puede parecer un sueño lejano, pero en su día fue el sueño de la izquierda. El movimiento obrero solía exigir jornadas más cortas en lugar de salarios más altos. La gente suponía que el futuro sería como el de los dibujos animados The Jetsons, cuyo protagonista trabaja dos horas a la semana, y el debate giraba en torno a lo que haría la gente después de liberarse del trabajo. En su conferencia "Las posibilidades económicas de nuestros nietos", John Maynard Keynes predijo que, en unas pocas generaciones,


el hombre se enfrentará a su verdadero y permanente problema: cómo utilizar su libertad de las acuciantes preocupaciones económicas, cómo ocupar el ocio, que la ciencia y el interés compuesto habrán ganado para él, para vivir sabia y agradablemente y bien.


Sin embargo, cuidado con el impacto del exceso de tiempo libre sobre la felicidad. Estoy casi convencido de que las utopías imaginarias de desaparición del trabajo no son una tierra de leche y miel. Pero de eso hablaremos en otro post.



Comparte:

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons