Inteligencia artificial, robótica, historia y algo más.

9/3/26

Anthropic, Trump y el gran teatro de los principios en Silicon Valley

Hay un relato que circula estos días por los medios tecnológicos: Dario Amodei, CEO de Anthropic, es el héroe que sacrificó contratos millonarios con el Departamento de Defensa estadounidense por sus convicciones éticas. Frente a él, Sam Altman como el pragmático sin escrúpulos que se doblegó ante Trump. Blanco y negro. Bueno y malo. Simple y atractivo.

El problema, como siempre, es que la realidad es más incómoda.



El mártir de los principios selectivos


Empecemos por el elefante en la sala: la negativa de Anthropic al espionaje masivo se aplica, según sus propias publicaciones, específicamente a ciudadanos estadounidenses. No a cualquier persona. A ciudadanos de EE. UU.

Esto no es un detalle menor. Significa que el uso de Claude para vigilancia fuera de territorio americano no parece constituir un problema ético para Anthropic. Que los principios tengan pasaporte es, cuanto menos, una información relevante cuando alguien te presenta a esta empresa como modelo de rectitud tecnológica.

Lo mismo ocurre con las armas autónomas. Anthropic se opone actualmente al uso de Claude en sistemas que identifiquen y disparen a objetivos sin intervención humana. La palabra clave es "actualmente", y está escrito en su manifiesto. Dario Amodei ha sugerido en distintas ocasiones que el modelo simplemente no está preparado técnicamente para ese nivel de autonomía todavía. No que se opongan categóricamente a la letalidad autónoma en el futuro. Es una postura técnica disfrazada de postura ética.

Y hay más: Anthropic no es ajena al sector de defensa. Sus modelos ya han sido utilizados en operaciones militares de alto perfil (la captura de Maduro en Venezuela) como herramienta favorita del ejército estadounidense a través de Palantir. El mártir tiene historial.


Kathy Perry apoyó a Anthropic y eso llevó a cientos de memes y una campaña viral

La jugada de OpenAI: Groucho Marx en el Pentágono


Mientras Anthropic era catalogada como "riesgo para la cadena de suministro" (un castigo que recuerda al trato dado a Huawei), Sam Altman navegó la situación con una habilidad que merece análisis. La diferencia entre ambas empresas no es fundamentalmente moral. Es técnica y política.

Anthropic quería que las restricciones éticas estuvieran incrustadas directamente en el modelo, en su "constitución". Esto implica que el Departamento de Defensa no podría saltárselas aunque quisiera: las limitaciones estarían en el código, no en un contrato. Para la administración Trump, esto es inaceptable. No porque quieran espiar ciudadanos americanos necesariamente, sino porque nadie cede el control operativo de una herramienta militar a los ingenieros de una empresa privada de San Francisco.

OpenAI, en cambio, aceptó un modelo radicalmente distinto: salvaguardas por contrato, no por código. "Usad nuestros modelos, os prometemos que respetaréis las restricciones acordadas." La responsabilidad del cumplimiento recae en el Departamento de Defensa, no en la arquitectura de la IA.

Es la diferencia entre un empleado que te dice "tengo principios que no puedo saltarme" y otro que dice "tengo principios, pero confío en que tú tampoco querrás que los violemos." Trump eligió al segundo. Es comprensible.



¿Quién tiene razón?


Esta es la pregunta que los medios no suelen hacer porque no tiene respuesta limpia. El enfoque de Anthropic con restricciones en el modelo, tiene una lógica de seguridad robusta: si las limitaciones son estructurales, no dependen de la buena voluntad del cliente. En un mundo donde los contratos se reinterpretan y las administraciones cambian, esto no es un detalle menor.

Pero también tiene un problema de arrogancia institucional considerable: implica que Anthropic, una empresa privada, decide unilateralmente qué puede y qué no puede hacer el ejército de la primera potencia mundial. Esa es una posición política, no solo técnica, y tiene consecuencias políticas.

OpenAI cedió el control a cambio de relevancia. Anthropic mantuvo el control a costa de ser excluida. Ninguna de las dos posiciones es obviamente correcta.

Lo que sí es obvio es que el relato del "mártir con principios" es, como mínimo, incompleto. Y que en el tablero real de la IA militar, los principios se negocian, se gradúan por geografía y se posponen cuando la tecnología no está lista.

Bienvenidos a la ética en Silicon Valley.


Ya veremos.


Comparte:

0 comentarios:

Publicar un comentario

Nos leemos:

descripción descripción descripción

Recibe las entradas por correo

En mi mesilla

Blog Archive

Licencia Creative Commons