Anthropic es "baneada" por el Pentágono en medio de "disputa ética" sobre uso de IA en guerra y vigilancia social

En una medida que evidencia la creciente tendencia autoritaria de gobiernos, la tensión entre la innovación tecnológica y los "imperativos de seguridad nacional" (ok...), el Departamento de Guerra de EE. UU. (DoW) ha designado oficialmente a Anthropic, empresa ya por todos conocida en inteligencia artificial (IA), como un "riesgo en la cadena de suministro" (supply chain risk). Esta designación, impulsada por el secretario de Defensa de EE. UU., Pete Hegseth, surge tras un estancamiento en las negociaciones sobre el "despliegue ético" de Claude, el modelo de IA insignia de Anthropic, para aplicaciones y usos militares.

La "postura desafiante" de Anthropic

La designación de Anthropic como riesgo en la cadena de suministro se deriva de su negativa a permitir dos usos específicos de su tecnología: la vigilancia masiva doméstica de ciudadanos estadounidenses y el desarrollo de sistemas de armas autónomas. La compañía articuló su postura en un comunicado: "Ninguna cantidad de intimidación o castigo del Departamento de Guerra cambiará nuestra posición sobre la vigilancia masiva doméstica o las armas totalmente autónomas".

La hipocresía -si, también- de Anthropic

Este desacuerdo fundamental sobre los límites éticos de la IA en la "defensa nacional" implica el apoyo de Anthropic al uso de su tecnología en otros países, pero rechaza su aplicación en EEUU por considerarla incompatible con valores democráticos y libertades fundamentales. Las contradicciones y el doble standard se revelan por sí mismos, no?

No es conspiración ni ficción: documentos oficiales

El Departamento de Guerra (antes llamado Departamento de Defensa), insiste en colaborar sólo con empresas que permitan "cualquier uso lícito" de su tecnología, sin "restricciones ideológicas". Un memorándum del Pentágono subraya esta postura: "La Diversidad, Equidad e Inclusión no tienen cabida en el DoW. No emplearemos modelos de IA con 'ajustes' ideológicos que limiten respuestas objetivamente veraces".

Fuente: https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF

La rápida (y teatral) represalia del gobierno

La designación fue parte de una respuesta coordinada. El presidente ordenó via 1 User Only"Social Network" eliminar gradualmente la tecnología de Anthropic en agencias federales dentro de seis meses. El secretario de guerra lo retwitteó (?) en X, exigiendo a contratistas militares cesar toda relación con la empresa.

El funcionario vinculó la medida a la orden presidencial, declarando: "Designamos a Anthropic como Riesgo en la Cadena de Suministro para la Seguridad Nacional". El gobierno actuó con la agilidad de un zero-day exploit, priorizando acción directa sobre formalidades.

Detalles legales que no entendemos

Anthropic calificó la designación de "jurídicamente infundada", argumentando que "10 USC 3252 solo aplica a contratos del DoW, no a otros clientes" (La verdad es que no tengo idea de legislación en EEUU). Este escenario sienta un precedente peligroso: "desacuerdos éticos" podrían convertirse en "riesgos de seguridad nacional" a gusto del gobierno o magnate de turno, pero sus consecuencias afectando al mundo entero. Por ejemplo, potencialmente un dron podría "decidir" atacarte ahora mismo sin orden humana. Si, a ti.

2 CEOs 1 Gov: el camino de OpenAI

En contraste, el CEO de OpenAI, Sam Altman, anunció un acuerdo con el Departamento de Defensa para desplegar sus modelos en redes clasificadas. Ya sabemos el resto de la historia.

Por qué debería importarme?

La disputa trasciende países, política, o lo corporativo: define el futuro de la IA en "seguridad" y guerra. Cientos de empleados de Google y OpenAI exigen solidaridad con Anthropic, resaltando preocupaciones sectoriales. La designación envía un mensaje alarmante: la ética puede subordinarse a la "seguridad nacional". ¿Seguirán otras empresas el "ejemplo" de Anthropic o adaptarán sus principios a contratos gubernamentales? La respuesta define si la IA servirá a la humanidad o se convertirán en herramientas de guerra y vigilancia.

Fuente: The Hacker News

Continuar leyendo:

Nicolás Georger Nicolás Georger Ver más contenido por Nicolás Georger Self-taught IT professional driving innovation & social impact with cybernetics, open source (Linux, Kubernetes), AI & ML.