
Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.
El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.
La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.
La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.
El núcleo del conflicto
Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.
Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.
El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.
Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.
Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.
Una respuesta contundente de la Casa Blanca
La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.
Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.
Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.
Reacciones del sector tecnológico y defensores de derechos civiles
La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.
Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.
Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.
Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

