
Un enfrentamiento cuyas consecuencias pueden ser muy serias se desarrolla actualmente entre el Departamento de la Defensa de los EEUU y Anthropic, la startup de inteligencia artificial creadora del chatbot Claude. El Pentágono habría emitido un ultimátum de 72 horas exigiendo que la empresa elimine o flexibilice sus principales barreras de seguridad y permita el uso de su tecnología para “cualquier uso legal” en aplicaciones militares.
Si Anthropic se niega, podría enfrentar represalias sin precedentes, incluyendo la cancelación de contratos federales y consecuencias en cascada dentro del ecosistema de defensa tecnológica.
El núcleo del conflicto: “cualquier uso legal”
El desacuerdo gira en torno al control y los límites éticos del uso de la IA.
Anthropic ha ofrecido adaptar políticas específicas para el ámbito militar, pero ha marcado dos líneas rojas claras, no usar sus modelos para:
- Realizar vigilancia masiva doméstica sobre ciudadanos estadounidenses.
- Crear armas letales completamente autónomas.
Según los reportes, el CEO de Anthropic, Dario Amodei, se reunió con el secretario de Defensa Pete Hegseth y el CTO del Pentágono Emil Michael para abordar la disputa. El Departamento de Defensa habría considerado medidas agresivas, incluida la invocación de la Defense Production Act, que permite al presidente obligar a empresas privadas a priorizar contratos relacionados con la seguridad nacional.
Otra posible medida sería designar a Anthropic como “riesgo para la cadena de suministro”, lo que podría forzar a grandes contratistas de defensa a retirar su tecnología de sistemas clasificados.
El factor IL6 y la ventaja estratégica
Parte del poder de negociación de Anthropic radicaría en que Claude opera bajo clasificación Impact Level 6 (IL6), el nivel más alto para sistemas en la nube que manejan información militar clasificada.
Esto lo situaría en el centro de flujos de trabajo altamente sensibles dentro del Pentágono. Desconectarlo podría generar disrupciones significativas, mientras que permitir un uso irrestricto podría entrar en tensión con directivas existentes sobre supervisión humana en sistemas de armas e inteligencia.
Ajustes internos en medio de la presión
En paralelo al enfrentamiento con el Pentágono, Anthropic ha modificado su Política de Escalado Responsable (RSP).
Antes, la empresa prometía detener el entrenamiento de nuevos modelos si no se cumplían ciertos umbrales estrictos de seguridad. Ahora ha sustituido esos “disparadores automáticos” por informes de riesgo y hojas de ruta de transparencia, un enfoque más flexible en un entorno de competencia acelerada.
El director científico de la compañía, Jared Kaplan, ha señalado que la rapidez con la que avanzan los competidores influyó en esta decisión.
Una tensión estructural más amplia
El choque refleja un dilema mayor: cómo equilibrar prioridades de seguridad nacional con gobernanza ética de la IA y autonomía corporativa.
Para el Pentágono, el acceso a IA de vanguardia puede considerarse una necesidad estratégica. Para Anthropic, mantener control sobre los usos de su tecnología es central para su credibilidad y su identidad como empresa orientada a la seguridad.
Sea cual sea el desenlace, este episodio marca una nueva etapa en la relación entre Silicon Valley y el aparato de seguridad estadounidense, donde las promesas éticas y las exigencias soberanas empiezan a chocar de forma cada vez más directa.

Deja una respuesta