
La tensión entre la seguridad nacional y los límites éticos de la inteligencia artificial ha alcanzado un punto crítico en Estados Unidos.
Anthropic, una de las principales startups de IA avanzada, se ha negado a eliminar los mecanismos de seguridad de su modelo estrella, Claude, que impiden su uso en vigilancia masiva doméstica y en armas completamente autónomas. La negativa llega tras un ultimátum directo del Departamento de la Defensa de EEUU.
El enfrentamiento marca uno de los momentos más delicados hasta ahora en la relación entre el sector tecnológico y el aparato militar estadounidense.
El ultimátum del Pentágono
Según el relato público del CEO de Anthropic, Dario Amodei, el Secretario de la Defensa Pete Hegseth convocó una reunión en la Casa Blanca y estableció una fecha límite para que la empresa concediera acceso sin restricciones a Claude para “todos los fines legales”.
De no hacerlo, el Departamento de la Defensa amenazó con:
- Cancelar un contrato de 200 millones de dólares previsto para 2025
- Declarar a Anthropic un “riesgo para la cadena de suministro”, una designación asociada habitualmente con empresas extranjeras hostiles
- Evaluar la invocación de la Defense Production Act (una ley de 1950) para obligar a la empresa a cumplir con la solicitud
La designación como riesgo de seguridad nacional sería un movimiento sin precedentes contra una empresa estadounidense.
Las dos líneas rojas de Anthropic
En una publicación pública, Amodei afirmó que la compañía cree firmemente en la importancia estratégica de la IA para la defensa de Estados Unidos, pero estableció dos límites innegociables:
1. Vigilancia masiva impulsada por IA
Permitir que sistemas de IA agreguen automáticamente datos dispersos para construir perfiles exhaustivos de ciudadanos plantea, según la empresa, riesgos sin precedentes para libertades fundamentales.
2. Armas letales autónomas
Anthropic rechaza que Claude sea utilizado en sistemas con capacidad de matar sin supervisión humana. Aunque reconoce la relevancia de sistemas parcialmente autónomos en defensa, sostiene que los modelos actuales no son lo suficientemente fiables para operar sin control humano en escenarios letales.
El argumento central no es técnico, sino moral: en ciertos contextos, la IA puede erosionar valores democráticos en lugar de protegerlos.
Una fractura pública
El desacuerdo se volvió público cuando el subsecretario de Defensa Emil Michael criticó duramente a Amodei en la red social X, acusándolo de poner en riesgo la seguridad nacional.
Mientras tanto, dentro de Anthropic, los empleados han respaldado abiertamente la postura de la dirección, interpretando el momento como clave para la industria.
Los competidores de Anthropic están alineados con el gobierno
La posición de Anthropic contrasta con la de otras empresas importantes como OpenAI y xAI (de Elon Musk), que, según informes, habrían aceptado las condiciones renegociadas con el Pentágono.
El Departamento de Defensa estaría evaluando alternativas como Grok o Gemini en caso de romper la relación con Anthropic.
No obstante, la sustitución no sería sencilla. Claude ha sido, hasta ahora, uno de los modelos autorizados para tareas sensibles dentro de las redes del ejército estadounidense, para tareas de inteligencia y de planificación operativa.
Una postura muy hipócrita por parte de los republicanos
La postura del gobierno de Donald Trump es incoherente con posiciones defendidas en el pasado. Los republicanos, por ejemplo defendieron a capa y espada al propietario de una panadería de Colorado que se negó a atender una pareja gay, en base a su fé cristiana. En ese caso, citaron una y otra vez el derecho de una empresa a actuar en base a sus valores. Ahora no están mostrando ningún tipo de comprensión por la postura moral de Dario Amodei.
Más que un contrato: un precedente
El desenlace de este enfrentamiento podría sentar un precedente duradero sobre:
- El grado de control gubernamental sobre modelos fundacionales de IA
- La autonomía ética de empresas privadas frente al Estado
- El uso de la IA en armas autónomas y vigilancia doméstica
- El equilibrio entre ser competitivo a nivel estratégico y el respeto de las libertades civiles
Anthropic ha señalado que, si el Pentágono decide rescindir el contrato, facilitará una transición ordenada para no afectar a las operaciones críticas.
Pero más allá del impacto económico inmediato, lo que está en juego es algo mayor: quién define los límites del uso militar de la inteligencia artificial en la próxima década.
La decisión final no solo afectará a una empresa. Podría redefinir la relación entre Silicon Valley y el poder militar en la era de la IA.

Deja una respuesta