gadgetsgenial.es

Etiqueta: Departamento de Defensa de EEUU

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

  • Anthropic frente al Pentágono: un ultimátum de 72 horas

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento cuyas consecuencias pueden ser muy serias se desarrolla actualmente entre el Departamento de la Defensa de los EEUU y Anthropic, la startup de inteligencia artificial creadora del chatbot Claude. El Pentágono habría emitido un ultimátum de 72 horas exigiendo que la empresa elimine o flexibilice sus principales barreras de seguridad y permita el uso de su tecnología para “cualquier uso legal” en aplicaciones militares.

    Si Anthropic se niega, podría enfrentar represalias sin precedentes, incluyendo la cancelación de contratos federales y consecuencias en cascada dentro del ecosistema de defensa tecnológica.


    El núcleo del conflicto: “cualquier uso legal”

    El desacuerdo gira en torno al control y los límites éticos del uso de la IA.

    Anthropic ha ofrecido adaptar políticas específicas para el ámbito militar, pero ha marcado dos líneas rojas claras, no usar sus modelos para:

    • Realizar vigilancia masiva doméstica sobre ciudadanos estadounidenses.
    • Crear armas letales completamente autónomas.

    Según los reportes, el CEO de Anthropic, Dario Amodei, se reunió con el secretario de Defensa Pete Hegseth y el CTO del Pentágono Emil Michael para abordar la disputa. El Departamento de Defensa habría considerado medidas agresivas, incluida la invocación de la Defense Production Act, que permite al presidente obligar a empresas privadas a priorizar contratos relacionados con la seguridad nacional.

    Otra posible medida sería designar a Anthropic como “riesgo para la cadena de suministro”, lo que podría forzar a grandes contratistas de defensa a retirar su tecnología de sistemas clasificados.


    El factor IL6 y la ventaja estratégica

    Parte del poder de negociación de Anthropic radicaría en que Claude opera bajo clasificación Impact Level 6 (IL6), el nivel más alto para sistemas en la nube que manejan información militar clasificada.

    Esto lo situaría en el centro de flujos de trabajo altamente sensibles dentro del Pentágono. Desconectarlo podría generar disrupciones significativas, mientras que permitir un uso irrestricto podría entrar en tensión con directivas existentes sobre supervisión humana en sistemas de armas e inteligencia.


    Ajustes internos en medio de la presión

    En paralelo al enfrentamiento con el Pentágono, Anthropic ha modificado su Política de Escalado Responsable (RSP).

    Antes, la empresa prometía detener el entrenamiento de nuevos modelos si no se cumplían ciertos umbrales estrictos de seguridad. Ahora ha sustituido esos “disparadores automáticos” por informes de riesgo y hojas de ruta de transparencia, un enfoque más flexible en un entorno de competencia acelerada.

    El director científico de la compañía, Jared Kaplan, ha señalado que la rapidez con la que avanzan los competidores influyó en esta decisión.


    Una tensión estructural más amplia

    El choque refleja un dilema mayor: cómo equilibrar prioridades de seguridad nacional con gobernanza ética de la IA y autonomía corporativa.

    Para el Pentágono, el acceso a IA de vanguardia puede considerarse una necesidad estratégica. Para Anthropic, mantener control sobre los usos de su tecnología es central para su credibilidad y su identidad como empresa orientada a la seguridad.

    Sea cual sea el desenlace, este episodio marca una nueva etapa en la relación entre Silicon Valley y el aparato de seguridad estadounidense, donde las promesas éticas y las exigencias soberanas empiezan a chocar de forma cada vez más directa.