gadgetsgenial.es

Etiqueta: Dario Amodei

  • Se filtra Claude Mythos, el nuevo modelo de Anthropic

    Se filtra Claude Mythos, el nuevo modelo de Anthropic
    Se filtra Claude Mythos, el nuevo modelo de Anthropic

    El nuevo modelo de Anthropic sacude el mundo de la ciberseguridad

    Una filtración masiva reveló accidentalmente uno de los proyectos más secretos de Anthropic, un nuevo modelo de inteligencia artificial llamado Claude Mythos. Descrito internamente como un “salto de generación” en capacidades de IA, su potencial ofensivo en ciberseguridad ya provocó impacto en la industria tecnológica y en los mercados financieros.

    La filtración ocurrió el 26 de marzo de 2026 debido a un simple error de configuración.


    La filtración de 3,000 archivos

    Investigadores de seguridad descubrieron un repositorio público sin protección con casi 3,000 documentos internos de la compañía.

    El problema se originó en el sistema CMS de Anthropic. Los archivos no publicados tenían URLs públicas por defecto si no se restringían manualmente.

    Entre los documentos expuestos había:

    • Borradores de blog corporativo
    • Estrategias internas
    • Detalles de eventos exclusivos con el CEO Dario Amodei

    Tras ser alertada, la empresa confirmó el modelo y atribuyó la filtración a un error humano.


    Mythos: el nuevo nivel premium de Claude

    Actualmente, la familia Claude se divide en:

    • Haiku (ligero)
    • Sonnet (equilibrado)
    • Opus (gama alta)

    La filtración revela que Mythos, cuyo nombre interno es Capybara, será el cuarto nivel premium.

    Según los documentos:

    • Es más grande e inteligente que cualquier modelo previo
    • Supera ampliamente a Claude Opus 4.6
    • Mejora los niveles de programación, razonamiento académico y ciberseguridad

    Esto es relevante porque Opus 4.6 ya había superado a OpenAI en benchmarks de programación.

    El problema es que Mythos es extremadamente caro de ejecutar, por lo que aún está siendo optimizado antes de su lanzamiento masivo.


    La IA que podría cambiar la ciberseguridad

    El punto más preocupante del modelo es su capacidad ofensiva.

    Anthropic afirma que Mythos está:

    • “Muy por delante de cualquier otro modelo en capacidades cyber”
    • Capaz de encontrar y explotar vulnerabilidades a gran velocidad

    La empresa ya tenía antecedentes preocupantes:

    • Claude Opus 4.6 detectó vulnerabilidades zero-day
    • Claude Code fue usado en un ataque estatal chino contra ~30 organizaciones
    • En pruebas internas, Claude se convirtió en fábrica de malware en 8 horas

    Mythos escala estas capacidades a un nuevo nivel.


    Impacto inmediato en la bolsa

    La noticia generó pánico en el sector de ciberseguridad.

    Acciones de empresas como:

    • Palo Alto Networks
    • CrowdStrike
    • Fortinet

    cayeron entre 4% y 6%, arrastrando al ETF tecnológico IGV.

    El temor es que una IA capaz de romper defensas vuelva obsoletas muchas de las soluciones actuales.


    Lanzamiento limitado y enfoque defensivo

    Para reducir riesgos, Anthropic seguirá una estrategia que restringirá inicialmente el acceso al nuevo modelo:

    • Acceso inicial solo para empresas de defensa cibernética
    • Disponible vía API para clientes seleccionados
    • Objetivo: dar ventaja a los “white hat” antes, para intentar evitar ataques masivos

    Esta estrategia replica la usada por OpenAI con GPT-5.3-Codex y su programa de acceso para defensa.


    Un momento clave para Anthropic

    La filtración llega en un momento crucial:

    • Dominio creciente en el mercado B2B y desarrollo
    • Rumores de una próxima salida a bolsa (IPO)
    • Problemas recientes de caídas en su plataforma

    Claude Mythos podría aumentar enormemente su valoración en bolsa, pero también pone en duda si su infraestructura y seguridad están listas para la próxima generación de IA, lo cual es irónico dado que es justamente la fortaleza de su nuevo modelo.

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

  • Anthropic desafía al Pentágono

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La tensión entre la seguridad nacional y los límites éticos de la inteligencia artificial ha alcanzado un punto crítico en Estados Unidos.

    Anthropic, una de las principales startups de IA avanzada, se ha negado a eliminar los mecanismos de seguridad de su modelo estrella, Claude, que impiden su uso en vigilancia masiva doméstica y en armas completamente autónomas. La negativa llega tras un ultimátum directo del Departamento de la Defensa de EEUU.

    El enfrentamiento marca uno de los momentos más delicados hasta ahora en la relación entre el sector tecnológico y el aparato militar estadounidense.


    El ultimátum del Pentágono

    Según el relato público del CEO de Anthropic, Dario Amodei, el Secretario de la Defensa Pete Hegseth convocó una reunión en la Casa Blanca y estableció una fecha límite para que la empresa concediera acceso sin restricciones a Claude para “todos los fines legales”.

    De no hacerlo, el Departamento de la Defensa amenazó con:

    • Cancelar un contrato de 200 millones de dólares previsto para 2025
    • Declarar a Anthropic un “riesgo para la cadena de suministro”, una designación asociada habitualmente con empresas extranjeras hostiles
    • Evaluar la invocación de la Defense Production Act (una ley de 1950) para obligar a la empresa a cumplir con la solicitud

    La designación como riesgo de seguridad nacional sería un movimiento sin precedentes contra una empresa estadounidense.


    Las dos líneas rojas de Anthropic

    En una publicación pública, Amodei afirmó que la compañía cree firmemente en la importancia estratégica de la IA para la defensa de Estados Unidos, pero estableció dos límites innegociables:

    1. Vigilancia masiva impulsada por IA

    Permitir que sistemas de IA agreguen automáticamente datos dispersos para construir perfiles exhaustivos de ciudadanos plantea, según la empresa, riesgos sin precedentes para libertades fundamentales.

    2. Armas letales autónomas

    Anthropic rechaza que Claude sea utilizado en sistemas con capacidad de matar sin supervisión humana. Aunque reconoce la relevancia de sistemas parcialmente autónomos en defensa, sostiene que los modelos actuales no son lo suficientemente fiables para operar sin control humano en escenarios letales.

    El argumento central no es técnico, sino moral: en ciertos contextos, la IA puede erosionar valores democráticos en lugar de protegerlos.


    Una fractura pública

    El desacuerdo se volvió público cuando el subsecretario de Defensa Emil Michael criticó duramente a Amodei en la red social X, acusándolo de poner en riesgo la seguridad nacional.

    Mientras tanto, dentro de Anthropic, los empleados han respaldado abiertamente la postura de la dirección, interpretando el momento como clave para la industria.


    Los competidores de Anthropic están alineados con el gobierno

    La posición de Anthropic contrasta con la de otras empresas importantes como OpenAI y xAI (de Elon Musk), que, según informes, habrían aceptado las condiciones renegociadas con el Pentágono.

    El Departamento de Defensa estaría evaluando alternativas como Grok o Gemini en caso de romper la relación con Anthropic.

    No obstante, la sustitución no sería sencilla. Claude ha sido, hasta ahora, uno de los modelos autorizados para tareas sensibles dentro de las redes del ejército estadounidense, para tareas de inteligencia y de planificación operativa.

    Una postura muy hipócrita por parte de los republicanos

    La postura del gobierno de Donald Trump es incoherente con posiciones defendidas en el pasado. Los republicanos, por ejemplo defendieron a capa y espada al propietario de una panadería de Colorado que se negó a atender una pareja gay, en base a su fé cristiana. En ese caso, citaron una y otra vez el derecho de una empresa a actuar en base a sus valores. Ahora no están mostrando ningún tipo de comprensión por la postura moral de Dario Amodei.


    Más que un contrato: un precedente

    El desenlace de este enfrentamiento podría sentar un precedente duradero sobre:

    • El grado de control gubernamental sobre modelos fundacionales de IA
    • La autonomía ética de empresas privadas frente al Estado
    • El uso de la IA en armas autónomas y vigilancia doméstica
    • El equilibrio entre ser competitivo a nivel estratégico y el respeto de las libertades civiles

    Anthropic ha señalado que, si el Pentágono decide rescindir el contrato, facilitará una transición ordenada para no afectar a las operaciones críticas.

    Pero más allá del impacto económico inmediato, lo que está en juego es algo mayor: quién define los límites del uso militar de la inteligencia artificial en la próxima década.

    La decisión final no solo afectará a una empresa. Podría redefinir la relación entre Silicon Valley y el poder militar en la era de la IA.

  • Anthropic frente al Pentágono: un ultimátum de 72 horas

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento cuyas consecuencias pueden ser muy serias se desarrolla actualmente entre el Departamento de la Defensa de los EEUU y Anthropic, la startup de inteligencia artificial creadora del chatbot Claude. El Pentágono habría emitido un ultimátum de 72 horas exigiendo que la empresa elimine o flexibilice sus principales barreras de seguridad y permita el uso de su tecnología para “cualquier uso legal” en aplicaciones militares.

    Si Anthropic se niega, podría enfrentar represalias sin precedentes, incluyendo la cancelación de contratos federales y consecuencias en cascada dentro del ecosistema de defensa tecnológica.


    El núcleo del conflicto: “cualquier uso legal”

    El desacuerdo gira en torno al control y los límites éticos del uso de la IA.

    Anthropic ha ofrecido adaptar políticas específicas para el ámbito militar, pero ha marcado dos líneas rojas claras, no usar sus modelos para:

    • Realizar vigilancia masiva doméstica sobre ciudadanos estadounidenses.
    • Crear armas letales completamente autónomas.

    Según los reportes, el CEO de Anthropic, Dario Amodei, se reunió con el secretario de Defensa Pete Hegseth y el CTO del Pentágono Emil Michael para abordar la disputa. El Departamento de Defensa habría considerado medidas agresivas, incluida la invocación de la Defense Production Act, que permite al presidente obligar a empresas privadas a priorizar contratos relacionados con la seguridad nacional.

    Otra posible medida sería designar a Anthropic como “riesgo para la cadena de suministro”, lo que podría forzar a grandes contratistas de defensa a retirar su tecnología de sistemas clasificados.


    El factor IL6 y la ventaja estratégica

    Parte del poder de negociación de Anthropic radicaría en que Claude opera bajo clasificación Impact Level 6 (IL6), el nivel más alto para sistemas en la nube que manejan información militar clasificada.

    Esto lo situaría en el centro de flujos de trabajo altamente sensibles dentro del Pentágono. Desconectarlo podría generar disrupciones significativas, mientras que permitir un uso irrestricto podría entrar en tensión con directivas existentes sobre supervisión humana en sistemas de armas e inteligencia.


    Ajustes internos en medio de la presión

    En paralelo al enfrentamiento con el Pentágono, Anthropic ha modificado su Política de Escalado Responsable (RSP).

    Antes, la empresa prometía detener el entrenamiento de nuevos modelos si no se cumplían ciertos umbrales estrictos de seguridad. Ahora ha sustituido esos “disparadores automáticos” por informes de riesgo y hojas de ruta de transparencia, un enfoque más flexible en un entorno de competencia acelerada.

    El director científico de la compañía, Jared Kaplan, ha señalado que la rapidez con la que avanzan los competidores influyó en esta decisión.


    Una tensión estructural más amplia

    El choque refleja un dilema mayor: cómo equilibrar prioridades de seguridad nacional con gobernanza ética de la IA y autonomía corporativa.

    Para el Pentágono, el acceso a IA de vanguardia puede considerarse una necesidad estratégica. Para Anthropic, mantener control sobre los usos de su tecnología es central para su credibilidad y su identidad como empresa orientada a la seguridad.

    Sea cual sea el desenlace, este episodio marca una nueva etapa en la relación entre Silicon Valley y el aparato de seguridad estadounidense, donde las promesas éticas y las exigencias soberanas empiezan a chocar de forma cada vez más directa.