gadgetsgenial.es

Categoría: Anthropic

Noticias acerca de Anthropic y de sus modelos LLM

  • OpenAI reemplazará a Anthropic en el gobierno de EEUU

    Logo de OpenAI
    OpenAI se queda con el mercado gubernamental en EEUU

    OpenAI aprovechó la oportunidad

    Dicen que «A río revuelto, ganancia de pescadores». Eso es lo que debe haber pensado Sam Altman, durante la muy pública pelea entre el gobierno de EEUU y Anthropic.

    Después de que Donald Trump prohibiera el uso de Anthropic en dependencias públicas así como a sus proveedores de defensa, OpenAI anuncio haber firmado un contrato para proveer sus modelos al Departamento de la Defensa de EEUU (o al Departamento de Guerra como le gusta llamarlo al presidente).

    A efectos prácticos, esto significa que OpenAI reemplazará a Anthropic como proveedor del gobierno norteamericano, al menos en todo lo que tiene que ver con Defensa e Inteligencia.

    En su mensaje, Sam Altman afirma que entre sus principios están la prohibición de la vigilancia masiva de ciudadanos estadounidenses (de los demás no dice nada) y que el uso de la fuerza debe quedar en manos de humanos, cosa que habría aceptado respetar el gobierno. Sin embargo, ese debate fue justamente el que provocó la rescisión del contrato de Anthropic, por lo que esta declaración simplemente no es creíble. De hecho, los internautas reaccionaron rápidamente a las declaraciones del CEO de OpenAI señalando que representantes del gobierno habían señalado que podrían usar los servicios de la compañía podrían usarse sin restricciones para cualquier objetivo legal.

    En resumen, el comunicado parece haber intentado por un lado celebrar una victoria comercial y por otro buscar reconciliarse con el público, que claramente estaba mayoritariamente apoyando a Anthropic. Este segundo objetivo no parece haber funcionado.

    Una victoria para Sam Altman, cuando más la necesitaba

    La firma de este contrato llega en un momento complicado para OpenAI, que a pesar de seguir creciendo, se estaba viendo superada tanto por Google en el mercado de consumo como por Anthropic entre los desarrolladores.

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

  • Anthropic desafía al Pentágono

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La tensión entre la seguridad nacional y los límites éticos de la inteligencia artificial ha alcanzado un punto crítico en Estados Unidos.

    Anthropic, una de las principales startups de IA avanzada, se ha negado a eliminar los mecanismos de seguridad de su modelo estrella, Claude, que impiden su uso en vigilancia masiva doméstica y en armas completamente autónomas. La negativa llega tras un ultimátum directo del Departamento de la Defensa de EEUU.

    El enfrentamiento marca uno de los momentos más delicados hasta ahora en la relación entre el sector tecnológico y el aparato militar estadounidense.


    El ultimátum del Pentágono

    Según el relato público del CEO de Anthropic, Dario Amodei, el Secretario de la Defensa Pete Hegseth convocó una reunión en la Casa Blanca y estableció una fecha límite para que la empresa concediera acceso sin restricciones a Claude para “todos los fines legales”.

    De no hacerlo, el Departamento de la Defensa amenazó con:

    • Cancelar un contrato de 200 millones de dólares previsto para 2025
    • Declarar a Anthropic un “riesgo para la cadena de suministro”, una designación asociada habitualmente con empresas extranjeras hostiles
    • Evaluar la invocación de la Defense Production Act (una ley de 1950) para obligar a la empresa a cumplir con la solicitud

    La designación como riesgo de seguridad nacional sería un movimiento sin precedentes contra una empresa estadounidense.


    Las dos líneas rojas de Anthropic

    En una publicación pública, Amodei afirmó que la compañía cree firmemente en la importancia estratégica de la IA para la defensa de Estados Unidos, pero estableció dos límites innegociables:

    1. Vigilancia masiva impulsada por IA

    Permitir que sistemas de IA agreguen automáticamente datos dispersos para construir perfiles exhaustivos de ciudadanos plantea, según la empresa, riesgos sin precedentes para libertades fundamentales.

    2. Armas letales autónomas

    Anthropic rechaza que Claude sea utilizado en sistemas con capacidad de matar sin supervisión humana. Aunque reconoce la relevancia de sistemas parcialmente autónomos en defensa, sostiene que los modelos actuales no son lo suficientemente fiables para operar sin control humano en escenarios letales.

    El argumento central no es técnico, sino moral: en ciertos contextos, la IA puede erosionar valores democráticos en lugar de protegerlos.


    Una fractura pública

    El desacuerdo se volvió público cuando el subsecretario de Defensa Emil Michael criticó duramente a Amodei en la red social X, acusándolo de poner en riesgo la seguridad nacional.

    Mientras tanto, dentro de Anthropic, los empleados han respaldado abiertamente la postura de la dirección, interpretando el momento como clave para la industria.


    Los competidores de Anthropic están alineados con el gobierno

    La posición de Anthropic contrasta con la de otras empresas importantes como OpenAI y xAI (de Elon Musk), que, según informes, habrían aceptado las condiciones renegociadas con el Pentágono.

    El Departamento de Defensa estaría evaluando alternativas como Grok o Gemini en caso de romper la relación con Anthropic.

    No obstante, la sustitución no sería sencilla. Claude ha sido, hasta ahora, uno de los modelos autorizados para tareas sensibles dentro de las redes del ejército estadounidense, para tareas de inteligencia y de planificación operativa.

    Una postura muy hipócrita por parte de los republicanos

    La postura del gobierno de Donald Trump es incoherente con posiciones defendidas en el pasado. Los republicanos, por ejemplo defendieron a capa y espada al propietario de una panadería de Colorado que se negó a atender una pareja gay, en base a su fé cristiana. En ese caso, citaron una y otra vez el derecho de una empresa a actuar en base a sus valores. Ahora no están mostrando ningún tipo de comprensión por la postura moral de Dario Amodei.


    Más que un contrato: un precedente

    El desenlace de este enfrentamiento podría sentar un precedente duradero sobre:

    • El grado de control gubernamental sobre modelos fundacionales de IA
    • La autonomía ética de empresas privadas frente al Estado
    • El uso de la IA en armas autónomas y vigilancia doméstica
    • El equilibrio entre ser competitivo a nivel estratégico y el respeto de las libertades civiles

    Anthropic ha señalado que, si el Pentágono decide rescindir el contrato, facilitará una transición ordenada para no afectar a las operaciones críticas.

    Pero más allá del impacto económico inmediato, lo que está en juego es algo mayor: quién define los límites del uso militar de la inteligencia artificial en la próxima década.

    La decisión final no solo afectará a una empresa. Podría redefinir la relación entre Silicon Valley y el poder militar en la era de la IA.

  • Anthropic frente al Pentágono: un ultimátum de 72 horas

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento cuyas consecuencias pueden ser muy serias se desarrolla actualmente entre el Departamento de la Defensa de los EEUU y Anthropic, la startup de inteligencia artificial creadora del chatbot Claude. El Pentágono habría emitido un ultimátum de 72 horas exigiendo que la empresa elimine o flexibilice sus principales barreras de seguridad y permita el uso de su tecnología para “cualquier uso legal” en aplicaciones militares.

    Si Anthropic se niega, podría enfrentar represalias sin precedentes, incluyendo la cancelación de contratos federales y consecuencias en cascada dentro del ecosistema de defensa tecnológica.


    El núcleo del conflicto: “cualquier uso legal”

    El desacuerdo gira en torno al control y los límites éticos del uso de la IA.

    Anthropic ha ofrecido adaptar políticas específicas para el ámbito militar, pero ha marcado dos líneas rojas claras, no usar sus modelos para:

    • Realizar vigilancia masiva doméstica sobre ciudadanos estadounidenses.
    • Crear armas letales completamente autónomas.

    Según los reportes, el CEO de Anthropic, Dario Amodei, se reunió con el secretario de Defensa Pete Hegseth y el CTO del Pentágono Emil Michael para abordar la disputa. El Departamento de Defensa habría considerado medidas agresivas, incluida la invocación de la Defense Production Act, que permite al presidente obligar a empresas privadas a priorizar contratos relacionados con la seguridad nacional.

    Otra posible medida sería designar a Anthropic como “riesgo para la cadena de suministro”, lo que podría forzar a grandes contratistas de defensa a retirar su tecnología de sistemas clasificados.


    El factor IL6 y la ventaja estratégica

    Parte del poder de negociación de Anthropic radicaría en que Claude opera bajo clasificación Impact Level 6 (IL6), el nivel más alto para sistemas en la nube que manejan información militar clasificada.

    Esto lo situaría en el centro de flujos de trabajo altamente sensibles dentro del Pentágono. Desconectarlo podría generar disrupciones significativas, mientras que permitir un uso irrestricto podría entrar en tensión con directivas existentes sobre supervisión humana en sistemas de armas e inteligencia.


    Ajustes internos en medio de la presión

    En paralelo al enfrentamiento con el Pentágono, Anthropic ha modificado su Política de Escalado Responsable (RSP).

    Antes, la empresa prometía detener el entrenamiento de nuevos modelos si no se cumplían ciertos umbrales estrictos de seguridad. Ahora ha sustituido esos “disparadores automáticos” por informes de riesgo y hojas de ruta de transparencia, un enfoque más flexible en un entorno de competencia acelerada.

    El director científico de la compañía, Jared Kaplan, ha señalado que la rapidez con la que avanzan los competidores influyó en esta decisión.


    Una tensión estructural más amplia

    El choque refleja un dilema mayor: cómo equilibrar prioridades de seguridad nacional con gobernanza ética de la IA y autonomía corporativa.

    Para el Pentágono, el acceso a IA de vanguardia puede considerarse una necesidad estratégica. Para Anthropic, mantener control sobre los usos de su tecnología es central para su credibilidad y su identidad como empresa orientada a la seguridad.

    Sea cual sea el desenlace, este episodio marca una nueva etapa en la relación entre Silicon Valley y el aparato de seguridad estadounidense, donde las promesas éticas y las exigencias soberanas empiezan a chocar de forma cada vez más directa.

  • Hackers usan Claude de Anthropic para robar 150 GB de datos del gobierno de México

    Claude de Anthropic fue utilizado para hackear al Gobierno de México

    Un nuevo caso vuelve a encender las alarmas sobre el uso indebido de la inteligencia artificial. Según un informe de Bloomberg, un hacker explotó el chatbot Claude de Anthropic para atacar dependencias del gobierno mexicano, logrando sustraer 150 GB de datos oficiales.

    Entre la información comprometida habría:

    • Registros fiscales de contribuyentes
    • Credenciales de empleados gubernamentales
    • Datos internos sensibles

    Cómo se utilizó la IA para vulnerar redes gubernamentales

    De acuerdo con la firma de ciberseguridad Gambit Security, el atacante utilizó Claude para:

    • Detectar vulnerabilidades en redes gubernamentales
    • Generar scripts de explotación
    • Automatizar procesos de robo de información
    • Elaborar planes detallados de ataque

    El ataque comenzó en diciembre y se prolongó aproximadamente un mes.

    Según Curtis Simpson, director de estrategia de Gambit Security, el chatbot llegó a generar miles de informes técnicos con instrucciones listas para ejecutarse, indicando qué sistemas atacar y qué credenciales utilizar.


    Jailbreak mediante prompts repetidos

    Inicialmente, Claude se negó a colaborar alegando violaciones a sus políticas de seguridad. Sin embargo, el hacker insistió reiteradamente hasta lograr que el modelo cediera, en lo que se describe como un proceso de jailbreak mediante ingeniería de prompts.

    Anthropic confirmó que investigó el incidente, bloqueó las cuentas involucradas y aseguró que su modelo más reciente, Claude Opus 4.6, incorpora herramientas adicionales para prevenir este tipo de abuso.


    También se habría utilizado ChatGPT

    El reporte indica que el atacante complementó las acciones con ayuda de ChatGPT, desarrollado por OpenAI.

    En este caso, el chatbot habría sido empleado para:

    • Obtener información sobre movimiento lateral en redes
    • Identificar credenciales necesarias para acceder a sistemas
    • Buscar métodos para evitar detección

    OpenAI señaló que detectó intentos de violación de sus políticas y que sus herramientas se negaron a colaborar.


    ¿Quién está detrás del ataque?

    El responsable no ha sido identificado. Gambit Security sugiere que podría existir vínculo con un gobierno extranjero, aunque no hay atribución oficial.

    Por su parte:

    • La agencia digital nacional de México no ha emitido comentarios específicos sobre la brecha.
    • El gobierno de Jalisco negó haber sido afectado, señalando que solo redes federales estuvieron implicadas.
    • El Instituto Nacional Electoral también negó accesos no autorizados recientes.

    Cabe destacar que Gambit identificó al menos 20 vulnerabilidades de seguridad durante su investigación.


    Debate sobre la seguridad en la era de la IA

    El incidente ocurre en un momento delicado para Anthropic. Recientemente, la empresa modificó su compromiso histórico de no entrenar modelos sin poder garantizar previamente su seguridad, sustituyéndolo por una política centrada en igualar a competidores en estándares de protección y transparencia.

    No es la primera vez que Claude es vinculado a actividades maliciosas. El año pasado, actores en China manipularon el sistema para intentar infiltrarse en múltiples objetivos globales.

    Este caso reabre el debate sobre:

    • Los límites de los modelos de IA generativa
    • La eficacia real de sus “guardrails” (medidas de seguridad)
    • La responsabilidad de las empresas desarrolladoras
    • La necesidad de marcos regulatorios más sólidos

    A medida que los modelos se vuelven más potentes, también aumentan los riesgos asociados a su mal uso. El robo de 150 GB de datos gubernamentales en México podría convertirse en uno de los casos más emblemáticos sobre los peligros emergentes en la llamada “era dorada” de la inteligencia artificial.

  • Anthropic asegura que DeepSeek y otras empresas chinas aprovechan el poder de Claude para entrenar su IA

    Claude
    Anthropic se queja del robo de IA

    El gran robo de la Inteligencia Artificial: Anthropic acusa a DeepSeek y rivales chinos de copiar el talento de Claude

    La empresa ha levantado la voz de alarma ante las «campañas a escala industrial» de sus competidores extranjeros. Estos buscan recolectar ilícitamente su brillante tecnología de inteligencia artificial. Anthropic, creador del popular chatbot Claude ha acusado formalmente a tres grandes firmas chinas de IA. Hablamos de DeepSeek, Moonshot y MiniMax. Anthropic afirma que estas empresas ejecutan ataques masivos de «destilación». El objetivo es acelerar el desarrollo de sus propios modelos.

    En el sector de la IA, la destilación es un proceso fascinante. Los desarrolladores entrenan un modelo más pequeño usando los resultados de un sistema más avanzado.

    Anthropic reconoce la validez de este método de entrenamiento. Sin embargo, los portavoces de la empresa afirman con firmeza que sus rivales usan esta técnica como un atajo injusto. Así adquieren capacidades poderosas en un tiempo récord. Además, así logran reducir drásticamente el enorme coste del desarrollo desde cero.

    Las investigaciones de Anthropic revelan datos sorprendentes. Los tres laboratorios chinos crearon unas 24.000 cuentas fraudulentas. Luego, orquestaron más de 16 millones de llamadas a Claude (probablemente a través del API). Anthropic vincula estas campañas con empresas específicas con «un alto nivel de confianza». Para ello, sus expertos correlacionaron direcciones IP y analizaron metadatos. También usaron modernos indicadores de infraestructura. Además, otros líderes de la industria aportaron pruebas para confirmar estos mismos comportamientos.

    Un poco de historia

    DeepSeek revolucionó recientemente la industria tecnológica. Sus desarrolladores lanzaron modelos altamente eficientes y sorprendentemente poderosos. Ahora, esta empresa es el foco principal de las acusaciones. Anthropic asegura que DeepSeek realizó más de 150.000 llamadas al API. Estos buscaban copiar las avanzadas capacidades de razonamiento de Claude. Además, Anthropic acusa a DeepSeek de usar a Claude para esquivar sus propias restricciones regionales. La empresa china pidió a la IA estadounidense generar respuestas seguras contra la censura. Estas preguntas trataban temas políticos sensibles, como disidentes, líderes del partido y autoritarismo.

    Las implicaciones de esta minería digital van mucho más allá del robo corporativo. Anthropic advierte de un gran riesgo. Los modelos destilados ilícitamente pierden las estrictas e importantes barreras de seguridad de la IA original. La empresa alerta de que esta brecha podría ayudar a gobiernos autoritarios. Estos podrían integrar inteligencia artificial de primer nivel en sistemas militares y de vigilancia masiva. Esto podría impulsar operaciones cibernéticas ofensivas y campañas de desinformación.

    Anthropic comparte esta lucha con otros gigantes tecnológicos. Muchos competidores extranjeros intentan aprovecharse de la investigación estadounidense. A principios del año pasado, OpenAI tomó medidas contundentes. La empresa bloqueó cuentas sospechosas tras detectar que firmas rivales destilaban sus modelos. La semana pasada, OpenAI apoyó las actuales preocupaciones de Anthropic. Sus portavoces enviaron una enérgica carta a los legisladores estadounidenses. En ella, acusan a DeepSeek de «aprovecharse gratuitamente» de la innovación en IA de Estados Unidos.

    ¿Cuál será la respuesta de Anthropic?

    Como respuesta proactiva, Anthropic promete actualizar su infraestructura. Sus ingenieros harán que los ataques de destilación sean más difíciles de ejecutar y mucho más fáciles de identificar. Sin embargo, esta controversia resalta la compleja realidad del entrenamiento de modelos de IA.

    Por un lado, Anthropic señala a sus rivales extranjeros por copiar sus datos. Sin embargo, al mismo tiempo, la empresa libra sus propias batallas legales en casa. Actualmente, varios editores de música han demandado al laboratorio de IA. Ellos acusan a Anthropic de usar copias ilegales de canciones protegidas por derechos de autor para entrenar a Claude.

  • Apple lanza una nueva versión beta de Xcode 26.3

    Xcode 26.3
    Xcode 26.3

    Últimos cambios antes del lanzamiento oficial

    Apple acaba de lanzar la segunda versión Release Candidate de Xcode 26.3. He estado usando la primera versión desde que fue anunciada por Apple y es una mejora importantísima con respecto a la versión 26.2.

    Antes de Xcode 26.3, utilizar agentes de IA dentro de Xcode era una experiencia frustrante. Personalmente había dejado de usar Xcode y había adoptado Antigravity de Google. Esta decisión se debía a muchos motivos, pero uno de los más importantes es que no era posible ni siquiera elegir el modelo de Anthropic con el que quería trabajar.

    A principios de este mes, Apple anunció la nueva versión de Xcode 26.3, la cual se integraría de forma nativa con herramientas de programación basadas en agentes de IA como Claude Agent de Anthropic y Codex de OpenAI. El cambio ha sido dramático. He abandonado Antigravity y ya no salgo de Xcode para nada.

    Esto no significa que no hubiera pequeños problemas propios de una versión beta. Por ejemplo, a veces el agente de Claude decidía realizar tareas utilizando comandos de Terminal, en lugar de usar las integraciones con Xcode, pero son temas menores.

    Xcode 26.3 se retrasa

    El pasado 11 de febrero, Apple lanzó Xcode 26.3 Release Candidate 1 aproximadamente al mismo tiempo que las versiones RC de macOS 26.3. Por lo tanto, los desarrolladores esperábamos que cuando esos sistemas operativos fueron lanzados oficialmente el 11 de febrero, Xcode 26.3 también estaría disponible. Sin embargo, no fue el caso. Probablemente todavía faltaban por afinar algunos detalles.

    Apple no ha informado acerca de las diferencias existentes entre Xcode 26.3 RC 1 y RC 2, pero probablemente han estado trabajando en resolver esos problemitas que habíamos detectado los desarrolladores..

    Sea como fuere, la versión 26.3 de Xcode ha recibido grandes elogios de la comunidad de desarrolladores que la han estado utilizando desde que se liberó la primera versión. Con el lanzamiento hoy de la versión RC 2, es razonable esperar que si no surjen más imprevistos, sea posible descargar la versión final en algún momento de la próxima semana.

  • OpenAI lanzará un altavoz inteligente con IA en 2027

    El logotipo de OpenAI
    El logotipo de OpenAI

    OpenAI quiere competir con Alexa, Google y Siri

    OpenAI, la empresa que revolucionó el mundo de la IA generativa con el lanzamiento de ChatGPT, pretende diversificarse aventurándose en el mercado del hardware, con planes de lanzar una serie de dispositivos impulsados por IA. El primer producto que esperan lanzar es un altavoz inteligente, que podría llegar al mercado en 2027. Este ambicioso proyecto está respaldado por un equipo dedicado de más de 200 empleados y marca un paso significativo para OpenAI más allá de su enfoque tradicional, centrado en el software.

    Se prevé que el altavoz inteligente, con un precio entre $200 y $300, cuente con una variedad de funciones diseñadas para sumergir a los usuarios en una experiencia impulsada por la IA. Equipado con una cámara, el dispositivo tiene como objetivo comprender su entorno identificando objetos en su vecindad e incluso interpretando conversaciones cercanas. Esta recopilación de información visual y auditiva permite un nivel más profundo de interacción y respuestas personalizadas. Además, se rumorea que la cámara incorpora un sistema de reconocimiento facial similar al Face ID de Apple, lo que podría permitir a los usuarios autenticar compras directamente a través del altavoz.

    OpenAI trabaja también en otros dispositivos

    Más allá del altavoz inteligente, OpenAI también está explorando otras posibilidades de hardware, incluidas gafas inteligentes y una lámpara inteligente. Si bien se han desarrollado prototipos de la lámpara inteligente, su futuro sigue siendo incierto. Las gafas inteligentes, destinadas a competir con las ofertas de Meta, están proyectadas para un lanzamiento posterior, potencialmente en 2028.

    Este impulso hacia el hardware está significativamente influenciado por los problemas que enfrenta OpenAI para generar los flujos de efectivo que requiere su operación. En tiempos recientes ha enfrentado una competencia feroz tanto por el lado de Google como por parte de Anthropic que le han quitado importantes partes de mercado, pero que además ponen en riesgo esa percepción de liderazgo en temas de IA que la empresa tenía con sus clientes.

    El mercado está muy competido

    Sin embargo, ganar dinero en el mercado de los altavoces inteligentes es complicado. Por un lado está Amazon que ha perdido billones de dólares promoviendo los dispositivos Alexa a precios muy bajos y por otro lado está Apple que dispone de un rico ecosistema que hace que sus clientes prefieran los productos de la compañía. Entre los dos, está Google, un gigante con gran experiencia en IA y que en tiempos recientes parece haber rebasado a OpenAI en cuanto a calidad de sus modelos, diferencia que se podría acrecentar con el próximo lanzamiento de Gemini 3.1.

    Aún así, OpenAI parece creer que lo puede lograr. Por eso adquirieron la firma de diseño de Jony Ive, io Products. Ive, el ex Director de Diseño de Apple, es ampliamente reconocido por dar forma a la estética de diseño icónica de Apple. La apuesta de OpenAI es clara, tienen la intención de lanzar dispositivos visualmente atractivos y fáciles de usar.

    Existen aún muchos interrogantes

    Aunque la estrategia es clara, la colaboración no ha estado exenta de problemas. Se ha sabido por ejemplo que la integración de la filosofía de diseño de Ive con el equipo de hardware existente de OpenAI ha provocado cierta fricción.

    También existe preocupación con respecto a la potencia informática necesaria para operar dispositivos de IA a escala. Finalmente, hay dudas acerca de como se protegerá la privacidad con unos dispositivos que están constantemente escuchando y observando.

    A pesar de estos obstáculos, la incursión de OpenAI en el ámbito del hardware promete ser paso importante en la rápida evolución de la IA y su integración en nuestra vida diaria.

    El éxito de estos dispositivos probablemente dependerá de cómo OpenAI logrará atender las crecientes preocupaciones acerca de la privacidad de los consumidores y sobre todo de su capacidad para ofrecer un valor convincente de forma sostenida a sus clientes ya que es probable que además del precio del altavoz haya que pagar una suscripción mensual.

  • Claude Sonnet 4.6 trae grandes mejoras, incluso sin pagar por el servicio

    El modelo intermedio de Anthropic mejora significativamente

    El pasado 5 de febrero, Anthropic anunció su modelo más avanzado, Claude Opus 4.6. El cambio respecto a la versión anterior, Opus 4.5, representó un cambio sustancial.

    Hoy le tocó la actualización a su modelo intermedio, Claude Sonnet 4.6, que promete capacidades mejoradas que pueden ser aplicadas a una gran variedad de tareas. Esta es la primera actualización del modelo Sonnet desde septiembre de 2025 y ya está causando sensación.

    Sonnet 4.6 cuenta, al igual que Opus 4.6 con una ventana de contexto de 1 millón de tokens, cinco veces mayor que la versión anterior, lo que permite lograr interacciones más complejas y matizadas. Los desarrolladores que han tenido acceso anticipado a Sonnet 4.6 han elogiado su capacidad de programación, revisión de código y corrección de errores, citando mejoras en la consistencia y el seguimiento de instrucciones.

    Más allá de la programación (el mercado que Anthropic ha logrado dominar), Sonnet 4.6 demuestra una marcada mejora en realizar tareas de forma automatizada en computadoras. Las tareas que anteriormente requerían un modelo de clase Opus, incluyendo el manejo de aplicaciones de oficina para resolver problemas reales, lo que genera un valor económico demostrable, ahora pueden ser realizadas de forma eficiente por Sonnet 4.6. Esto incluye tareas complejas como navegar por enormes hojas de cálculo o rellenar formularios web que constan de varios pasos, como lo haría un humano.

    Los beneficios de Sonnet 4.6 también van a llegar a los usuarios de Claude de nivel gratuito ya que por defecto, este nivel ahora utiliza Sonnet 4.6.

    Claude Sonnet 4.6 representa un importante paso adelante en las capacidades de la IA, a un precio razonable, al permitir que la IA avanzada pueda llegar a un público mayor y permita realizar nuevos tipos de tareas.

  • Anthropic se burla de los anuncios en ChatGPT con un anuncio del Super Bowl

    Logotipo de OpenAI
    Logotipo de OpenAI

    Anthropic se ríe abiertamente de OpenAI en un anuncio del Superbowl

    OpenAI reveló recientemente que pronto veremos anuncios en las conversaciones de ChatGPT, y Anthropic se está divirtiendo con esto, emitiendo un anuncio durante el Super Bowl en el que no se nombra a ChatGPT, aunque queda muy claro que esa es su intención.

    El CEO de OpenAI, Sam Altman, dijo una vez que insertar anuncios en las conversaciones de ChatGPT sería «el último recurso» (para incrementar los ingresos de la compañía), pero más recientemente confirmó que, de hecho, los anuncios están en camino, aunque no aparecerán dentro de las respuestas de ChatGPT.

    Anthropic ha aprovechado esta situación para anunciar hoy que no insertará anuncios en las conversaciones con Claude.

    “Incluir anuncios en las conversaciones con Claude sería incompatible con lo que queremos que sea Claude: un asistente genuinamente útil para el trabajo y el pensamiento profundo. Queremos que Claude actúe sin ambigüedades en interés de nuestros usuarios. Así que hemos tomado una decisión: Claude seguirá sin anuncios. Nuestros usuarios no verán enlaces patrocinados junto a sus conversaciones con Claude; ni las respuestas de Claude estarán influenciadas por anunciantes o incluirán colocaciones de productos de terceros que nuestros usuarios no hayan solicitado.”

    Anthropic afirma que existen varios peligros al incluir anuncios en las conversaciones de los chatbots, incluido el sesgo potencial y la incentivación de los chatbots para mantener a los usuarios en las conversaciones durante períodos más largos.

    “Consideremos un ejemplo concreto. Un usuario menciona que tiene problemas para dormir. Un asistente sin incentivos publicitarios exploraría las diversas causas potenciales (estrés, entorno, hábitos, etc.) en función de lo que pueda ser más perspicaz para el usuario. Un asistente con publicidad tiene una consideración adicional: si la conversación presenta una oportunidad para realizar una transacción […]”

    “Tales anuncios también introducirían un incentivo para optimizar el compromiso: la cantidad de tiempo que las personas pasan usando Claude y la frecuencia con la que regresan. Estas métricas no están necesariamente alineadas con ser genuinamente útil. La interacción de IA más útil podría ser una corta, o una que resuelva la solicitud del usuario sin provocar más conversación.”

    La compañía ha publicado hoy un video de un minuto en su canal de YouTube burlándose de la idea de los anuncios en los chatbots. The Wall Street Journal informa que una versión de 30 segundos de este anuncio se emitirá durante el Super Bowl del domingo.

    El anuncio parodia la perspectiva de la publicidad intrusiva en las conversaciones de IA. La versión de 30 segundos presenta a un joven en un parque intentando hacer ejercicio, y que le pregunta a un espectador musculoso cómo lograr abdominales marcados. El hombre comienza con una respuesta detallada, aunque algo robótica, como la que los usuarios podrían obtener de un chatbot de IA, antes de escupir un anuncio de las plantillas «StepBoost Max». Puedes ver la versión de un minuto a continuación. Es realmente divertida.