gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • Anthropic busca atraer a usuarios de la competencia con nueva funcionalidad

    Claude, el nombre del modelo de Anthropic
    Anthropic busca impulsar el uso de Claude entre los usuarios de ChatGPT y Gemini

    Anthropic está aprovechando el auge de popularidad de Claude para lanzar una ofensiva directa contra plataformas rivales como OpenAI (con ChatGPT) y Google (con Gemini).

    En un movimiento estratégico para reducir al mínimo la dificultad que supone cambiar de ecosistema, la compañía ha habilitado su función de memoria para todos los usuarios gratuitos y ha lanzado una herramienta que permite importar fácilmente el historial contextual desde otros chatbots.

    Cambiar de IA sin empezar desde cero

    Uno de los mayores obstáculos para migrar entre asistentes de IA es la pérdida de contexto. Muchos usuarios invierten meses enseñando a su chatbot preferencias de formato, estilo de escritura, lenguajes de programación o detalles personales. Empezar desde cero en otra plataforma no es imposible, pero puede resultar tedioso.

    Para solucionar esto, Anthropic ha creado una herramienta de importación basada en un prompt predefinido. En lugar de requerir integraciones complejas vía API, el usuario solo necesita copiar y pegar un texto en su chatbot actual. Ese prompt instruye al sistema rival para que genere un “dossier” detallado con todo lo que ha aprendido sobre el usuario, organizado en un bloque de código limpio y estructurado.

    El prompt solicita explícitamente que se conserven:

    • Preferencias de tono, formato y estilo (“siempre haz X”, “nunca hagas Y”).
    • Datos personales como nombre, profesión e intereses.
    • Proyectos en curso, objetivos y temas recurrentes.
    • Herramientas, lenguajes y frameworks preferidos.

    Posteriormente, el usuario copia ese bloque de código y lo pega en el contexto de Claude. A partir de ese momento, Claude utilizará esa información importada y asimilada para continuar trabajando con el usuario, manteniendo la experiencia.

    Más acceso y control de privacidad

    Claude ofrecía la función de memoria a suscriptores de pago desde octubre de 2025, pero su expansión al plan gratuito supone un cambio importante en la estrategia de captación de usuarios de Anthropic.

    La función puede activarse desde el menú “Capabilities” en la configuración de Claude. Además, la compañía ha incorporado controles de privacidad robustos: los usuarios pueden pausar temporalmente la memoria sin borrarla, o eliminar completamente los datos almacenados en los servidores de Anthropic.

    Curiosamente, la empresa señala que el prompt de exportación diseñado para migrar datos puede utilizarse, en teoría, para mover información en cualquier dirección entre plataformas de IA que almacenan memoria de contexto (virtualmente todos).

    Aprovechando el momento

    Esta nueva funcionalidad forma parte de una ofensiva más amplia. Tras la decisión de ChatGPT de mostrar anuncios a usuarios gratuitos, Anthropic reiteró públicamente que Claude se mantendrá libre de publicidad. Posteriormente, desbloqueó para usuarios sin suscripción varias funciones antes restringidas, como la creación de archivos, conectores y habilidades adicionales.

    El impulso también ha sido técnico. Con modelos recientes como Opus 4.6 y Sonnet 4.6, que han demostrado ser muy capaces para realizar tareas complejas de programación, análisis de hojas de cálculo y automatización, entre otras.

    Claude ha ganado terreno entre los usuarios más avanzados, quienes la han estado recomendando. Esto explica en parte que la aplicación superó recientemente a ChatGPT en las listas de descargas gratuitas de la App Store, impulsada por herramientas como Claude Code y Claude Cowork. Claro que la otra parte de la explicación es política.

  • La Corte Suprema se pronuncia, el arte generado por IA no puede tener derecho de copyright

    A medida que la inteligencia artificial generativa transforma el panorama creativo, el sistema judicial de Estados Unidos ha trazado una línea clara sobre quién (o qué) puede ser considerado autor de una obra.

    Esta semana, la Corte Suprema de los EEUU se negó a revisar un caso clave sobre si las obras creadas exclusivamente por inteligencia artificial pueden recibir protección por derechos de autor, dejando en pie fallos previos que exigen autoría humana para poder acceder al derecho de copyright.

    La decisión pone fin a una larga batalla legal impulsada por Stephen Thaler, un científico informático residente en Misuri. En 2018, Thaler solicitó el registro federal de derechos de autor para una obra titulada A Recent Entrance to Paradise, una imagen generada, según él mismo afirmó, de manera autónoma por un sistema de IA llamado DABUS, que él mismo había diseñado (este punto es importante). Sin embargo, Thaler presentó la solicitud a nombre de la máquina y no en el suyo (cosa que hubiera sido más razonable, dado que él había creado la máquina).

    La exigencia de que la autoría sea humana

    En 2022, la oficina de derechos de autor de EEUU (United States Copyright Office) rechazó la solicitud, bajo el argumento de que la ley de derechos de autor requiere que la autoría sea humana. Thaler apeló, iniciando un recorrido judicial que avanzó por distintas instancias.

    En 2023, la jueza federal Beryl A. Howell confirmó la decisión administrativa, afirmando que la autoría humana es un “requisito fundamental” del derecho de autor. Posteriormente, la Corte de Apelación del Distrito de Columbia ratificó el fallo en 2025.

    Thaler solicitó entonces la revisión del caso por parte de la Corte Suprema en octubre de ese mismo año. Sin embargo, el máximo tribunal declinó escuchar la apelación, consolidando así la interpretación vigente de que sin intervención humana directa, no existe protección por derechos de autor.

    Impacto en la industria creativa

    El equipo legal de Thaler calificó el asunto como de “importancia primordial” ante el auge explosivo de la IA generativa, argumentando que el requisito estricto de autoría humana podría generar un “efecto disuasorio” en creadores que utilicen herramientas de IA.

    Desde mi punto de vista, hubiera sido peor que la Suprema Corte de Justicia hubiera decidido que una máquina podía ser la titular del derecho de autor. Esto hubiera significado que todas las imágenes de un sistema como Nano Banana Pro podrían ser registradas por Google.

    Por lo tanto, la postura oficial se mantiene firme. El Copyright Act no define explícitamente el término “autor”, pero distintos apartados de la ley han sido interpretados consistentemente como aplicables exclusivamente a personas humanas.

    La controversia no se limita a sistemas totalmente autónomos como DABUS. La Copyright Office también ha rechazado solicitudes de artistas que utilizaron herramientas de texto a imagen como Midjourney, incluso cuando argumentaron que existía una aportación creativa significativa. En 2024, la oficina emitió directrices oficiales aclarando que las obras generadas únicamente a partir de prompts no están protegidas por copyright.

    Un patrón legal más amplio

    Este no es el primer revés legal para Thaler. Anteriormente intentó registrar patentes ante la Oficina de Patentes de eEUU (United States Patent and Trademark Office o USPTO) para invenciones supuestamente creadas por su sistema de IA. La agencia rechazó las solicitudes al determinar que una IA no puede figurar como inventora. La decisión fue confirmada por tribunales federales, y la Corte Suprema también se negó a revisar ese caso.

    En 2024, la USPTO reiteró su postura mediante nuevas directrices: aunque una IA no puede ser reconocida legalmente como inventora, los humanos sí pueden utilizar herramientas basadas en IA para desarrollar invenciones patentables, siempre que exista contribución humana sustancial.

    El marco legal permanece intacto

    Con la negativa de la Corte Suprema a intervenir, el marco jurídico actual se mantiene sin cambios. La tecnología seguirá evolucionando y produciendo obras cada vez más sofisticadas, pero bajo la legislación estadounidense vigente el principio es claro: sin autor humano, no hay derechos de autor.

    El fallo no cierra el debate sobre el papel de la IA en la creación artística, pero sí establece una referencia clara en uno de los temas más complejos de la era digital y es probable que esta decisión sea adoptada por otros países.

  • Qualcomm presenta Snapdragon Wear Elite, para la nueva generación de wearables con IA

    Qualcomm
    Qualcomm presentó su chip Snapdragon Wear Elite

    La industria tecnológica no ha terminado con los dispositivos «vestibles» impulsados por inteligencia artificial. Aunque la primera ola de pines y colgantes con IA no logró despertar el entusiasmo de los consumidores, los grandes actores del sector siguen apostando por este formato. En ese contexto, Qualcomm ha presentado oficialmente el Snapdragon Wear Elite, llevando su marca “Elite”, hasta ahora reservada para portátiles y smartphones de gama alta, directamente a relojes inteligentes y a una nueva generación de gadgets con IA.

    Diseñado tanto para smartwatches premium como para un futuro ecosistema de dispositivos inteligentes, el Snapdragon Wear Elite es lo que Qualcomm denomina un chip “wrist plus” (más allá de la muñeca). No sustituye al W5 Plus, sino que convivirá con él para atender a fabricantes que desarrollen relojes avanzados, pines inteligentes, colgantes con IA y gafas inteligentes sin pantalla.

    Salto masivo en rendimiento y procesamiento de IA

    Fabricado con un proceso eficiente de 3 nanómetros, el Wear Elite representa un salto arquitectónico significativo. Integra una configuración de cinco núcleos: uno de alto rendimiento a 2,1 GHz y cuatro de menor consumo a 1,9 GHz. Según la compañía, esto supone un aumento de hasta cinco veces en el rendimiento de CPU en tareas de un solo hilo (que son las que corren en el hilo de alto rendimiento).

    La GPU también ha sido reforzada, alcanzando hasta siete veces más velocidad que generaciones anteriores y capacidad para manejar animaciones en 1080p a 60 cuadros por segundo.

    Sin embargo, la verdadera novedad es su arquitectura para la inteligencia artificial. El Wear Elite incorpora un sistema de doble NPU (unidad de procesamiento neuronal). Una eNPU se encarga de las tareas de bajo consumo y siempre activas, como reconocimiento de palabras clave, cancelación de ruido y detección de actividad. Para cargas más exigentes entra en acción una NPU Hexagon dedicada, la primera en un chip wearable de Snapdragon, capaz de ejecutar hasta dos mil millones de parámetros completamente en el dispositivo, a un ritmo de 10 tokens por segundo, lo cual no está mal pero tampoco va a impresionar a los usuarios.

    Esto abre la puerta a experiencias de “IA personal” directamente en el wearable: registro continuo de actividades (life logging), recomendaciones contextuales, interacción con el dispositivo mediante voz natural y agentes de IA capaces de gestionar tareas sin depender constantemente de la nube.

    Más batería y conectividad avanzada

    Uno de los mayores retos históricos de los wearables ha sido la autonomía, especialmente al ejecutar funciones intensivas como la IA o la geolocalización. Por eso, Qualcomm ha rediseñado la arquitectura del co-procesador para que el chip principal gestione más funciones de forma eficiente. En este chip, el uso de GPS requiere ahora un 40 % menos de energía.

    En conjunto, la compañía promete hasta un 30 % más de duración de batería, lo que podría traducirse en varios días de uso. Además, el chip soporta la carga rápida de 9V, permitiendo alcanzar el 50 % de batería en apenas 10 minutos.

    En cuanto a conectividad, el Wear Elite es compatible con 5G de capacidad reducida para dispositivos IoT, micro-power Wi-Fi (con consumo muy bajo de energía), NB-NTN para conectividad satelital, Bluetooth 6.0, GNSS (GPS, Galileo, etc.) y Ultra-Wideband (UWB). Para optimizar costos y consumo energético, los fabricantes podrán optar por versiones del chip con o sin determinadas funciones inalámbricas, según las necesidades del dispositivo.

    Ecosistema y competencia en el horizonte

    Qualcomm también apuesta por la flexibilidad en software. Además de ser compatible con Android y Wear OS, el nuevo chip soportará Linux, una decisión estratégica para atraer a startups interesadas en desarrollar pines o colgantes con IA.

    El lanzamiento llega en un momento clave ya que hay muchos proyectos ambiciosos de wearables en marcha.

    • Google ha manifestado su intención de expandir su ecosistema de hardware con IA
    • Hay rumores sobre posibles wearables con IA de Apple
    • Figuras como Jony Ive y Sam Altman han hablado de un futuro proyecto de hardware vinculado a OpenAI.

    En el corto plazo, el mercado de los smartwatches será el primer campo de pruebas. Queda por ver si el Snapdragon Wear Elite dará a los fabricantes de Wear OS la ventaja necesaria para recortar terreno frente al Apple Watch, que mantiene una cuota de mercado superior al 50 %.

    Los consumidores no tendrán que esperar demasiado. Según Qualcomm, los primeros dispositivos con Snapdragon Wear Elite comenzarán a venderse en los próximos meses. También comentaron que socios globales de la compañía como Samsung y Motorola ya están comprometidos con la plataforma.

  • Claude, de Anthropic, alcanza el Nº1 en la App Store de EE.UU. en medio del conflicto con la Casa Blanca

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La reacción del público no se ha hecho esperar. El asistente de inteligencia artificial Claude, desarrollado por Anthropic, escaló hasta el primer puesto de las aplicaciones gratuitas de la App Store de Apple en Estados Unidos este fin de semana, tras la confrontación pública entre la empresa y la administración del presidente Donald Trump que culminó el pasado viernes.

    Lejos de frenar el interés del público, la controversia parece haber impulsado una ola de apoyo. Durante el fin de semana, Claude alcanzó el Nº1 en el ranking de aplicaciones gratuitas de la App Store en EE.UU., superando a OpenAI, cuyo ChatGPT ocupa ahora el segundo puesto, y a Google Gemini, actualmente en tercera posición.

    Hace apenas dos meses, Claude se encontraba en el puesto 42 del ranking de descargas en Estados Unidos. El 30 de enero figuraba en la posición 131, antes de iniciar un ascenso sostenido a lo largo de febrero, según datos de análisis de aplicaciones. Históricamente, ChatGPT ha dominado el primer lugar durante la mayor parte del mes, respaldado por una base global de más de 900 millones de usuarios semanales.

    Anthropic afirma que el aumento de descargas se ha traducido en un crecimiento acelerado. La compañía señala que su base de usuarios gratuitos ha crecido más de un 60% desde enero, que los registros diarios se han triplicado desde noviembre y que esta semana se han marcado récords históricos cada día. Además, el número de suscriptores de pago se ha más que duplicado en lo que va de año, según un portavoz de la empresa.

    En redes sociales se ha observado que muchos usuarios han repudiado el acuerdo firmado por OpenAI con el Departamento de la Defensa de EEUU. Incluso Katy Perry ha participado en el debate publicando el siguiente mensaje en X.

    Se estima que unas 700,000 personas podrían haber protestado de esta manera contra OpenAI. Sin embargo, esto no compensaría las pérdidas sufridas por la cancelación del contrato cancelado por el gobierno de EEUU cuyo valor supera los US$200 millones anuales.

    Fundada en 2021 por ex-empleados de OpenAI, Anthropic ha ganado relevancia en el último año como proveedor de modelos de IA orientados a programación y aplicaciones empresariales. Sin embargo, su enfrentamiento con el gobierno la ha situado en el centro del debate público.

  • OpenAI reemplazará a Anthropic en el gobierno de EEUU

    Logo de OpenAI
    OpenAI se queda con el mercado gubernamental en EEUU

    OpenAI aprovechó la oportunidad

    Dicen que «A río revuelto, ganancia de pescadores». Eso es lo que debe haber pensado Sam Altman, durante la muy pública pelea entre el gobierno de EEUU y Anthropic.

    Después de que Donald Trump prohibiera el uso de Anthropic en dependencias públicas así como a sus proveedores de defensa, OpenAI anuncio haber firmado un contrato para proveer sus modelos al Departamento de la Defensa de EEUU (o al Departamento de Guerra como le gusta llamarlo al presidente).

    A efectos prácticos, esto significa que OpenAI reemplazará a Anthropic como proveedor del gobierno norteamericano, al menos en todo lo que tiene que ver con Defensa e Inteligencia.

    En su mensaje, Sam Altman afirma que entre sus principios están la prohibición de la vigilancia masiva de ciudadanos estadounidenses (de los demás no dice nada) y que el uso de la fuerza debe quedar en manos de humanos, cosa que habría aceptado respetar el gobierno. Sin embargo, ese debate fue justamente el que provocó la rescisión del contrato de Anthropic, por lo que esta declaración simplemente no es creíble. De hecho, los internautas reaccionaron rápidamente a las declaraciones del CEO de OpenAI señalando que representantes del gobierno habían señalado que podrían usar los servicios de la compañía podrían usarse sin restricciones para cualquier objetivo legal.

    En resumen, el comunicado parece haber intentado por un lado celebrar una victoria comercial y por otro buscar reconciliarse con el público, que claramente estaba mayoritariamente apoyando a Anthropic. Este segundo objetivo no parece haber funcionado.

    Una victoria para Sam Altman, cuando más la necesitaba

    La firma de este contrato llega en un momento complicado para OpenAI, que a pesar de seguir creciendo, se estaba viendo superada tanto por Google en el mercado de consumo como por Anthropic entre los desarrolladores.

  • La Administración Trump prohíbe el uso federal de Anthropic y la califica como “riesgo para la cadena de suministro”

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    Un enfrentamiento violento sobre los límites éticos de la inteligencia artificial ha llegado a un punto crítico en Washington.

    El presidente Donald Trump ordenó a todas las agencias federales cesar el uso de los productos de Anthropic, la empresa detrás del chatbot Claude. Poco después, el secretario de Defensa Pete Hegseth elevó la disputa al designar oficialmente a la compañía como un “riesgo para la cadena de suministro” para la seguridad nacional.

    La directiva supone, en la práctica, la exclusión de Anthropic del gobierno federal y prohíbe a cualquier contratista, proveedor o socio militar (como por ejemplo Boeing o Northrop Grumman mantener actividades comerciales con la firma. La medida podría afectar a grandes tecnológicas que integran Claude en contratos federales, como Amazon Web Services y Palantir Technologies.

    La administración ha establecido un periodo de transición de seis meses para que agencias y fuerzas armadas migren a otros proveedores.


    El núcleo del conflicto

    Durante semanas, Anthropic y el Pentágono mantuvieron un pulso en torno a los usos permitidos de la tecnología de IA de la empresa. La disputa se originó tras un memorando emitido en enero por Hegseth en el que exigía que los proveedores de IA autorizaran el uso de sus modelos para “todos los fines lícitos”.

    Para Anthropic, esa cláusula traspasa una línea ética fundamental. Según la compañía, esa redacción podría abrir la puerta al uso de sus modelos para vigilancia masiva en territorio nacional o para el desarrollo de armas autónomas letales capaces de identificar y atacar objetivos sin supervisión humana directa.

    El CEO de Anthropic, Dario Amodei, se negó a firmar el acuerdo actualizado. En un comunicado público, afirmó que si bien la empresa no se opone en términos generales a colaborar con el ámbito de defensa, considera que “en un conjunto limitado de casos… la IA puede socavar, en lugar de defender, los valores democráticos”.

    Amodei aseguró que las presiones del gobierno no cambiarán su postura, aunque ofreció colaborar para facilitar una transición ordenada hacia otro proveedor y evitar interrupciones en misiones críticas.

    Según un portavoz de la empresa, las negociaciones finales fracasaron cuando el Pentágono introdujo formulaciones legales que, a su juicio, permitirían ignorar las salvaguardas acordadas. Tras el colapso de las conversaciones, el Departamento de Defensa lanzó un ultimátum y activó la designación de “riesgo para la cadena de suministro”, una etiqueta habitualmente reservada a adversarios extranjeros.


    Una respuesta contundente de la Casa Blanca

    La reacción de la administración fue inmediata y enérgica. En su red social, Trump acusó a Anthropic de intentar imponer sus términos de servicio al Departamento de Defensa por encima de la Constitución, y calificó a la empresa de “radical” e “ideologizada”. También advirtió que, si no coopera durante el periodo de retirada progresiva, podría enfrentar “importantes consecuencias civiles y penales”.

    Hegseth, por su parte, acusó a la compañía de anteponer la ideología de Silicon Valley a las necesidades de las fuerzas armadas y aseguró que la decisión es definitiva.

    Esta respuesta era de esperar por parte de Trump quien suele reaccionar siempre de forma colérica contra quienes se atreven a llevarle la contraria, especialmente si cree que va a poder ganarles fácilmente usando todo el poder del estado.


    Reacciones del sector tecnológico y defensores de derechos civiles

    La medida ha provocado fuertes reacciones en la industria tecnológica y en organizaciones de libertades civiles. Alexandra Givens, presidenta y CEO del Center for Democracy and Technology, advirtió que este tipo de amenazas pueden distorsionar el ecosistema de innovación y expandir peligrosamente el poder ejecutivo.

    Dentro del sector de la IA, numerosas voces han expresado su respaldo a Anthropic. Empleados de empresas competidoras como Google y OpenAI han firmado una carta abierta en solidaridad con la postura ética de la compañía.

    Aunque actores como xAI y OpenAI habrían aceptado las nuevas condiciones del Pentágono, el panorama sigue evolucionando. Según informes, OpenAI estaría buscando renegociar sus términos para incorporar límites éticos similares a los defendidos por Anthropic, y su CEO, Sam Altman, habría indicado internamente que la empresa también está dispuesta a trazar líneas rojas.


    Este enfrentamiento pone de relieve una tensión cada vez más profunda: la colisión entre las políticas de seguridad y ética impulsadas desde Silicon Valley y la visión del aparato militar estadounidense sobre el papel de la inteligencia artificial en el futuro de la guerra.

  • Anthropic desafía al Pentágono

    Claude, el nombre del modelo de Anthropic
    Claude, el nombre del modelo de Anthropic

    La tensión entre la seguridad nacional y los límites éticos de la inteligencia artificial ha alcanzado un punto crítico en Estados Unidos.

    Anthropic, una de las principales startups de IA avanzada, se ha negado a eliminar los mecanismos de seguridad de su modelo estrella, Claude, que impiden su uso en vigilancia masiva doméstica y en armas completamente autónomas. La negativa llega tras un ultimátum directo del Departamento de la Defensa de EEUU.

    El enfrentamiento marca uno de los momentos más delicados hasta ahora en la relación entre el sector tecnológico y el aparato militar estadounidense.


    El ultimátum del Pentágono

    Según el relato público del CEO de Anthropic, Dario Amodei, el Secretario de la Defensa Pete Hegseth convocó una reunión en la Casa Blanca y estableció una fecha límite para que la empresa concediera acceso sin restricciones a Claude para “todos los fines legales”.

    De no hacerlo, el Departamento de la Defensa amenazó con:

    • Cancelar un contrato de 200 millones de dólares previsto para 2025
    • Declarar a Anthropic un “riesgo para la cadena de suministro”, una designación asociada habitualmente con empresas extranjeras hostiles
    • Evaluar la invocación de la Defense Production Act (una ley de 1950) para obligar a la empresa a cumplir con la solicitud

    La designación como riesgo de seguridad nacional sería un movimiento sin precedentes contra una empresa estadounidense.


    Las dos líneas rojas de Anthropic

    En una publicación pública, Amodei afirmó que la compañía cree firmemente en la importancia estratégica de la IA para la defensa de Estados Unidos, pero estableció dos límites innegociables:

    1. Vigilancia masiva impulsada por IA

    Permitir que sistemas de IA agreguen automáticamente datos dispersos para construir perfiles exhaustivos de ciudadanos plantea, según la empresa, riesgos sin precedentes para libertades fundamentales.

    2. Armas letales autónomas

    Anthropic rechaza que Claude sea utilizado en sistemas con capacidad de matar sin supervisión humana. Aunque reconoce la relevancia de sistemas parcialmente autónomos en defensa, sostiene que los modelos actuales no son lo suficientemente fiables para operar sin control humano en escenarios letales.

    El argumento central no es técnico, sino moral: en ciertos contextos, la IA puede erosionar valores democráticos en lugar de protegerlos.


    Una fractura pública

    El desacuerdo se volvió público cuando el subsecretario de Defensa Emil Michael criticó duramente a Amodei en la red social X, acusándolo de poner en riesgo la seguridad nacional.

    Mientras tanto, dentro de Anthropic, los empleados han respaldado abiertamente la postura de la dirección, interpretando el momento como clave para la industria.


    Los competidores de Anthropic están alineados con el gobierno

    La posición de Anthropic contrasta con la de otras empresas importantes como OpenAI y xAI (de Elon Musk), que, según informes, habrían aceptado las condiciones renegociadas con el Pentágono.

    El Departamento de Defensa estaría evaluando alternativas como Grok o Gemini en caso de romper la relación con Anthropic.

    No obstante, la sustitución no sería sencilla. Claude ha sido, hasta ahora, uno de los modelos autorizados para tareas sensibles dentro de las redes del ejército estadounidense, para tareas de inteligencia y de planificación operativa.

    Una postura muy hipócrita por parte de los republicanos

    La postura del gobierno de Donald Trump es incoherente con posiciones defendidas en el pasado. Los republicanos, por ejemplo defendieron a capa y espada al propietario de una panadería de Colorado que se negó a atender una pareja gay, en base a su fé cristiana. En ese caso, citaron una y otra vez el derecho de una empresa a actuar en base a sus valores. Ahora no están mostrando ningún tipo de comprensión por la postura moral de Dario Amodei.


    Más que un contrato: un precedente

    El desenlace de este enfrentamiento podría sentar un precedente duradero sobre:

    • El grado de control gubernamental sobre modelos fundacionales de IA
    • La autonomía ética de empresas privadas frente al Estado
    • El uso de la IA en armas autónomas y vigilancia doméstica
    • El equilibrio entre ser competitivo a nivel estratégico y el respeto de las libertades civiles

    Anthropic ha señalado que, si el Pentágono decide rescindir el contrato, facilitará una transición ordenada para no afectar a las operaciones críticas.

    Pero más allá del impacto económico inmediato, lo que está en juego es algo mayor: quién define los límites del uso militar de la inteligencia artificial en la próxima década.

    La decisión final no solo afectará a una empresa. Podría redefinir la relación entre Silicon Valley y el poder militar en la era de la IA.

  • La era de la IA ya está aquí: Block reduce casi la mitad de su plantilla en una reestructuración histórica

    Una fotografía de archivo de Jack Dorsey en 2018. Fuente: Wikipedia.

    La revolución de la inteligencia artificial ya no es un experimento de laboratorio ni una narrativa de inversores. Está impactando directamente en la estructura corporativa.

    Jack Dorsey, fundador de Twitter y actual CEO de Block, ha anunciado una de las decisiones más drásticas vistas en el sector fintech: la compañía reducirá su plantilla en casi un 50%, eliminando más de 4.000 puestos y pasando de más de 10.000 empleados a menos de 6.000.

    Lejos de responder a una crisis financiera, el movimiento es una apuesta estratégica explícita por la inteligencia artificial.

    El mercado reaccionó de inmediato. Las acciones de Block se dispararon entre un 25% y un 30% en operaciones posteriores al cierre. Para muchos analistas de Wall Street, se trata de un “momento seminal” en la era de la IA: la primera gran transformación corporativa que traduce el entusiasmo tecnológico en recortes estructurales y expansión de márgenes.


    Una compañía “nativa en inteligencia”

    Block —matriz de Square, Cash App y Afterpay— no está ajustando costes por necesidad, sino rediseñando su modelo operativo.

    En una carta a accionistas y en la red social X, Dorsey fue directo:

    “Las herramientas de inteligencia han cambiado lo que significa construir y dirigir una empresa.”

    Según el ejecutivo, equipos significativamente más pequeños, apoyados en herramientas de IA desarrolladas internamente, pueden producir más y con mayor calidad. Y, lo más importante, la capacidad de estas herramientas está creciendo exponencialmente semana a semana.

    El objetivo declarado es reconstruir Block como una empresa “más pequeña, más rápida y nativamente impulsada por inteligencia”.

    En lugar de aplicar recortes graduales, la dirección optó por un ajuste único y profundo. La compañía asumirá entre 450 y 500 millones de dólares en costes de reestructuración para ejecutar la transición de forma inmediata y evitar un deterioro prolongado.


    Resultados sólidos en paralelo a los despidos

    El anuncio coincidió con los resultados del cuarto trimestre de 2025.

    Aunque el beneficio neto cayó un 55% hasta 1.300 millones de dólares, el beneficio bruto creció un 24% en el trimestre, alcanzando 2.870 millones. El principal motor fue Cash App, que registró un aumento del 33%.

    El beneficio ajustado por acción subió de 47 a 65 centavos interanuales. Para el primer trimestre, la empresa proyecta un crecimiento del beneficio bruto del 22% y ha elevado ligeramente su previsión de crecimiento para 2026.

    El mensaje implícito es contundente: la reducción de plantilla no responde a debilidad operativa, sino a una estrategia de expansión de márgenes en un contexto de automatización acelerada.


    Señal de advertencia para el sector tecnológico

    La decisión de Block se produce en un entorno en el que gigantes del sector de pagos como Visa y Mastercard siguen reportando resultados sólidos pese a los altos tipos de interés y la presión macroeconómica.

    Pero el verdadero impacto no está en las cifras trimestrales, sino en el precedente.

    Dorsey lanzó una advertencia clara: Block no está llegando pronto a la conclusión sobre la IA; otras empresas están llegando tarde.

    Según su previsión, en el plazo de un año la mayoría de las compañías adoptarán decisiones estructurales similares. No como reacción a una crisis, sino como adaptación estratégica a un nuevo paradigma productivo.


    Un punto de inflexión en el trabajo corporativo

    La gran pregunta ya no es si la inteligencia artificial transformará el trabajo corporativo, sino a qué velocidad y con qué profundidad.

    Block ha optado por actuar de forma anticipada y radical. Si la apuesta funciona, podría convertirse en el modelo operativo de referencia para empresas digitales de la próxima década. Si falla, será recordada como la primera gran sobrecorrección de la era de la IA.

    En cualquier caso, el mensaje es inequívoco: la transición hacia empresas “intelligence-native” ya ha comenzado.

  • Google redobla su apuesta por la IA física con la integración de Intrinsic

    Intrinsic se integra a Google y utilizará sus modelos de IA
    Intrinsic se integra a Google y utilizará sus modelos de IA

    Google está dando un paso decisivo en la carrera por la inteligencia artificial física. Intrinsic, la compañía de robótica impulsada por IA que nació como uno de los “moonshots” de Alphabet, dejará de operar como proyecto independiente para integrarse directamente dentro de Google.

    El movimiento no es menor. Desde 2021, Intrinsic formaba parte de la división “Otras apuestas” de Alphabet , el portafolio de apuestas de alto riesgo y alto impacto que incluye a Waymo y Verily, trabajando silenciosamente en una ambición clara: transformar la forma en la que los robots son programados, desplegados y utilizados en entornos industriales.

    Ahora, al convertirse en un “grupo diferenciado” dentro de Google, Intrinsic pasa de experimento prometedor a pieza estratégica.

    El “Android de la robótica”

    La visión de Intrinsic es ambiciosa: convertirse en el “Android de la robótica”. Su plataforma propone una capa de software universal que permita desarrollar aplicaciones compatibles con distintos robots, cámaras y sensores, eliminando la fragmentación que hoy caracteriza al sector.

    En lugar de programaciones rígidas y específicas para cada máquina, Intrinsic busca ofrecer un framework de software interoperable con el que los desarrolladores puedan construir soluciones adaptables y escalables. El concepto es tan potente que incluso gigantes tecnológicos como Meta han mostrado interés en explorar enfoques similares.

    De movimientos rígidos a inteligencia adaptativa

    El verdadero salto está en la inteligencia. Intrinsic quiere que los robots dejen de ejecutar instrucciones predefinidas y pasen a percibir, razonar y reaccionar dinámicamente ante cambios en tiempo real.

    Eso significa robots capaces de ajustarse a variaciones en procesos industriales, manipular objetos impredecibles o adaptarse a entornos cambiantes sin necesidad de reprogramación constante. En esencia, se trata de trasladar la potencia de la IA moderna al mundo físico.

    Sinergia con Gemini y DeepMind

    Aunque no se han hecho públicos los términos financieros de la transacción, la lógica estratégica es evidente. Integrada en Google, Intrinsic podrá aprovechar directamente la infraestructura de Google Cloud y los modelos avanzados de Gemini.

    Además, trabajará estrechamente con Google DeepMind, consolidando una estrategia que la compañía viene afinando desde hace años: centrarse en desarrollar el “cerebro” de las máquinas más que el hardware en sí.

    Tras vender Boston Dynamics en 2017, Google ha pivotado progresivamente hacia una visión de robótica definida por software e inteligencia artificial. En 2023, DeepMind absorbió la división Everyday Robotics, y posteriormente lanzó modelos basados en Gemini diseñados para tareas físicas complejas.

    La apuesta por una capa universal de IA física

    Con esta integración, Google envía una señal clara al mercado: el próximo gran avance en robótica no dependerá únicamente de mejoras mecánicas, sino de una capa de software impulsada por IA capaz de convertir cualquier máquina en un sistema adaptable e inteligente.

    Si Gemini es el cerebro digital para texto, imagen y código, Intrinsic podría convertirse en el puente que lleve esa inteligencia al mundo físico.

    La carrera por la IA ya no es solo virtual. Google quiere que también sea tangible.

  • Google presenta Nano Banana 2: generación de imágenes con calidad profesional a velocidad “Flash”

    Nano Banana 2
    El modelo Nano Banana 2 de Google

    Google vuelve a acelerar en la carrera de la IA generativa con el lanzamiento de Nano Banana 2, presentado oficialmente el 26 de febrero de 2026. El modelo —conocido técnicamente como Gemini 3.1 Flash Image— promete combinar calidad visual de nivel profesional con velocidades ultrarrápidas.

    Tras el éxito viral del primer Nano Banana en agosto de 2025 y la versión Nano Banana Pro en noviembre, Google ahora lleva esas capacidades avanzadas al público general. Nano Banana 2 reemplaza a la versión Pro como generador de imágenes predeterminado dentro del ecosistema Gemini, ampliando funciones antes reservadas a suscriptores de pago.


    Inteligencia avanzada a velocidad Flash

    La filosofía detrás de Nano Banana 2 es clara: unir la potencia visual y el razonamiento avanzado de la versión Pro con la infraestructura optimizada y veloz de Gemini Flash.

    El modelo aprovecha la base de conocimiento de Gemini y puede integrar información en tiempo real desde búsquedas web para representar sujetos específicos con mayor precisión o convertir notas en visualizaciones complejas e infografías.

    Entre sus capacidades destacadas:

    • Consistencia de personajes y objetos: permite mantener la apariencia exacta de hasta cinco personajes y la fidelidad de hasta 14 objetos distintos en un mismo flujo creativo, ideal para narrativa visual y storyboards.
    • Texto preciso y traducción integrada: genera texto legible y correctamente alineado dentro de imágenes (maquetas de marketing, tarjetas, diagramas) e incluso lo traduce y localiza directamente.
    • Control total de formato: admite múltiples relaciones de aspecto y resoluciones desde 512 px hasta 4K.
    • Mayor fidelidad visual: iluminación más vibrante, texturas más ricas y mayor precisión en la interpretación de instrucciones complejas.

    Integración en todo el ecosistema Gemini

    Nano Banana 2 pasa a ser el modelo predeterminado en:

    • La app de Gemini (en sus modos Fast, Thinking y Pro)
    • El Modo IA de Google Search
    • Google Lens
    • Flow, la herramienta de video con IA de Google

    También está disponible en fase preliminar para desarrolladores a través de AI Studio, la API de Gemini y Vertex AI en Google Cloud, además de integrarse en sugerencias creativas dentro de Google Ads.

    Aunque Nano Banana 2 se convierte en el estándar, los suscriptores de Google AI Pro y Ultra aún pueden acceder a Nano Banana Pro para tareas que requieran máxima precisión factual.


    Seguridad y trazabilidad con SynthID

    Ante el creciente realismo del contenido generado por IA, Google refuerza su apuesta por la transparencia. Nano Banana 2 integra SynthID, la tecnología de marca de agua digital desarrollada por la compañía para identificar contenido generado por IA.

    Desde noviembre, la función de verificación de SynthID se ha utilizado más de 20 millones de veces. Google también planea combinarla con credenciales de contenido interoperables bajo el estándar C2PA, ofreciendo mayor claridad sobre el origen y edición de imágenes.


    La estrategia “navaja suiza” de la IA

    Con este lanzamiento, Google deja clara su ambición: convertir Gemini en una plataforma creativa integral. Al combinar generación de imágenes ultrarrápida con modelos de video como Veo y herramientas musicales como Lyria, la compañía construye un ecosistema creativo interconectado.

    El objetivo es consolidar su liderazgo en IA generativa en un momento en que la competencia se intensifica y el mercado evoluciona hacia soluciones cada vez más integradas, rápidas y accesibles.