gadgetsgenial.es

Etiqueta: Titular

Noticias importantes

  • Apple Business, la nueva plataforma empresarial gratuita de Apple

    Apple Business, la nueva plataforma empresarial gratuita de Apple, con la que pretende competir con Microsoft y Google.
    Apple Business, la nueva plataforma empresarial gratuita de Apple, con la que pretende competir con Microsoft y Google

    Apple quiere competir con Microsoft y Google

    Apple da un paso importante en el mercado empresarial con el lanzamiento de Apple Business, una plataforma todo en uno que busca competir directamente con Microsoft 365 y Google Workspace.

    Disponible a partir del 14 de abril en más de 200 países, esta solución unifica varias herramientas empresariales en un solo panel de control y lo más llamativo es que será gratuita.


    Una plataforma todo en uno para empresas

    Con Apple Business, Apple fusiona servicios como:

    • Apple Business Manager
    • Apple Business Essentials
    • Apple Business Connect

    El resultado es un dashboard único desde el que las empresas pueden gestionar:

    • Dispositivos
    • Empleados
    • Correo corporativo
    • Presencia de marca

    Todo desde el ecosistema Apple.


    Correo empresarial gratis (hasta 500 usuarios)

    Uno de los movimientos más agresivos es la inclusión de:

    • Email corporativo
    • Calendario
    • Directorio de empleados

    Todo sin costo para hasta 500 usuarios.

    Además:

    • Compatible con estándares abiertos (IMAP y CalDAV)
    • Funciona en Android, Windows y otros dispositivos
    • Incluye 5 GB de almacenamiento en iCloud por usuario
    • Escalable hasta 2 TB desde $0.99 USD al mes

    Esto elimina una de las principales barreras para startups que tradicionalmente optaban por Google Workspace o Microsoft 365.


    Gestión de dispositivos (MDM) completamente gratis

    Otra gran novedad, el MDM (Mobile Device Management) ahora es gratuito.

    Entre sus funciones destacan:

    • Configuración automática de equipos (zero-touch deployment)
    • “Blueprints” para estandarizar dispositivos
    • Integración con identidades como Microsoft Entra ID (antes llamado Directorio Activo de MS) y Google Workspace
    • API para automatización y reportes
    • Roles personalizados para equipos IT

    Esto posiciona a Apple Business como una solución muy atractiva para pymes sin equipos técnicos grandes.


    Marketing, branding y Apple Maps

    La plataforma también incluye herramientas para gestionar la presencia digital:

    • Personalización de marca en Apple Maps
    • Logos en fichas de negocio, Safari y Spotlight
    • Branding en correos iCloud
    • Integración con pagos Tap to Pay en iPhone

    Además, Apple lanzará publicidad en Apple Maps en EE.UU. y Canadá, permitiendo a empresas aparecer en resultados destacados.


    Privacidad como eje central

    Fiel a su filosofía, Apple asegura que:

    • Los datos de usuarios no se comparten con terceros
    • La información permanece en el dispositivo
    • Las interacciones publicitarias no se vinculan a cuentas personales

    Transición automática para usuarios actuales

    Las plataformas existentes serán reemplazadas automáticamente:

    • Los datos se migrarán sin intervención
    • Los clientes actuales dejarán de pagar por MDM
    • Todo se centralizará en Apple Business

    Una apuesta clara por las nuevas empresas

    Con este lanzamiento, Apple apunta directamente a emprendedores y startups.

    El mensaje es claro: ahora puedes comprar un Mac, un iPhone y salir con toda la infraestructura empresarial lista:

    • Dominio web
    • Correo corporativo
    • Gestión de dispositivos
    • Herramientas de colaboración

    Todo desde un solo lugar y sin costo inicial.


    Apple entra de lleno al mercado empresarial

    Con Apple Business, Apple no solo compite: redefine el estándar de entrada al mundo empresarial.

    Si logra atraer a nuevas empresas desde el inicio, podría convertirse en un rival serio para Microsoft 365 y Google Workspace en los próximos años.

  • Apple confirma las fechas de la WWDC 2026

    Apple confirma las fechas de la WWDC 2026, será la semana del 8 de junio
    Apple confirma las fechas de la WWDC 2026, será la semana del 8 de junio

    Se espera ver el nuevo Siri y mejoras a los sistemas operativos de Apple

    Apple ha anunciado oficialmente la WWDC 2026, su conferencia anual de desarrolladores, que se celebrará del 8 al 12 de junio de 2026.

    El evento combinará un formato online gratuito con una experiencia presencial exclusiva en Apple Park, marcando el esperado regreso al campus en Cupertino.

    iOS 27 y una nueva generación de software

    La keynote inaugural tendrá lugar el 8 de junio y servirá para presentar las próximas versiones de los sistemas operativos de Apple:

    • iOS 27
    • iPadOS 27
    • macOS 27
    • watchOS 27
    • visionOS 27
    • tvOS 27

    Apple continúa así su cambio de nomenclatura, alineando los sistemas con el año calendario.

    Inteligencia artificial con Gemini

    Uno de los anuncios más esperados es la evolución de Apple Intelligence, que incorporará capacidades impulsadas por Gemini de Google.

    Esto podría traducirse en:

    • Un Siri más conversacional y poderoso
    • Mejor generación de contenido
    • Integraciones más profundas de la IA en el sistema

    Refinamiento del diseño y mayor estabilidad

    Tras el rediseño “Liquid Glass” del año pasado, Apple se enfocará en:

    • Mejorar rendimiento y estabilidad
    • Pulir la experiencia visual
    • Optimizar consistencia entre dispositivos

    También se esperan novedades menores para dispositivos como AirPods y HomePod.

    Betas y lanzamiento

    Siguiendo el calendario habitual:

    • Betas para desarrolladores, justo después de la keynote
    • Betas públicas, en julio
    • Lanzamiento final, en septiembre, acompañando el lanzamiento de nuevos iPhones

    Una experiencia global para desarrolladores

    La WWDC seguirá siendo principalmente digital, con:

    • Más de 100 sesiones en video
    • Laboratorios interactivos
    • Consultas 1 a 1 con ingenieros de Apple

    El contenido estará disponible en múltiples plataformas, incluyendo la app Apple Developer y YouTube.

    Yo he tenido el privilegio de asistir a múltiples WWDCs en el pasado, todos ellos antes de la pandemia. Era una experiencia increíble, sobre todo en tiempos de Steve Jobs.

    Sin embargo, conseguir entradas se volvía cada vez más difícil y el precio total para poder asistir era cada vez más prohibitivo (sumando la entrada, el hotel y el boleto de avión). Por eso, la solución actual, en la que todas las sesiones están grabadas y disponibles inmediatamente me parece una verdadera maravilla.

    Evento presencial en Apple Park

    Apple también ofrecerá una experiencia limitada en Apple Park el 8 de junio.

    Los asistentes podrán:

    • Ver la keynote en directo
    • Participar en actividades exclusivas
    • Interactuar con equipos de Apple
    • Recorrer el campus

    Las plazas, al ser muy limitadas, se asignarán mediante sorteo entre desarrolladores registrados.

    Impulso a nuevos talentos

    El programa Swift Student Challenge continúa siendo clave:

    • Ganadores anunciados el 26 de marzo
    • Invitaciones para poder asistir al evento
    • 50 participantes destacados viajarán a Cupertino

    Un evento clave para el futuro del ecosistema Apple

    La WWDC 2026 marcará el rumbo del software de Apple para el próximo año, con un fuerte enfoque en inteligencia artificial y experiencia de usuario.

    Con la integración de IA avanzada y el regreso parcial a eventos presenciales, Apple busca reforzar su ecosistema y mantener su liderazgo en innovación.

    Junio promete ser un mes decisivo para desarrolladores y para el futuro de la plataforma.

  • AirDrop llega a los Samsung Galaxy S26

    AirDrop finalmente llega a los Samsung Galaxy S26
    AirDrop finalmente llega a los Samsung Galaxy S26

    Samsung también rompe la barrera con Apple

    Después de que Google anunciara que su smartphones Pixel 10a (2025) y 9 (2026) soportarían AirDrop para el intercambio de archivos, era solo cuestión de tiempo que otros fabricantes de teléfonos Android hicieran anuncios similares. Samsung acaba de confirmar que integrará compatibilidad nativa con AirDrop en su sistema Quick Share, comenzando con la serie Galaxy S26.

    Adiós a la barrera entre iOS y Android

    Con esta actualización, los usuarios de:

    • Galaxy S26
    • Galaxy S26 Plus
    • Galaxy S26 Ultra

    podrán compartir archivos directamente con dispositivos Apple usando una conexión inalámbrica rápida, sin apps externas ni trucos.

    Esto elimina una de las limitaciones más persistentes entre ambos ecosistemas.

    Lanzamiento global progresivo

    El despliegue comienza:

    • 23 de marzo en Corea del Sur
    • Estados Unidos más adelante en la misma semana
    • Próximamente en Europa, Latinoamérica y Asia

    Samsung también confirmó que otros dispositivos Galaxy recibirán esta función en el futuro.

    Cómo activar AirDrop en Galaxy

    Los usuarios solo tendrán que considerar un pequeño detalle, la función no viene activada por defecto.

    Para usarla, tendrán que:

    1. Ir a Settings
    2. Seleccionar Connected devices
    3. Entrar en Quick Share
    4. Activar Share with Apple devices

    Además, ambos dispositivos deben tener la visibilidad configurada en “Everyone” para permitir la transferencia.

    Más fabricantes se van a sumar a esta tendencia

    El impulso hacia la interoperabilidad continúa creciendo. Marcas como Oppo también planean integrar compatibilidad similar en sus dispositivos.

    Esto sugiere un cambio importante en la industria hacia experiencias más abiertas entre plataformas.

    El fin de los métodos incómodos

    Con esta integración, los usuarios podrán olvidarse de:

    • Enviar archivos por email
    • Usar apps de terceros
    • Comprimir fotos y videos en mensajería

    La transferencia directa, rápida y sin pérdida de calidad será la nueva norma.

    Por primera vez en años, compartir archivos entre plataformas rivales será sencillo, como debería haberlo sido siempre.

  • El fraude de $2,500 millones: servidores falsos, chips de IA y un escándalo que sacude a Super Micro

    El futuro de Super Micro está en juego tras el arresto de su co-fundador
    El futuro de Super Micro está en juego tras el arresto de su co-fundador

    Esto podría ser el fin de Super Micro

    Un caso federal en Estados Unidos ha destapado una operación de contrabando tecnológico valorada en 2,500 millones de dólares, centrada en el envío ilegal de chips de inteligencia artificial de NVIDIA hacia China. El escándalo involucra a directivos vinculados a Super Micro Computer y ha provocado un desplome inmediato en sus acciones.

    Una red de contrabando a gran escala

    El Departmento de Justicia de los EEUU reveló una acusación formal contra tres implicados:

    • Yih-Shyan Liaw, cofundador y alto directivo
    • Ting-Wei Sun, contratista externo
    • Ruei-Tsang Chang, actualmente prófugo

    Los acusados enfrentan cargos por violar leyes de exportación, contrabando y fraude, con penas que podrían llegar hasta los 30 años de prisión.

    Servidores falsos y etiquetas recicladas

    Para evadir los controles de exportación de EE. UU., el grupo diseñó una compleja red logística internacional:

    1. Servidores con GPUs avanzadas de NVIDIA eran enviados a Taiwán
    2. Luego se transferían a una empresa intermediaria en el sudeste asiático
    3. Posteriormente se reenviaban a China con empaques sin identificación

    Para ocultar el fraude, los implicados crearon miles de servidores falsos para engañar auditorías internas.

    Uno de los detalles más llamativos del caso es que los acusados utilizaban un secador de pelo para despegar etiquetas de serie de servidores reales y colocarlas en equipos vacíos, simulando inventario legítimo, lo que quedó grabado en video por los investigadores.

    Manipulación de auditorías y comunicaciones cifradas

    La investigación también revela:

    • Uso de mensajería cifrada para coordinar operaciones
    • Manipulación de inspecciones internas
    • Selección de auditores “favorables a la empresa”

    Según el FBI, los acusados falsificaron documentos y crearon estructuras empresariales para ocultar el destino final de los equipos.

    Un negocio de miles de millones

    El volumen de la operación fue masivo:

    • $2,500 millones en ventas ilegales desde 2024
    • $510 millones en envíos en solo tres semanas en 2025

    Además, los implicados buscaban activamente chips avanzados como los B200, basados en la arquitectura Blackwell de NVIDIA.

    Impacto inmediato en el mercado

    Aunque Super Micro Computer no ha sido acusada formalmente, el impacto ha sido severo:

    • Caída del 25% en sus acciones
    • Investigación activa en curso
    • Suspensión de empleados implicados

    La empresa ha declarado que coopera plenamente con las autoridades y que las acciones descritas violan sus políticas internas.

    Un escándalo en un momento delicado

    El caso llega en un momento complicado para la compañía, que recientemente:

    • Reportó ingresos trimestrales de $12,700 millones
    • Estuvo cerca de ser excluida del NASDAQ
    • Cambió de auditor tras la salida de Ernst & Young

    La guerra tecnológica entre EE. UU. y China

    Este caso refleja la creciente tensión geopolítica en torno a la inteligencia artificial.

    Los chips de NVIDIA son esenciales para el desarrollo de IA avanzada, lo que ha llevado a EE. UU. a restringir su exportación. Sin embargo, la demanda sigue siendo alta, especialmente por parte de empresas chinas como DeepSeek.

    Aunque existen licencias limitadas para ciertos chips, el contrabando sigue siendo una amenaza importante para la seguridad nacional.

    Un mensaje claro de las autoridades

    Para los fiscales estadounidenses, este caso marca un precedente y deja claro que el control sobre tecnologías críticas será estrictamente vigilado.

    El escándalo no solo expone vulnerabilidades en la cadena de suministro global, sino también la enorme presión económica y estratégica detrás de la inteligencia artificial.

    En un contexto donde los chips son el nuevo petróleo, este caso demuestra hasta dónde algunos están dispuestos a llegar para obtenerlos.

  • OpenAI apuesta por una “superapp” de escritorio para liderar la era de la IA autónoma

    OpenAI está desarrollando una “superapp” de escritorio
    OpenAI está desarrollando una “superapp” de escritorio

    OpenAI está desarrollando una “superapp” de escritorio

    OpenAI ha decidido realizar un cambio estratégico en cómo distribuye su software. Va a desarrollar una aplicación de escritorio unificada, algo conocido como una “superapp”, que integrará sus principales productos, entre los que figuran ChatGPT, Codex y el navegador Atlas. De esta manera pretenden liderar la próxima generación de inteligencia artificial basada en agentes autónomos.

    Toda la funcionalidad, en una sola app

    El proyecto está liderado por Fidji Simo, responsable de aplicaciones en OpenAI, junto con Greg Brockman. La iniciativa busca resolver un problema interno, la fragmentación de productos.

    Hasta ahora, OpenAI ha distribuido sus capacidades en múltiples herramientas, lo que ha ralentizado el desarrollo y puede llegar a confundir a los usuario. La nueva superapp pretende unificar todo en una sola interfaz coherente y más potente.

    Según Simo, la empresa necesita centrarse en lo que realmente funciona y evitar distracciones, especialmente tras un año de múltiples experimentos.

    La desventaja de las superapps es que suelen ser más complejas de aprender a manejar y por lo tanto más intimidantes para nuevos usuarios. Esto podría ser un problema para OpenAI dado que sus clientes suelen ser menos sofisticados y avanzados que los de su principal competidor, Anthropic.

    Competencia directa con Anthropic

    Este movimiento también responde a la presión competitiva, especialmente por parte de Anthropic, que ha ganado terreno con productos como Claude Code y Cowork, orientados a desarrolladores y empresas.

    OpenAI busca reforzar su posición en:

    • Productividad avanzada
    • Desarrollo de software
    • Casos de uso empresariales

    La estrategia pasa por priorizar estas áreas y dejar en segundo plano otros proyectos menos estratégicos.

    El objetivo, dominar la IA basada en agentes

    El núcleo de esta transformación es la llamada IA basada en agentes (agentic AI).

    A diferencia de los chatbots tradicionales, estos sistemas pueden:

    • Actuar de forma autónoma
    • Tomar decisiones
    • Utilizar herramientas y software
    • Ejecutar tareas complejas con mínima supervisión

    OpenAI quiere que su superapp sea el centro de operaciones de estos agentes inteligentes, que son capaces de trabajar directamente en la computadora del usuario.

    Integración progresiva de funciones

    El despliegue será gradual:

    1. Primero llegarán nuevas capacidades basadas en agentes a Codex
    2. Luego se expandirán más allá de la programación hacia tareas generales
    3. Finalmente, ChatGPT y el navegador Atlas se integrarán en la misma app

    Este enfoque permitirá a OpenAI iterar sin comprometer la estabilidad del ecosistema.

    ¿Por qué solo en escritorio (y no en iPhone)?

    Una de las decisiones más llamativas es que esta superapp será exclusiva para macOS.

    La razón es técnica:

    • Los sistemas de escritorio permiten mayor acceso al sistema
    • La IA necesita interactuar con archivos, apps y procesos
    • Se requieren automatizaciones en segundo plano

    En contraste, iOS limita estas capacidades debido a su modelo de seguridad basado en sandboxing.

    Además:

    • Apple obliga a usar WebKit en navegadores
    • Restringe apps que actúan como plataformas dentro de la App Store
    • Limita la ejecución autónoma de acciones entre aplicaciones

    Todo esto hace inviable una superapp real en dispositivos móviles.

    Una nueva capa sobre el sistema operativo

    La visión de OpenAI es ambiciosa: crear una capa de software que se sitúe por encima de las aplicaciones tradicionales.

    En este modelo, la IA:

    • Organiza la información
    • Decide qué herramientas usar
    • Ejecuta tareas completas de principio a fin

    En esencia, pasamos de asistentes conversacionales a “trabajadores digitales” autónomos.

    El futuro de la IA, del chat a la acción

    Con esta superapp, OpenAI no solo busca mejorar su producto, sino redefinir cómo interactuamos con la tecnología.

    Mientras en móviles Apple mantiene un control férreo del ecosistema, el escritorio se perfila como el campo de batalla donde la IA podrá desplegar todo su potencial.

    Si OpenAI logra ejecutar esta visión, podríamos estar ante el inicio de una nueva era: la de sistemas que no solo responden a nuestras preguntas, sino que trabajan por nosotros.

  • Stitch da la bienvenidos a la era del “vibe design”

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas
    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    La forma en que construimos software está viviendo una transformación radical. El 18 de marzo de 2026, Google Labs presentó una renovación profunda de Stitch, su herramienta impulsada por IA capaz de generar interfaces web y móviles a partir de simples instrucciones, imágenes o bocetos.

    Impulsada por los modelos Gemini, esta nueva versión convierte en realidad el concepto de “vibe design”, sacudiendo de paso a toda la industria del diseño.

    El anuncio no tardó en impactar los mercados: las acciones de Figma cayeron entre un 8% y un 9% en una sola sesión. Para muchos, esto señala la llegada de un competidor serio. Pero, ¿qué hace tan disruptivo a Stitch?


    De wireframes al “vibe design”

    Inspirado en el concepto de “vibe coding”, donde los desarrolladores generan código con IA a partir de la descripción de lo que pretenden lograr, Rustin Banks, product manager en Google Labs, introduce ahora el “vibe design”.

    En lugar de empezar desde una hoja en blanco, Stitch permite iniciar un proyecto describiendo un objetivo de negocio, la emoción que se quiere transmitir o incluso subiendo capturas de pantalla como referencia.

    A partir de ahí, la herramienta genera mockups visuales de alta fidelidad junto con código front-end listo para producción, incluyendo HTML/CSS, Tailwind y JSX/React.

    Para soportar este flujo, Google ha creado un lienzo infinito nativo de IA, gestionado por un agente inteligente que comprende toda la evolución del proyecto: sigue el progreso, organiza ideas y facilita iteraciones simultáneas.


    Diseñar con la voz

    En 2026, escribir es opcional. Una de las funciones más llamativas de Stitch es su integración por voz.

    Los usuarios pueden hablar directamente con el lienzo para modificar diseños en tiempo real. El agente actúa como un colaborador activo: puede hacer preguntas, sugerir mejoras o ejecutar comandos como:

    • “Dame tres opciones de menú”
    • “Muestra esta pantalla con distintas paletas de colores”

    Conectando diseño y desarrollo

    Google no quiere que Stitch sea una herramienta aislada. Por eso ha incorporado un servidor MCP (Model Context Protocol), un SDK y “skills” de código abierto.

    Esto permite integrar Stitch con asistentes de desarrollo como Claude Code, Cursor o Gemini CLI. En la práctica, otros agentes pueden controlar Stitch desde un entorno de desarrollo (IDE), generar interfaces y devolver el código automáticamente al flujo de trabajo.

    Es un paso clave hacia un ecosistema donde diseño y programación se fusionan completamente.


    ¿El fin de Figma?

    A pesar de la reacción del mercado, Stitch no sustituye (todavía) a herramientas tradicionales como Figma.

    Hoy por hoy, se posiciona en la fase inicial: ideación y prototipado rápido. Es ideal para transformar ideas en interfaces funcionales en minutos, especialmente útil para startups o pruebas de concepto.

    Sin embargo, diseñadores profesionales señalan que los resultados pueden ser algo genéricos. Para trabajos complejos de UX o sistemas de diseño avanzados, Figma sigue siendo esencial.

    En la práctica, muchos flujos modernos combinan ambos:

    • Stitch para generar rápidamente ideas
    • Figma para refinarlas y llevarlas a producción

    Disponibilidad

    Actualmente en fase beta, Stitch está disponible para usuarios residentes en todos los países donde Gemini está accesible. La interfaz, por ahora, se mantiene en inglés.


    Un nuevo paradigma creativo

    Ya seas diseñador o desarrollador, Stitch demuestra que la distancia entre una idea y un producto funcional nunca había sido tan corta.

    El “vibe design” no solo acelera el proceso creativo: redefine quién puede diseñar software.

  • Anthropic lanza ‘Claude Dispatch’

    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular
    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular

    Controla tu IA de escritorio desde el celular

    Imagina salir de tu escritorio, asignar una tarea compleja a tu computadora desde tu teléfono y volver horas después para encontrar el trabajo completamente terminado. Anthropic convirtió esta idea en realidad con el lanzamiento de Claude Dispatch, una nueva función que permite controlar tareas de IA en el escritorio directamente desde dispositivos móviles.

    Presentado como una versión preliminar dentro del entorno Claude Cowork, Dispatch supone un paso importante hacia un ecosistema de inteligencia artificial más autónomo y siempre activo. Funciona como la contraparte accesible para el público general de Claude Code Remote, una herramienta orientada a desarrolladores lanzada anteriormente.

    Una sola conversación persistente

    La funciónalidad central de Claude Dispatch está basada en su sincronización continua. En lugar de abrir sesiones independientes en distintos dispositivos, la herramienta mantiene una única conversación persistente entre el celular y la computadora de escritorio.

    Esto significa que puedes iniciar una tarea desde tu smartphone, por ejemplo durante el trayecto al trabajo, y retomarla más tarde en tu computadora exactamente donde la dejaste, con todo el contexto intacto.

    Además, como Dispatch aprovecha el entorno local de tu equipo, todo lo que Claude puede hacer en tu escritorio, como acceder a archivos, usar el navegador o interactuar con aplicaciones instaladas, también está disponible de forma remota.

    Casos de uso en el mundo real para Claude Dispatch

    Las posibilidades son amplias y prácticas:

    • Solicitar a la IA que analice una hoja de cálculo local y genere un informe.
    • Buscar información en correos electrónicos o mensajes de Slack para crear un resumen.
    • Construir presentaciones a partir de archivos almacenados en Google Drive.
    • Organizar automáticamente carpetas y documentos en el disco duro.

    Los resultados pueden consultarse directamente desde el móvil o encontrarse guardados en el ordenador.

    Configuración y requisitos

    El proceso de configuración es sencillo: basta con tener conexión a internet y las versiones más recientes de las apps de Claude en escritorio y móvil. A través de un código QR, ambos dispositivos se vinculan en segundos.

    Durante la instalación, el usuario debe autorizar el acceso a archivos locales y configurar el equipo para que permanezca activo. Todo el procesamiento se realiza en el propio ordenador, dentro de un entorno seguro.

    Limitaciones actuales de Claude Dispatch

    Al tratarse de una versión preliminar, Dispatch presenta algunas restricciones importantes:

    • La computadora debe estar encendida: si entra en reposo, la IA no puede ejecutar tareas.
    • Sin notificaciones: Claude Dispatch no avisa automáticamente cuando un trabajo ha terminado.
    • Un solo hilo de conversación: no permite separar tareas en proyectos independientes.
    • Modo reactivo: solo responde a instrucciones directas; no ejecuta tareas programadas ni actúa de forma proactiva.

    La seguridad, un punto crítico

    El acceso remoto a un entorno local plantea riesgos significativos. Al utilizar Dispatch, el usuario otorga a la IA la capacidad de ejecutar acciones reales en su computadora, como leer, mover o eliminar archivos.

    Anthropic advierte que es fundamental comprender bien los permisos concedidos y limitar el acceso a entornos de confianza. Un comando malinterpretado o una interacción con contenido malicioso podría desencadenar acciones no deseadas.

    Disponibilidad de Claude Dispatch

    El producto se está desplegando de forma gradual. Por ahora, está disponible como un adelanto para suscriptores del plan Max, con una expansión prevista hacia usuarios Pro en las próximas semanas.


    En conjunto, Claude Dispatch ofrece una visión clara del futuro de la productividad, un entorno donde la potencia de tu computadora ya no está limitada a tu escritorio, sino que te acompaña en el bolsillo.

  • Oracle presenta Java 26

    Oracle anunció Java 26 con Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python
    Oracle anunció Java 26 con Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python

    Java 26 incluye Project Detroit para acelerar la interoperabilidad entre Java, JavaScript y Python

    En el marco de JavaOne, Oracle ha anunciado oficialmente Java 26 y lo más interesante de esta nueva versión es Project Detroit, una nueva iniciativa que busca mejorar de forma significativa la interoperabilidad entre Java, JavaScript y Python.

    Está claro que Java perdió el tren de la IA. Los desarrolladores apostaron principalmente por Python y en menor medida por JavaScript para crear aplicaciones con IA. Si bien no hay nada que impide que una aplicación Java explote APIs de IA como los de OpenAI o Google, Java tiene muchos menos frameworks de desarrollo para integrar Java a sus aplicaciones y eso es un problema para la plataforma.

    Por eso, el objetivo de Java 26 es permitir a los desarrolladores utilizar código escrito en esos lenguajes y que usan esos frameworks de los que carece Java para crear nuevas aplicaciones de forma más rápida, eficiente y segura. Uno podría preguntarse porqué los desarrolladores no abandonan simplemente Java y adoptan Python o JavaScript. La respuesta es sencilla, Java sigue siendo un lenguaje de programación mucho más serio que ambas alternativas y mejor diseñado para aplicaciones empresariales.


    Un nuevo enfoque: runtimes nativos dentro de la JVM

    A diferencia de soluciones anteriores, Project Detroit apuesta por integrar directamente los runtimes más utilizados dentro de la máquina virtual de Java:

    • V8 (motor de JavaScript)
    • CPython

    Esto elimina la necesidad de reimplementaciones, como ocurrió con proyectos anteriores como Nashorn, que intentaban recrear JavaScript dentro de Java.

    El resultado:

    • Mejor compatibilidad con ecosistemas reales
    • Menos problemas en casos límite
    • Mayor rendimiento

    El papel clave del FFM API

    Uno de los pilares técnicos de esta mejora es el Foreign Function and Memory API, introducido en Java 22.

    Este API reemplaza al antiguo Java Native Interface (JNI) con un enfoque más moderno y sencillo, permitiendo crear capas muy ligeras para:

    • Llamar código JavaScript desde Java
    • Invocar Java desde otros lenguajes

    Rendimiento y seguridad mejorados

    Según Oracle, el nuevo enfoque ofrece ventajas claras:

    • Mayor velocidad en la ejecución entre lenguajes
    • Aislamiento de memoria entre heaps (Java, V8, CPython)
    • Modelo de seguridad más robusto

    Esto es especialmente relevante en aplicaciones modernas que necesiten combinar código Java con componentes en Python o JavaScript, principalmente para usar la IA.


    Java 26: una versión de transición

    Java 26 es una versión de Java que tendrá un tiempo de vida corto ya que será reemplazada dentro de seis meses por Java 27.

    Entre las novedades de Java 26:

    • Mejoras incrementales en concurrencia estructurada
    • Avances en el Vector API
    • Soporte para HTTP/3

    También marca el fin de una era con la eliminación definitiva de los applets de Java, ya obsoletos.


    Más novedades dentro del ecosistema Java

    Oracle también anunció otros movimientos estratégicos:

    • Project Helidon se integrará en OpenJDK
    • Lanzamiento del Java Verified Portfolio (JVP), un conjunto validado de herramientas empresariales
    • Soporte renovado para JavaFX
    • Integración de Java en notebooks de Visual Studio Code

    Además, la compañía está reforzando su apuesta por la IA con proyectos como:

    • Helidon AI
    • LangChain4j (fuertemente apoyado por IBM)
    • Spring AI

    Java se adapta (tarde) a la era de la IA

    Project Detroit refleja una tendencia clara, ya ningún lenguaje vive en aislamiento. Las aplicaciones modernas combinan múltiples tecnologías, especialmente ante el auge de la inteligencia artificial.

    Al integrar directamente los runtimes más populares, Oracle busca posicionar Java como un actor central en este nuevo paradigma, facilitando la colaboración entre ecosistemas sin sacrificar rendimiento ni compatibilidad.

    En definitiva, más que competir con otros lenguajes, Java apuesta por convivir con ellos de forma nativa y eficiente.

  • Meta impulsa la automatización local con Manus

    Meta impulsa la automatización local con Manus lanzando la aplicación "My Computer"
    Meta impulsa la automatización local con Manus lanzando la aplicación «My Computer»

    Lanza la aplicación My Computer

    La carrera por dominar el escritorio con inteligencia artificial entra en una nueva fase. Meta, tras adquirir la startup Manus, ha lanzado “My Computer”, una aplicación que transforma tu Mac o PC en un agente de IA capaz de ejecutar acciones directamente en tu máquina.

    A diferencia de otros asistentes centrados en la nube, esta propuesta lleva la inteligencia artificial al entorno local, donde realmente viven los archivos, aplicaciones y flujos de trabajo del usuario.


    De chatbot a “motor de acciones”

    Hasta ahora, Manus operaba en un entorno cloud seguro. Con «My Computer», da un salto clave: acceso directo al sistema local.

    En lugar de limitarse a responder preguntas, la IA funciona como un “action engine”, ejecutando comandos en la terminal de tu equipo. Esto le permite:

    • Leer y organizar archivos
    • Editar documentos
    • Lanzar y controlar aplicaciones
    • Automatizar tareas repetitivas

    Aunque Manus se apoya en la línea de comandos, el usuario solo necesita dar instrucciones en lenguaje natural.


    Automatización real del trabajo diario

    El enfoque práctico es uno de sus puntos más fuertes. Por ejemplo:

    • Un usuario puede pedir a la IA que organice miles de fotos en carpetas automáticamente
    • Un contador puede estandarizar nombres de cientos de facturas en segundos

    Lo que antes requería horas de trabajo manual ahora se resuelve con una sola instrucción.


    Desarrollo de software sin escribir código

    El potencial va mucho más allá de tareas simples. My Computer puede utilizar herramientas locales como:

    • Python
    • Node.js
    • Xcode

    En pruebas internas, Manus fue capaz de crear una app completa para macOS, incluyendo código, depuración y empaquetado, en apenas 20 minutos, todo desde la terminal y sin intervención manual directa.


    Aprovechando el hardware local

    Una de sus características más innovadoras es el uso del hardware inactivo:

    • Se pueden usar los GPUs para entrenar modelos
    • Equipos antiguos pueden convertirse en asistentes de IA 24/7

    Además, la integración con servicios como Google Calendar y Gmail permite conectar el entorno local con la nube.

    Un ejemplo práctico: pedir desde el móvil un archivo guardado en tu ordenador de casa y que la IA lo encuentre y lo envíe automáticamente por correo.


    Seguridad bajo control del usuario

    Dar acceso a la terminal no está exento de riesgos, y por ello el sistema incluye controles estrictos:

    • Cada comando requiere aprobación explícita
    • Opción de permitir una vez o siempre
    • Gestión granular de carpetas accesibles

    También permite programar tareas automáticas seguras, como:

    • Limpiar la carpeta de descargas
    • Generar reportes periódicos

    Disponibilidad inmediata

    My Computer ya está disponible para:

    • macOS
    • Windows

    Los usuarios solo necesitan instalar la app de Manus, iniciar sesión y autorizar el acceso a sus archivos locales.


    El siguiente paso en la evolución de la IA personal

    Con este lanzamiento, Meta y Manus apuestan por un cambio clave: pasar de asistentes conversacionales a sistemas capaces de ejecutar acciones reales en tu entorno.

    La propuesta es clara: no se trata solo de hablar con la IA, sino de convertirla en una extensión operativa de tu ordenador. Un motor que no solo entiende tus ideas, sino que también las lleva a cabo.

  • Nvidia presenta DLSS 5: el “momento GPT” para los gráficos de videojuegos

    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5
    Jensen Huang, el CEO de Nvidia, quien presento la nueva tecnologia DLSS 5

    Nvidia quiere redefinir la forma en que se renderizan los videojuegos. Durante la conferencia Nvidia GTC de 2026, el CEO Jensen Huang presentó DLSS 5, la próxima generación de su tecnología de escalado basada en inteligencia artificial.

    Huang describió este avance como “el momento GPT para los gráficos”, sugiriendo que podría representar el mayor salto tecnológico desde la introducción del ray tracing en tiempo real en 2018. Este anuncio lo hizo el mismo día en el que Sony lanzó el PSSR 2 para PlayStation 5 Pro.


    De reescalar imágenes a generar gráficos

    Las versiones anteriores de Deep Learning Super Sampling (DLSS) utilizaban redes neuronales principalmente para:

    • Escalar imágenes desde resoluciones más bajas
    • Generar fotogramas adicionales para mejorar el rendimiento

    DLSS 5 da un paso más allá.

    Según Nvidia, la nueva tecnología utiliza una tecnología llamada “neural rendering”, que combina datos del motor gráfico, como geometría 3D, colores y vectores de movimiento, con un modelo de IA capaz de generar detalles visuales realistas en tiempo real.

    Esto permite mejorar automáticamente aspectos como:

    • Iluminación compleja
    • Materiales realistas
    • Detalles de piel, cabello y tejidos

    Demostraciones con gráficos hiperrealistas

    Durante la presentación, Nvidia mostró comparaciones en tiempo real con DLSS 5 activado y desactivado en varios juegos populares, entre ellos:

    • Resident Evil: Requiem
    • Starfield
    • Hogwarts Legacy
    • EA Sports FC

    En los ejemplos, los personajes pasaban de tener rostros planos y artificiales a modelos mucho más realistas con:

    • Reflejos naturales en los ojos
    • Imperfecciones en la piel
    • Cabello y barba con hebras individuales

    La IA también puede generar efectos complejos como subsurface scattering, el fenómeno por el cual la luz penetra ligeramente en la piel antes de reflejarse.


    Renderizado cinematográfico, en tiempo real

    Normalmente, lograr ese nivel de realismo requiere enormes tiempos de procesamiento. Los efectos visuales de cine pueden tardar horas en renderizar un solo fotograma, y los generadores de video por IA como Sora necesitan varios segundos o minutos para producir resultados.

    DLSS 5, en cambio, realiza este proceso en tiempo real, generando imágenes en apenas 16 milisegundos, lo que permite jugar en resoluciones de hasta 4K.


    Controversia entre desarrolladores y jugadores

    El anuncio, sin embargo, ha generado debate.

    A diferencia de versiones anteriores, DLSS 5 no solo mejora la imagen existente, sino que genera nuevos detalles visuales mediante IA. Algunos críticos argumentan que esto podría alterar la intención artística original de los desarrolladores.

    Otros comparan el resultado con filtros de IA que “embellecen” imágenes en fotografía y video, algo que algunos jugadores consideran artificial.

    También se cuestionó la forma en que Nvidia mostró las comparaciones: las demostraciones enfrentaban DLSS 5 contra versiones de los juegos sin tecnologías de escalado activadas, lo que dificulta medir la mejora real frente a configuraciones máximas con versiones anteriores como DLSS 4.5.


    Un enorme desafío de hardware

    Ejecutar un modelo generativo de video en tiempo real exige una potencia de cálculo considerable.

    Durante la demostración en GTC, Nvidia utilizó dos tarjetas gráficas GeForce RTX 5090:

    • Una dedicada a renderizar el juego
    • Otra dedicada exclusivamente a ejecutar el modelo de DLSS 5

    La compañía asegura que cuando la tecnología llegue al mercado este otoño podrá funcionar con una sola GPU, aunque probablemente seguirá requiriendo hardware de gama alta.


    El futuro de los gráficos impulsados por IA

    Como en versiones anteriores de DLSS, los desarrolladores deberán integrar manualmente la tecnología en sus juegos.

    Varios grandes editores ya han confirmado su interés, incluyendo:

    • Bethesda Softworks
    • Capcom
    • NCSoft
    • Tencent
    • Warner Bros. Games

    Con DLSS 5, Nvidia apuesta claramente por un futuro donde los videojuegos mezclen gráficos 3D tradicionales con generación visual mediante inteligencia artificial.

    La gran incógnita ahora es si los jugadores aceptarán estos píxeles generados por IA como una evolución natural del medio o si los verán como una interferencia artificial en el arte del videojuego.