gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • PwC obliga a adoptar la IA a sus empleados

    IA
    PwC obliga a adoptar la IA a sus empleados

    Así está transformando la IA a la consultoría global

    Adoptar la IA o quedarse fuera. Ese es el mensaje contundente que ha lanzado PwC (PricewaterhouseCoopers) a su plantilla mientras redefine por completo su modelo de negocio, precios y estrategia de talento en plena revolución tecnológica.

    PwC impone una cultura “AI-first”

    Paul Griggs, CEO de PwC en Estados Unidos, ha sido claro: no hay espacio para escépticos de la inteligencia artificial dentro de la firma. Los empleados, especialmente en puestos senior, deben adoptar una mentalidad “AI-first” o arriesgarse a ser reemplazados.

    Según Griggs, nadie tiene “pase libre” en esta transformación. Aquellos que crean que pueden ignorar la adopción de la Inteligencia Artificial probablemente no permanecerán mucho tiempo en la empresa.

    ¿El fin de la facturación por horas?

    El sector de la consultoría está en primera línea del impacto de la inteligencia artificial, debido a su capacidad para automatizar tareas complejas como contabilidad, análisis de datos e investigación.

    Para adaptarse, PwC está abandonando progresivamente su modelo tradicional de facturación por horas, utilizado por décadas, y migrando hacia un enfoque más moderno:

    • Servicios por suscripción basados en IA
    • Plataformas automatizadas sin intervención humana directa
    • Modelos de precio “en base a resultados” (outcomes pricing)

    El eje de este cambio es “PwC One”, una plataforma de inteligencia artificial que ofrece múltiples servicios automatizados, incluyendo herramientas capaces de detectar anomalías en datos empresariales, como informes de sostenibilidad.

    Cambio radical en el talento

    La transformación tecnológica también está redefiniendo el perfil de los empleados que PwC busca contratar.

    Aunque la firma sigue incorporando talento, la prioridad ha cambiado:

    • Más ingenieros y especialistas en datos
    • Menos contadores y consultores tradicionales

    Este giro estratégico llega tras un importante ajuste laboral: PwC recortó 5,600 puestos el año pasado, situando su plantilla global en cerca de 365,000 empleados.

    El auge de la consultoría impulsada por IA

    A pesar de los cambios internos, el sector vive un boom. En 2025, la consultoría global creció un 5.5%, el doble que el año anterior, impulsada por la demanda de empresas que buscan implementar inteligencia artificial.

    Firmas como PwC, Accenture, IBM y McKinsey están capitalizando esta tendencia, posicionándose como socios clave en la transformación digital de sus clientes.

    La paradoja de la inteligencia artificial

    Sin embargo, existe una contradicción importante, los resultados reales de la IA hasta ahora no están cumpliendo las expectativas.

    Estudios recientes muestran que:

    Incluso informes de firmas como Deloitte apuntan a una brecha significativa entre expectativas y resultados.

    ¿Qué está fallando?

    Expertos señalan varias razones detrás de este bajo rendimiento:

    • Falta de formación adecuada para empleados
    • Problemas de gobernanza en proyectos de IA
    • Expectativas poco realistas sobre el impacto inmediato

    Además, los analistas advierten que implementar herramientas de IA no transforma automáticamente la forma de trabajar. Es necesario acompañar estos cambios con estrategias tecnológicas, organizativas y culturales bien diseñadas.

    Presión desde la dirección

    Aun así, las grandes consultoras están endureciendo su postura. Empresas como Accenture ya exigen a sus empleados demostrar un uso constante de herramientas de IA para poder acceder a promociones.

    Esta presión responde a una realidad: las compañías han invertido miles de millones en inteligencia artificial y necesitan justificar ese gasto con resultados concretos.

    El problema de fondo es que si los empleados empiezan a dar la IA para ser más productivos pero no saben qué hacer con el tiempo que han ahorrado, la productividad no aumentará. Es responsabilidad de los gerentes asegurarse de que ese tiempo libre se usa para generar más valor para la empresa.

    La IA, un futuro inevitable (pero incierto)

    El mensaje desde la alta dirección es claro: la automatización es el futuro, y resistirse no es una opción.

    Sin embargo, la verdadera incógnita es si esta adopción forzada logrará generar el valor prometido o si las empresas deberán replantear su estrategia antes de que la brecha entre expectativas y resultados siga creciendo.

  • Stitch da la bienvenidos a la era del “vibe design”

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas
    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    Stitch de Google ahora convierte tus ideas en interfaces con solo describirlas

    La forma en que construimos software está viviendo una transformación radical. El 18 de marzo de 2026, Google Labs presentó una renovación profunda de Stitch, su herramienta impulsada por IA capaz de generar interfaces web y móviles a partir de simples instrucciones, imágenes o bocetos.

    Impulsada por los modelos Gemini, esta nueva versión convierte en realidad el concepto de “vibe design”, sacudiendo de paso a toda la industria del diseño.

    El anuncio no tardó en impactar los mercados: las acciones de Figma cayeron entre un 8% y un 9% en una sola sesión. Para muchos, esto señala la llegada de un competidor serio. Pero, ¿qué hace tan disruptivo a Stitch?


    De wireframes al “vibe design”

    Inspirado en el concepto de “vibe coding”, donde los desarrolladores generan código con IA a partir de la descripción de lo que pretenden lograr, Rustin Banks, product manager en Google Labs, introduce ahora el “vibe design”.

    En lugar de empezar desde una hoja en blanco, Stitch permite iniciar un proyecto describiendo un objetivo de negocio, la emoción que se quiere transmitir o incluso subiendo capturas de pantalla como referencia.

    A partir de ahí, la herramienta genera mockups visuales de alta fidelidad junto con código front-end listo para producción, incluyendo HTML/CSS, Tailwind y JSX/React.

    Para soportar este flujo, Google ha creado un lienzo infinito nativo de IA, gestionado por un agente inteligente que comprende toda la evolución del proyecto: sigue el progreso, organiza ideas y facilita iteraciones simultáneas.


    Diseñar con la voz

    En 2026, escribir es opcional. Una de las funciones más llamativas de Stitch es su integración por voz.

    Los usuarios pueden hablar directamente con el lienzo para modificar diseños en tiempo real. El agente actúa como un colaborador activo: puede hacer preguntas, sugerir mejoras o ejecutar comandos como:

    • “Dame tres opciones de menú”
    • “Muestra esta pantalla con distintas paletas de colores”

    Conectando diseño y desarrollo

    Google no quiere que Stitch sea una herramienta aislada. Por eso ha incorporado un servidor MCP (Model Context Protocol), un SDK y “skills” de código abierto.

    Esto permite integrar Stitch con asistentes de desarrollo como Claude Code, Cursor o Gemini CLI. En la práctica, otros agentes pueden controlar Stitch desde un entorno de desarrollo (IDE), generar interfaces y devolver el código automáticamente al flujo de trabajo.

    Es un paso clave hacia un ecosistema donde diseño y programación se fusionan completamente.


    ¿El fin de Figma?

    A pesar de la reacción del mercado, Stitch no sustituye (todavía) a herramientas tradicionales como Figma.

    Hoy por hoy, se posiciona en la fase inicial: ideación y prototipado rápido. Es ideal para transformar ideas en interfaces funcionales en minutos, especialmente útil para startups o pruebas de concepto.

    Sin embargo, diseñadores profesionales señalan que los resultados pueden ser algo genéricos. Para trabajos complejos de UX o sistemas de diseño avanzados, Figma sigue siendo esencial.

    En la práctica, muchos flujos modernos combinan ambos:

    • Stitch para generar rápidamente ideas
    • Figma para refinarlas y llevarlas a producción

    Disponibilidad

    Actualmente en fase beta, Stitch está disponible para usuarios residentes en todos los países donde Gemini está accesible. La interfaz, por ahora, se mantiene en inglés.


    Un nuevo paradigma creativo

    Ya seas diseñador o desarrollador, Stitch demuestra que la distancia entre una idea y un producto funcional nunca había sido tan corta.

    El “vibe design” no solo acelera el proceso creativo: redefine quién puede diseñar software.

  • La actuación póstuma de Val Kilmer mediante IA desata admiración y debate en la industria

    La actuación póstuma de Val Kilmer mediante IA desata admiración y debate en la industria
    La actuación póstuma de Val Kilmer mediante IA desata admiración y debate en la industria

    Resucitando una leyenda

    Un año después del fallecimiento del legendario actor Val Kilmer a los 65 años, en abril de 2025, tras una batalla contra el cáncer de garganta y una neumonía posterior, el actor está a punto de regresar a la gran pantalla. Esto no tiene precedentes. Kilmer protagonizará el thriller independiente de 2026 As Deep as the Grave, con una actuación generada completamente mediante inteligencia artificial.

    La decisión de “resucitar” digitalmente a la estrella de Batman Forever y The Doors ha fascinado a la industria del cine y ha dividido profundamente al público, llevando al límite las fronteras entre tecnología, arte y ética cinematográfica.


    Un papel que quedó inconcluso

    La historia detrás de esta aparición póstuma es la de la perseverancia de su director. Cinco años antes de su muerte, Kilmer fue elegido para interpretar al Padre Fintan, un sacerdote católico y espiritualista nativo americano. El guionista y director Coerte Voorhees creó el personaje específicamente para él, inspirado en su herencia y su profunda conexión con el suroeste estadounidense.

    Sin embargo, la producción, inicialmente titulada Canyon of the Dead, se prolongó durante seis años, en parte debido a la pandemia de COVID-19. Durante ese tiempo, la salud de Kilmer se deterioró rápidamente, impidiéndole rodar una sola escena.

    Ante limitaciones presupuestarias y vacíos narrativos, el equipo decidió recurrir a la tecnología:

    “Normalmente habríamos sustituido al actor, pero no podemos volver a rodar. No tenemos el presupuesto”, explicó Voorhees. Entonces fue cuando “Nos dimos cuenta de que la tecnología estaba ahí”.


    Un puente digital profundamente personal

    Para dar vida al personaje, la producción utilizó la IA generativa combinando fotografías antiguas proporcionadas por la familia con imágenes de los últimos años del actor.

    El resultado es especialmente conmovedor por su paralelismo con la vida real. En la película, el personaje sufre tuberculosis, y la voz utilizada es la del propio Kilmer en sus últimos años, afectada por una traqueotomía derivada de su tratamiento contra el cáncer.

    Según el productor John Voorhees, esto creó un “puente” único entre la enfermedad del personaje y la del actor, dando lugar a una interpretación híbrida y profundamente íntima.

    Cabe recordar que Kilmer ya había experimentado con esta tecnología en vida: en 2022 colaboró con la empresa Sonantic para recrear su voz y retomar su papel de Iceman en Top Gun: Maverick.


    El respaldo de la familia y el optimismo tecnológico

    A diferencia de otros casos polémicos, el proyecto se desarrolló con el consentimiento total de la familia y cumpliendo las normas del sindicato de Hollywood SAG. Sus hijos, Mercedes Kilmer y Jack Kilmer, apoyaron activamente la iniciativa.

    Mercedes Kilmer destacó que su padre siempre vio la tecnología como una herramienta para expandir las posibilidades narrativas y que conectaba profundamente con los temas espirituales de la película.


    Un dilema ético para Hollywood

    A pesar de este respaldo, la reacción pública ha sido intensamente polarizada.

    Algunos lo consideran un homenaje emotivo:

    “Si él estuvo de acuerdo antes de morir, ¿por qué no? Es un regalo”.

    Otros, sin embargo, lo ven como algo inquietante:

    “Se siente extraño y hasta macabro”, opinan críticos, argumentando que el papel debería haberse reinterpretado con otro actor.

    También surge una preocupación mayor dentro de la industria:

    ¿Tendrán los actores del futuro que competir con versiones digitales de intérpretes fallecidos?


    Un experimento que podría cambiar el cine

    As Deep as the Grave , que narra la historia real de arqueólogos explorando el Cañón de Chelly en Arizona, se ha convertido en un caso de prueba para toda la industria. Demuestra que la IA puede funcionar como una especie de “seguro creativo” cuando una producción se ve afectada por tragedias, pero también plantea preguntas profundas sobre los límites del arte.

    Con un reparto que incluye a Tom Felton y Abigail Breslin, la película se estrenará en 2026.

    Como adelanta su inquietante premisa:
    «Dos arqueólogos buscan el Cañón de los Muertos… y los muertos los encuentran a ellos.»

    El público decidirá si esta resurrección digital es un avance emocionante o una línea que nunca debió cruzarse. Pero una cosa es segura, la última actuación (algorítmica) de Val Kilmer ya ha dejado una marca imborrable en la historia del cine.

  • Anthropic lanza ‘Claude Dispatch’

    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular
    Anthropic lanza ‘Claude Dispatch’ para poder controlar la IA de escritorio desde el celular

    Controla tu IA de escritorio desde el celular

    Imagina salir de tu escritorio, asignar una tarea compleja a tu computadora desde tu teléfono y volver horas después para encontrar el trabajo completamente terminado. Anthropic convirtió esta idea en realidad con el lanzamiento de Claude Dispatch, una nueva función que permite controlar tareas de IA en el escritorio directamente desde dispositivos móviles.

    Presentado como una versión preliminar dentro del entorno Claude Cowork, Dispatch supone un paso importante hacia un ecosistema de inteligencia artificial más autónomo y siempre activo. Funciona como la contraparte accesible para el público general de Claude Code Remote, una herramienta orientada a desarrolladores lanzada anteriormente.

    Una sola conversación persistente

    La funciónalidad central de Claude Dispatch está basada en su sincronización continua. En lugar de abrir sesiones independientes en distintos dispositivos, la herramienta mantiene una única conversación persistente entre el celular y la computadora de escritorio.

    Esto significa que puedes iniciar una tarea desde tu smartphone, por ejemplo durante el trayecto al trabajo, y retomarla más tarde en tu computadora exactamente donde la dejaste, con todo el contexto intacto.

    Además, como Dispatch aprovecha el entorno local de tu equipo, todo lo que Claude puede hacer en tu escritorio, como acceder a archivos, usar el navegador o interactuar con aplicaciones instaladas, también está disponible de forma remota.

    Casos de uso en el mundo real para Claude Dispatch

    Las posibilidades son amplias y prácticas:

    • Solicitar a la IA que analice una hoja de cálculo local y genere un informe.
    • Buscar información en correos electrónicos o mensajes de Slack para crear un resumen.
    • Construir presentaciones a partir de archivos almacenados en Google Drive.
    • Organizar automáticamente carpetas y documentos en el disco duro.

    Los resultados pueden consultarse directamente desde el móvil o encontrarse guardados en el ordenador.

    Configuración y requisitos

    El proceso de configuración es sencillo: basta con tener conexión a internet y las versiones más recientes de las apps de Claude en escritorio y móvil. A través de un código QR, ambos dispositivos se vinculan en segundos.

    Durante la instalación, el usuario debe autorizar el acceso a archivos locales y configurar el equipo para que permanezca activo. Todo el procesamiento se realiza en el propio ordenador, dentro de un entorno seguro.

    Limitaciones actuales de Claude Dispatch

    Al tratarse de una versión preliminar, Dispatch presenta algunas restricciones importantes:

    • La computadora debe estar encendida: si entra en reposo, la IA no puede ejecutar tareas.
    • Sin notificaciones: Claude Dispatch no avisa automáticamente cuando un trabajo ha terminado.
    • Un solo hilo de conversación: no permite separar tareas en proyectos independientes.
    • Modo reactivo: solo responde a instrucciones directas; no ejecuta tareas programadas ni actúa de forma proactiva.

    La seguridad, un punto crítico

    El acceso remoto a un entorno local plantea riesgos significativos. Al utilizar Dispatch, el usuario otorga a la IA la capacidad de ejecutar acciones reales en su computadora, como leer, mover o eliminar archivos.

    Anthropic advierte que es fundamental comprender bien los permisos concedidos y limitar el acceso a entornos de confianza. Un comando malinterpretado o una interacción con contenido malicioso podría desencadenar acciones no deseadas.

    Disponibilidad de Claude Dispatch

    El producto se está desplegando de forma gradual. Por ahora, está disponible como un adelanto para suscriptores del plan Max, con una expansión prevista hacia usuarios Pro en las próximas semanas.


    En conjunto, Claude Dispatch ofrece una visión clara del futuro de la productividad, un entorno donde la potencia de tu computadora ya no está limitada a tu escritorio, sino que te acompaña en el bolsillo.

  • OpenAI da un giro estratégico para enderezar la empresa

    Menos experimentos para OpenAI y más productividad empresarial
    Menos experimentos para OpenAI y más productividad empresarial

    Menos experimentos y más productividad empresarial

    OpenAI ha decidido cambiar de rumbo de forma contundente. Ante la creciente presión de competidores como AnthropicGoogle, la compañía está dejando atrás proyectos experimentales para centrarse en lo que considera su prioridad clave: herramientas de productividad para empresas.


    De “todo a la vez” a un enfoque claro

    Durante los últimos meses, OpenAI había diversificado agresivamente su portafolio:

    • El navegador ChatGPT Atlas
    • El modelo de vídeo Sora
    • Un misterioso dispositivo físico con Jony Ive

    Sin embargo, esta estrategia de expansión parece haber terminado por diluir su foco. Según reportes recientes del Wall Street Journal, la dirección ha reconocido que intentar abarcar demasiado los puso a la defensiva frente a competidores más enfocados.


    GPT-5.4: el nuevo eje de la estrategia

    El cambio ya se está materializando con el lanzamiento de GPT-5.4, un modelo diseñado específicamente para:

    • Desarrollo de software
    • Automatización de tareas
    • Sistemas basados en “agentes” de IA

    A diferencia de versiones anteriores, este modelo puede operar como un agente capaz de interactuar con múltiples aplicaciones dentro de un mismo entorno, ejecutando flujos de trabajo completos de forma autónoma, cosa que sus competidores ya hacían.

    Este enfoque acerca a OpenAI a propuestas como OpenClaw, que han ganado popularidad al demostrar el potencial real de los agentes autónomos.


    Presión competitiva: Claude y Gemini avanzan

    El giro estratégico no ocurre en el vacío. Claude de Anthropic ha ganado terreno rápidamente, especialmente entre desarrolladores y empresas, gracias a herramientas como Claude Code.

    Por su parte, Gemini de Google también ha acelerado su evolución, con lanzamientos más frecuentes y modelos cada vez más competitivos.

    Dentro de OpenAI, la situación se percibe como crítica. Fidji Simo, responsable de aplicaciones, llegó a describir el momento como una “alerta roja” para recuperar la confianza del mercado B2B. La situación no es para menos, después de haber sido percibidos como líderes de mercado, en meses recientes en la mente de muchos usuarios han caído al tercer lugar.


    El objetivo: dominar el trabajo, no el entretenimiento

    La nueva estrategia es clara:

    • Priorizar herramientas útiles para empresas
    • Centrarse en desarrolladores
    • Abandonar proyectos considerados “secundarios”

    Esto implica apostar por:

    • Automatización de workflows
    • Integración entre aplicaciones
    • Agentes capaces de ejecutar tareas reales

    Más que competir en experiencias llamativas para el consumidor, OpenAI quiere convertirse en la infraestructura que impulsa el trabajo diario.


    Un reconocimiento implícito

    Este cambio también refleja cierta autocrítica. Algunos proyectos recientes no lograron el impacto esperado, y la compañía parece haber entendido que, en plena carrera por la IA, el foco es esencial.

    Al volver a centrar sus esfuerzos en productividad y agentes autónomos, OpenAI busca recuperar terreno en el segmento más estratégico: empresas y desarrolladores.


    La guerra de la IA entra en una nueva fase

    Con este giro, queda claro que la competencia ya no se define solo por quién tiene el mejor modelo, sino por quién ofrece las herramientas más útiles para trabajar.

    OpenAI apuesta ahora por ser ese proveedor clave. La pregunta es si este cambio llega a tiempo para frenar el avance de sus rivales.

  • Nvidia presenta NemoClaw para la nueva era de agentes autónomos

    Nvidia presenta NemoClaw para la nueva era de agentes autónomos, pero con seguridad empresarial
    Nvidia presenta NemoClaw para la nueva era de agentes autónomos, pero con seguridad empresarial

    Seguridad empresarial para la nueva era de agentes autónomos

    En la conferencia GTC 2026 celebrada en San José, Jensen Huang dejó clara su apuesta por los agentes autónomos de IA, que serán el nuevo paradigma informático. “Este es el nuevo ordenador”, afirmó, comparando su impacto con el de Windows en la era del PC.

    Sin embargo, junto con su potencial revolucionario, estos sistemas han traído importantes riesgos de seguridad. Para resolver este problema, Nvidia ha presentado NemoClaw, un nuevo stack open source diseñado para hacer seguros los agentes autónomos en entornos empresariales.


    El auge (y peligro) de los “claws”

    Los llamados “claws” o agentes de software impulsados por IA, pueden:

    • Acceder a herramientas
    • Interactuar con sistemas
    • Ejecutar tareas complejas de forma autónoma

    Plataformas como OpenClaw han demostrado su enorme potencial, automatizando flujos de trabajo completos con mínima intervención humana.

    Pero esta autonomía también implica riesgos críticos:

    • Acceso a datos sensibles
    • Ejecución de acciones no autorizadas
    • Posibles filtraciones o escaladas de privilegios

    Esto ha frenado su adopción en empresas, donde la seguridad es prioritaria.


    NemoClaw: una capa de protección inteligente

    NemoClaw actúa como intermediario entre los agentes y la infraestructura, añadiendo controles estrictos de seguridad.

    En el centro del sistema está OpenShell, un runtime open source que funciona como un sandbox aislado. Su función es:

    • Interceptar cada comando del agente
    • Verificar permisos en tiempo real
    • Bloquear o detener acciones sospechosas

    Si un agente intenta acceder a datos confidenciales o enviar información a destinos no autorizados, el sistema cancela automáticamente la operación.


    Privacy Router: control total de los datos

    Una de las innovaciones más destacadas es el Privacy Router, que funciona como una “aduana digital” para los datos.

    Este sistema:

    • Analiza todo el contenido antes de enviarlo a modelos externos
    • Detecta información sensible (API keys, tarjetas, secretos empresariales)
    • Anonimiza o bloquea datos automáticamente

    Además, optimiza el uso de recursos:

    • Prioriza modelos locales para tareas simples
    • Utiliza modelos avanzados en la nube solo cuando es necesario

    Seguridad sin complejidad

    A pesar de su sofisticación, Nvidia ha diseñado NemoClaw para ser fácil de instalar, mediante un solo comando.

    Actualmente está disponible en versión alpha y es compatible con múltiples entornos ya que funciona tanto en:

    • PCs con GPUs GeForce RTX
    • Estaciones de trabajo profesionales
    • Sistemas empresariales como DGX

    Un paso clave para la adopción empresarial

    Con NemoClaw, Nvidia aborda uno de los mayores obstáculos de la IA autónoma: la confianza.

    La compañía deja claro su mensaje: los agentes autónomos no solo son inevitables, sino que ya están listos para el mundo empresarial, si cuentan con las protecciones adecuadas.

    En un momento en que la industria avanza hacia sistemas capaces de actuar por sí mismos, soluciones como NemoClaw podrían marcar la diferencia entre una tecnología prometedora y una adoptada masivamente.

  • Meta impulsa la automatización local con Manus

    Meta impulsa la automatización local con Manus lanzando la aplicación "My Computer"
    Meta impulsa la automatización local con Manus lanzando la aplicación «My Computer»

    Lanza la aplicación My Computer

    La carrera por dominar el escritorio con inteligencia artificial entra en una nueva fase. Meta, tras adquirir la startup Manus, ha lanzado “My Computer”, una aplicación que transforma tu Mac o PC en un agente de IA capaz de ejecutar acciones directamente en tu máquina.

    A diferencia de otros asistentes centrados en la nube, esta propuesta lleva la inteligencia artificial al entorno local, donde realmente viven los archivos, aplicaciones y flujos de trabajo del usuario.


    De chatbot a “motor de acciones”

    Hasta ahora, Manus operaba en un entorno cloud seguro. Con «My Computer», da un salto clave: acceso directo al sistema local.

    En lugar de limitarse a responder preguntas, la IA funciona como un “action engine”, ejecutando comandos en la terminal de tu equipo. Esto le permite:

    • Leer y organizar archivos
    • Editar documentos
    • Lanzar y controlar aplicaciones
    • Automatizar tareas repetitivas

    Aunque Manus se apoya en la línea de comandos, el usuario solo necesita dar instrucciones en lenguaje natural.


    Automatización real del trabajo diario

    El enfoque práctico es uno de sus puntos más fuertes. Por ejemplo:

    • Un usuario puede pedir a la IA que organice miles de fotos en carpetas automáticamente
    • Un contador puede estandarizar nombres de cientos de facturas en segundos

    Lo que antes requería horas de trabajo manual ahora se resuelve con una sola instrucción.


    Desarrollo de software sin escribir código

    El potencial va mucho más allá de tareas simples. My Computer puede utilizar herramientas locales como:

    • Python
    • Node.js
    • Xcode

    En pruebas internas, Manus fue capaz de crear una app completa para macOS, incluyendo código, depuración y empaquetado, en apenas 20 minutos, todo desde la terminal y sin intervención manual directa.


    Aprovechando el hardware local

    Una de sus características más innovadoras es el uso del hardware inactivo:

    • Se pueden usar los GPUs para entrenar modelos
    • Equipos antiguos pueden convertirse en asistentes de IA 24/7

    Además, la integración con servicios como Google Calendar y Gmail permite conectar el entorno local con la nube.

    Un ejemplo práctico: pedir desde el móvil un archivo guardado en tu ordenador de casa y que la IA lo encuentre y lo envíe automáticamente por correo.


    Seguridad bajo control del usuario

    Dar acceso a la terminal no está exento de riesgos, y por ello el sistema incluye controles estrictos:

    • Cada comando requiere aprobación explícita
    • Opción de permitir una vez o siempre
    • Gestión granular de carpetas accesibles

    También permite programar tareas automáticas seguras, como:

    • Limpiar la carpeta de descargas
    • Generar reportes periódicos

    Disponibilidad inmediata

    My Computer ya está disponible para:

    • macOS
    • Windows

    Los usuarios solo necesitan instalar la app de Manus, iniciar sesión y autorizar el acceso a sus archivos locales.


    El siguiente paso en la evolución de la IA personal

    Con este lanzamiento, Meta y Manus apuestan por un cambio clave: pasar de asistentes conversacionales a sistemas capaces de ejecutar acciones reales en tu entorno.

    La propuesta es clara: no se trata solo de hablar con la IA, sino de convertirla en una extensión operativa de tu ordenador. Un motor que no solo entiende tus ideas, sino que también las lleva a cabo.

  • OpenAI lanza GPT-5.4 mini y nano

    OpenAI lanza GPT-5.4 mini y nano. Modelos más rápidos y eficientes para cargas masivas.
    OpenAI lanza GPT-5.4 mini y nano. Modelos más rápidos y eficientes para cargas masivas.

    Modelos más rápidos y eficientes para cargas masivas

    OpenAI continúa ampliando su ecosistema de inteligencia artificial con el lanzamiento de GPT-5.4 mini y GPT-5.4 nano, dos versiones optimizadas de su modelo principal GPT-5.4.

    Tras la llegada en marzo de GPT-5.4, centrado en tareas exigentes como programación avanzada y análisis de datos, estos nuevos modelos están diseñados para ofrecer alto rendimiento con mayor velocidad y menor coste, especialmente en entornos de alto volumen y flujos de trabajo con múltiples agentes.


    GPT-5.4 mini: alto rendimiento con menor latencia

    GPT-5.4 mini representa un salto importante en modelos compactos.

    Es más del doble de rápido que su predecesor, GPT-5 mini, y mejora significativamente en:

    • Programación
    • Razonamiento
    • Uso de herramientas
    • Comprensión multimodal (texto, imagen y audio)

    Además, se acerca al rendimiento del modelo completo en evaluaciones exigentes como:

    • SWE-Bench Pro
    • OSWorld-Verified

    El modelo está especialmente diseñado para tareas donde la velocidad es clave, como:

    • Iteración rápida en código
    • Depuración (debugging)
    • Navegación de bases de código
    • Generación de interfaces

    También destaca en tareas de “uso de computadora”, interpretando capturas de pantalla y ejecutando acciones de forma eficiente.


    GPT-5.4 nano: máxima eficiencia a gran escala

    Para escenarios donde el coste y la velocidad son prioritarios, OpenAI introduce su nuevo modelo en versión nano.

    Este modelo está optimizado para tareas más simples pero de gran volumen, como:

    • Clasificación de datos
    • Extracción de información
    • Ranking de contenido

    También es ideal como motor para subagentes, encargados de tareas específicas dentro de sistemas más complejos.


    El auge de los sistemas multi-modelo

    Uno de los cambios más importantes que acompañan este lanzamiento es el enfoque hacia arquitecturas distribuidas.

    En lugar de depender de un único modelo grande, los desarrolladores pueden ahora construir sistemas donde:

    • Un modelo principal (como GPT-5.4) coordina y toma decisiones
    • Modelos más pequeños (mini o nano) ejecutan tareas específicas en paralelo

    Esto permite:

    • Procesar grandes volúmenes de datos
    • Reducir la latencia
    • Optimizar costos

    Disponibilidad de GPT-5.4 mini y nano en ChatGPT y a través del API

    OpenAI ha hecho que estos modelos estén disponibles en múltiples entornos:

    En ChatGPT

    • GPT-5.4 mini está disponible incluso para usuarios gratuitos mediante la opción “Thinking”
    • También funciona como alternativa rápida cuando se alcanzan los límites del modelo principal

    En herramientas de desarrollo

    • Integración con Codex (CLI, IDE, app web)
    • Ideal para tareas de programación más simples a menor costo

    En la API de OpenAI

    Ambos modelos están disponibles para desarrolladores:

    • GPT-5.4 mini
      • Ventana de contexto de hasta 400.000 tokens
      • Soporte para texto e imagen
      • Funciones avanzadas como búsqueda web, archivos y uso de herramientas
    • GPT-5.4 nano
      • El modelo más económico
      • Optimizado para tareas masivas y automatizadas

    Más velocidad sin sacrificar inteligencia

    Con los nuevos modelos mini y nano, OpenAI refuerza una tendencia clara en la industria, a saber que la inteligencia artificial no solo debe ser potente, sino también rápida, escalable y accesible.

    Este lanzamiento permite a desarrolladores y empresas equilibrar rendimiento, coste y velocidad, abriendo la puerta a sistemas más complejos, reactivos y eficientes.

  • Una “mosca digital” causa sensación en internet, pero la realidad científica es más compleja

    Nos acercamos a la realidad de la serie «Upload» de Amazon Prime Video

    Un video que muestra a una mosca de la fruta digital caminando, limpiándose las patas y reaccionando a estímulos se ha vuelto viral en redes sociales, generando comparaciones con escenas de ciencia ficción. Las imágenes fueron publicadas por la startup Eon Systems y rápidamente se difundieron en plataformas como X y Reddit.

    La empresa describió el experimento en términos ambiciosos. Su CEO, Michael Andregg, afirmó que se trata de “un animal real subido a un sistema digital”, mientras que el cofundador Alexander Wissner-Gross lo calificó como “la primera encarnación de una emulación completa de cerebro”. Incluso sugirió que este tipo de avances podría acercar a la humanidad a una eventual singularidad tecnológica.

    Sin embargo, aunque el marketing es llamativo y que detrás del proyecto sí existe un logro científico real, este último es menos espectacular de lo que algunos titulares sugieren.


    El cerebro digital de una mosca

    El modelo se basa en el conectoma completo del cerebro de una mosca adulta de la especie Drosophila melanogaster.

    Este mapa cerebral fue publicado recientemente por el proyecto científico Flywire y representa una reconstrucción tridimensional extremadamente detallada que incluye:

    • Aproximadamente 125.000 neuronas
    • Alrededor de 50 millones de sinapsis

    En esencia, es un mapa que muestra cómo están conectadas todas las neuronas del cerebro de una determinada mosca.


    Cómo se creó la simulación

    Eon Systems no “copió” un cerebro real a una computadora. En cambio, combinó varias herramientas científicas ya existentes.

    Primero, el conectoma fue procesado mediante el simulador de redes neuronales de código abierto Brian2.

    Luego, el cerebro digital se conectó a un modelo virtual del cuerpo de la mosca llamado NeuroMechFly, que reproduce:

    • Patas
    • Antenas
    • Aparato bucal

    Finalmente, el entorno físico se simuló con el motor de física MuJoCo.

    El resultado fue una especie de “criatura digital” donde un cerebro simulado controla un cuerpo virtual.


    Comportamientos similares a los de una mosca real

    Cuando la simulación se ejecutó, el modelo produjo comportamientos reconocibles:

    • La mosca digital caminó
    • Se detuvo para limpiarse las antenas
    • Reaccionó a señales químicas simuladas

    Por ejemplo, cuando el sistema recibió un estímulo digital equivalente al olor del azúcar, el modelo extendió su probóscide para “lamer”.


    Un avance importante, según expertos

    Algunos científicos consideran que la demostración es un paso relevante en la neurociencia computacional.

    El investigador Steve Furber, co-creador del procesador ARM, calificó el trabajo como “bastante impresionante”.

    Furber señaló que proyectos anteriores que intentaban conectar cerebros simulados con cuerpos digitales, como modelos de ratones, resultaron demasiado complejos. Lograrlo con una mosca representa un primer paso prometedor.


    Las limitaciones del experimento

    Aun así, varios expertos advierten que el sistema no reproduce fielmente un cerebro biológico.

    Entre las principales limitaciones se encuentran:

    • El modelo funciona más como un sistema de aprendizaje automático adaptado a la estructura cerebral
    • Recibe inputs (entradas) simplificados, no estímulos sensoriales reales
    • La actividad neuronal no replica completamente la dinámica de un cerebro vivo

    Además, existe el problema del costo computacional. Aunque los videos se ven fluidos, es muy probable que generar apenas unos segundos de comportamiento haya requerido semanas o incluso meses de procesamiento.


    Un primer paso técnico, no un “animal digital”

    Por ahora, el experimento no representa un organismo consciente ni un cerebro completamente emulado.

    Aún estamos muy lejos de escenarios como insectos digitales controlando robots o drones.

    Sin embargo, al conectar con éxito un cerebro simulado con un cuerpo virtual y producir comportamientos biológicos plausibles, el equipo ha demostrado un hito técnico real en la simulación neuronal.

    Y aunque la realidad sea menos espectacular que la narrativa de ciencia ficción que muchos presentaron en redes sociales, este tipo de avances sigue mostrando cómo la neurociencia y la inteligencia artificial se acercan cada vez más a modelar sistemas biológicos complejos.

  • Meta retrasa su modelo de IA “Avocado” tras problemas de rendimiento

     pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.
    A pesar de las inversiones, Meta sigue teniendo problemas para desarrollar un modelo líder de IA.

    Meta Platforms ha pospuesto el lanzamiento de su esperado modelo de inteligencia artificial de nueva generación, conocido internamente como Avocado (aguacate), después de detectar problemas de rendimiento durante las pruebas internas.

    Inicialmente previsto para mediados de marzo, según un artículo del New York Times, el modelo ahora apunta a una ventana de lanzamiento entre mayo y junio, lo que refleja los desafíos que enfrenta la compañía en la carrera por la inteligencia artificial avanzada.


    Un modelo que no alcanza a los líderes del sector

    Durante las pruebas internas, Avocado fue evaluado en tareas clave como:

    • Razonamiento
    • Programación
    • Redacción

    Los resultados mostraron avances respecto al modelo anterior de Meta, Llama 4, e incluso superó a Gemini 2.5 de Google.

    Sin embargo, el modelo no logró igualar el rendimiento de Gemini 3.0, lo que llevó a Meta a retrasar su lanzamiento mientras intenta mejorar sus capacidades.

    La brecha de rendimiento ha sido lo suficientemente preocupante como para que algunos ejecutivos consideren licenciar temporalmente la tecnología Gemini de Google para impulsar ciertos productos de Meta, una posibilidad que subraya la presión competitiva en el sector.


    Inversiones masivas para alcanzar la “superinteligencia”

    El retraso llega pese a los enormes recursos que Meta está destinando a la inteligencia artificial.

    El CEO Mark Zuckerberg ha señalado que el objetivo de la empresa es alcanzar la “superinteligencia”, un nivel de IA que supere la capacidad humana.

    Para ello, Meta ha proyectado:

    • Entre 115.000 y 135.000 millones de dólares en gasto de capital este año
    • Aproximadamente 600.000 millones de dólares en infraestructura, incluidos centros de datos y chips propios

    Estas cifras casi duplican la inversión de la compañía en el año anterior.


    Reorganización interna y nuevos líderes

    Tras el desempeño decepcionante de Llama 4, Meta también reorganizó su liderazgo en inteligencia artificial.

    En junio, la compañía invirtió 14.300 millones de dólares en la startup Scale AI y nombró a su fundador y CEO, Alexandr Wang, como nuevo Chief AI Officer.

    Wang creó un equipo de élite de unos 100 investigadores llamado TBD Lab, encargado de desarrollar una nueva generación de modelos con nombres inspirados en frutas.

    Entre ellos:

    • Avocado, un modelo centrado en texto
    • Mango, enfocado en generación de imágenes y video
    • Watermelon, un futuro modelo fundacional aún más grande

    El equipo también lanzó recientemente Vibes, una aplicación de video generativo diseñada para competir con herramientas como Sora de OpenAI.


    Tensiones internas y cambios estratégicos

    Además de los desafíos técnicos, Meta enfrenta debates internos sobre el futuro de su estrategia de IA.

    Históricamente, la empresa ha sido una defensora del modelo abierto en inteligencia artificial. Sin embargo, ahora algunos de sus líderes, incluidos Zuckerberg y Wang, han considerado mantener el modelo de Avocado cerrado.

    También han surgido desacuerdos sobre cómo integrar estos nuevos modelos en el negocio publicitario de Meta entre Wang, el director de producto Chris Cox y el director tecnológico Andrew Bosworth.

    Para mejorar la coordinación, la empresa ha creado un nuevo equipo de ingeniería de IA bajo la dirección de Bosworth que trabajará directamente con la división de Wang.


    Meta mantiene el optimismo

    A pesar del retraso, Meta insiste en que el desarrollo sigue avanzando.

    Según el portavoz de la compañía Dave Arnold, el próximo modelo no solo será competitivo, sino que demostrará la rapidez con la que la empresa está avanzando en el desarrollo de nuevas capacidades de IA.

    Mientras el equipo de TBD Lab continúa refinando Avocado para un lanzamiento a finales de primavera, Meta ya está trabajando en la próxima generación de modelos.