gadgetsgenial.es

Categoría: IA

Noticias acerca de productos y servicios relacionados con la Inteligencia Artificial

  • Ring pretendía usar la función «Search Party» para rastrear personas

    Ring Search Party parece ser una amenaza para la privacidad
    Ring Search Party parece ser una amenaza para la privacidad

    Ring nos quiere vigilar a todos

    Ring es una compañía adquirida por Amazon en 2018 y que ofrece productos de videovigilancia, principalmente en Norteamérica y Europa. En EEUU también ofrece diversos servicios de seguridad, bajo el nombre Ring Protect.

    Son justamente esos servicios, que van desde guardar los videos de vigilancia en la nube hasta monitoreo profesional de la señal de video y llamada inmediata a los servicios de emergencia en caso de ser necesario, los que están en el ojo del huracán.

    El anuncio de la discordia

    Durante el Superbowl, el evento deportivo más visto en EEUU, Ring puso un anuncio llamado “Search Party” (equipo de búsqueda) en el que se mostraba cómo esta nueva herramienta permitía encontrar un perro perdido.

    Presentada inicialmente como una herramienta que ayudaba a localizar mascotas perdidas, esta funcionalidad inmediatamente empezó a ser rechazada por gran parte de la audiencia porque la gente se percató que a futuro podría ser usada para rastrear personas .

    Esta reacción no refleja paranoia. En efecto, Ring ya ofrece una funcionalidad llamada “Familiar Faces” que utiliza el reconocimiento facial para identificar a las personas capturadas por las cámaras. Por lo tanto, combinar ambas tecnologías es el siguiente paso lógico y nos acercaría aún más en dirección a una sociedad vigilada en permanencia.

    La prueba de las verdaderas intenciones de Ring

    Estos temores ahora se han visto confirmados tras la divulgación de un correo electrónico interno enviado por el fundador de la empresa, Jamie Siminoff.

    En él, Siminoff expresó su creencia de que la tecnología podría «eliminar la delincuencia en los vecindarios», imaginando un futuro en el que las capacidades de Ring se extiendan mucho más allá de la localización de mascotas perdidas, confirmando los temores del público.

    Además sugirió que la tecnología de Ring podría haberse utilizado para atrapar a delincuentes aprovechando la función Community Requests (Solicitudes de la Comunidad) de la empresa. Esta herramienta permite a las fuerzas del orden solicitar imágenes a los propietarios de cámaras, gracias a una asociación con la empresa de tecnología policial Axon (la cual fue cancelada hace unos días, coincidiendo con la reacción negativa del público).

    Si bien Ring sostiene que Search Party «no procesa datos biométricos humanos ni rastrea a las personas» y que «compartir (información y videos) siempre ha sido opcional para el propietario de la cámara», las palabras de Siminoff han suscitado serias dudas sobre las intenciones de la empresa.

    El incidente ha provocado una crisis de relaciones públicas por lo que Siminoff, según se informa, se ha embarcado en una «gira de disculpas” para abordar las preocupaciones de sus clientes y del público en general.

    Una tendencia peligrosa

    La situación pone de relieve una tendencia creciente en la industria tecnológica: la introducción de tecnologías potencialmente invasivas bajo la apariencia de aplicaciones inofensivas o incluso beneficiosas.

    Al centrarse inicialmente en las mascotas, las empresas pueden suavizar el golpe y normalizar la idea de la vigilancia generalizada.

    Este enfoque refleja las tácticas observadas en otras industrias, como las pruebas de ADN de mascotas, que han allanado el camino para una mayor aceptación de las pruebas de ADN humano.

    Las regulaciones que rodean los productos y servicios centrados en mascotas suelen ser menos estrictas, lo que permite a las empresas refinar su tecnología antes de aplicarla a los humanos.

    La controversia en torno a la función Search Party de Ring sirve como un crudo recordatorio de las consideraciones éticas en torno a la tecnología de vigilancia. A medida que los dispositivos para hogares inteligentes se integran cada vez más en nuestras vidas, es fundamental examinar el potencial de uso indebido y garantizar que se protejan la privacidad y las libertades civiles.

  • Claude Sonnet 4.6 trae grandes mejoras, incluso sin pagar por el servicio

    El modelo intermedio de Anthropic mejora significativamente

    El pasado 5 de febrero, Anthropic anunció su modelo más avanzado, Claude Opus 4.6. El cambio respecto a la versión anterior, Opus 4.5, representó un cambio sustancial.

    Hoy le tocó la actualización a su modelo intermedio, Claude Sonnet 4.6, que promete capacidades mejoradas que pueden ser aplicadas a una gran variedad de tareas. Esta es la primera actualización del modelo Sonnet desde septiembre de 2025 y ya está causando sensación.

    Sonnet 4.6 cuenta, al igual que Opus 4.6 con una ventana de contexto de 1 millón de tokens, cinco veces mayor que la versión anterior, lo que permite lograr interacciones más complejas y matizadas. Los desarrolladores que han tenido acceso anticipado a Sonnet 4.6 han elogiado su capacidad de programación, revisión de código y corrección de errores, citando mejoras en la consistencia y el seguimiento de instrucciones.

    Más allá de la programación (el mercado que Anthropic ha logrado dominar), Sonnet 4.6 demuestra una marcada mejora en realizar tareas de forma automatizada en computadoras. Las tareas que anteriormente requerían un modelo de clase Opus, incluyendo el manejo de aplicaciones de oficina para resolver problemas reales, lo que genera un valor económico demostrable, ahora pueden ser realizadas de forma eficiente por Sonnet 4.6. Esto incluye tareas complejas como navegar por enormes hojas de cálculo o rellenar formularios web que constan de varios pasos, como lo haría un humano.

    Los beneficios de Sonnet 4.6 también van a llegar a los usuarios de Claude de nivel gratuito ya que por defecto, este nivel ahora utiliza Sonnet 4.6.

    Claude Sonnet 4.6 representa un importante paso adelante en las capacidades de la IA, a un precio razonable, al permitir que la IA avanzada pueda llegar a un público mayor y permita realizar nuevos tipos de tareas.

  • Western Digital anuncia haber vendido casi toda su producción de 2026

    Logo de Western Digital
    Logo de Western Digital

    Western Digital anuncia haber ya vendido casi toda su producción para este 2026

    Los mercados de la IA y de la nube siguen en pleno auge, provocando tensiones en los precios de todos los componentes electrónicos, cosa que ya hemos visto en el mercado de la memoria, cuyos costos se han disparado.

    Para ilustrar esto, hay que saber que Western Digital ha anunciado haber vendido prácticamente toda su producción del año 2026. El fabricante está, por supuesto, orgulloso de haberlo logrado ahora, a principios de febrero y las cotizaciones de sus acciones obviamente van al alza.

    La demanda de discos duros se ha disparado por varios motivos. Por un lado, los data centers siguen necesitando más capacidad de almacenamiento y los discos duros ofrecen productos con una excelente relación calidad-precio, dado que los discos SSD siguen siendo mucho más caros, por lo que se suelen reservar a datos con alta demanda (normalmente datos recientes) y que deben poder ser procesados muy rápidamente.

    Por otro lado, la IA ha incrementado la demanda de almacenamiento de datos a nivel mundial dado que el entrenamiento de modelos LLM requiere de enormes bancos de datos.

    Al final, los que más se resienten son los consumidores, por lo que si tenían planeado adquirir una SAN para almacenar su biblioteca de series y de películas, quizás ahora no sea el mejor momento.

  • Apple confirma que lanzará el nuevo Siri este año, como prometió

    Usuario utilizando Siri
    Usuario utilizando Siri

    Apple ha reiterado su compromiso de lanzar la nueva versión de Siri mejorada en 2026.

    La confirmación se produce en medio de informes que sugieren que el gigante tecnológico estaba enfrentando desafíos para cumplir con sus objetivos en materia de IA.

    Las mejoras planeadas, reveladas por primera vez en la WWDC 2024, prometen una experiencia de Siri más personalizada e intuitiva dotándola de una mayor conciencia contextual, lo que permitirá una comprensión más profunda de las necesidades del usuario y respuestas de mayor calidad. Imaginen poder hacerle preguntas a Siri directamente relacionadas con lo que aparece en su pantalla y ejecutar tareas complejas sin tener que navegar por múltiples menús.

    Se espera que estos avances se implementen de forma incremental, comenzando con iOS 26.4. Si bien algunas fuentes sugirieron que el objetivo inicial de iOS 26.4 era mucho más ambicioso, Apple ha declarado públicamente que el lanzamiento completo de esta funcionalidad sigue en pie para 2026.

    La nueva versión de Siri también marcará el comienzo de la integración de Apple con los modelos Gemini de Google, una cooperación anunciada a principios de este año. Se espera que esta colaboración revolucione las capacidades de Siri, permitiéndole manejar consultas más complejas y proporcionar respuestas más precisas y relevantes.

    De cara a iOS 27, se rumorea que Apple está desarrollando una experiencia de chatbot aún más ambiciosa impulsada por los últimos avances en los modelos fundacionales de Google. Esta futura iteración tiene como objetivo proporcionar a los usuarios un asistente de IA conversacional capaz de participar en interacciones más naturales y dinámicas.

    Si bien no sabemos aún con exactitud que mejoras de IA aparecerán en iOS 26.4 e iOS 27, hay mucha expectativa por parte de los usuarios. Con el compromiso expresado por Apple, sabemos que estamos tan solo a unos meses de ver cambios significativos en la forma en la que interactuamos con nuestro teléfono.

  • Anthropic se burla de los anuncios en ChatGPT con un anuncio del Super Bowl

    Logotipo de OpenAI
    Logotipo de OpenAI

    Anthropic se ríe abiertamente de OpenAI en un anuncio del Superbowl

    OpenAI reveló recientemente que pronto veremos anuncios en las conversaciones de ChatGPT, y Anthropic se está divirtiendo con esto, emitiendo un anuncio durante el Super Bowl en el que no se nombra a ChatGPT, aunque queda muy claro que esa es su intención.

    El CEO de OpenAI, Sam Altman, dijo una vez que insertar anuncios en las conversaciones de ChatGPT sería «el último recurso» (para incrementar los ingresos de la compañía), pero más recientemente confirmó que, de hecho, los anuncios están en camino, aunque no aparecerán dentro de las respuestas de ChatGPT.

    Anthropic ha aprovechado esta situación para anunciar hoy que no insertará anuncios en las conversaciones con Claude.

    “Incluir anuncios en las conversaciones con Claude sería incompatible con lo que queremos que sea Claude: un asistente genuinamente útil para el trabajo y el pensamiento profundo. Queremos que Claude actúe sin ambigüedades en interés de nuestros usuarios. Así que hemos tomado una decisión: Claude seguirá sin anuncios. Nuestros usuarios no verán enlaces patrocinados junto a sus conversaciones con Claude; ni las respuestas de Claude estarán influenciadas por anunciantes o incluirán colocaciones de productos de terceros que nuestros usuarios no hayan solicitado.”

    Anthropic afirma que existen varios peligros al incluir anuncios en las conversaciones de los chatbots, incluido el sesgo potencial y la incentivación de los chatbots para mantener a los usuarios en las conversaciones durante períodos más largos.

    “Consideremos un ejemplo concreto. Un usuario menciona que tiene problemas para dormir. Un asistente sin incentivos publicitarios exploraría las diversas causas potenciales (estrés, entorno, hábitos, etc.) en función de lo que pueda ser más perspicaz para el usuario. Un asistente con publicidad tiene una consideración adicional: si la conversación presenta una oportunidad para realizar una transacción […]”

    “Tales anuncios también introducirían un incentivo para optimizar el compromiso: la cantidad de tiempo que las personas pasan usando Claude y la frecuencia con la que regresan. Estas métricas no están necesariamente alineadas con ser genuinamente útil. La interacción de IA más útil podría ser una corta, o una que resuelva la solicitud del usuario sin provocar más conversación.”

    La compañía ha publicado hoy un video de un minuto en su canal de YouTube burlándose de la idea de los anuncios en los chatbots. The Wall Street Journal informa que una versión de 30 segundos de este anuncio se emitirá durante el Super Bowl del domingo.

    El anuncio parodia la perspectiva de la publicidad intrusiva en las conversaciones de IA. La versión de 30 segundos presenta a un joven en un parque intentando hacer ejercicio, y que le pregunta a un espectador musculoso cómo lograr abdominales marcados. El hombre comienza con una respuesta detallada, aunque algo robótica, como la que los usuarios podrían obtener de un chatbot de IA, antes de escupir un anuncio de las plantillas «StepBoost Max». Puedes ver la versión de un minuto a continuación. Es realmente divertida.

  • ChatGPT está caído. Parece un problema mayor. [Resuelto]

    Logo de OpenAI

    La nube también falla

    No eres el único: ChatGPT está caído para muchos usuarios ahora mismo. Esto es lo que sabemos.

    Los usuarios de ChatGPT comenzaron a experimentar problemas al usar el servicio alrededor de las 3:00 p.m., hora del Este de los EEUU, según Down Detector.

    Los casos reportados sobre la interrupción se dispararon bruscamente poco después, con más de 10,000 casos reportados a las 3:15 p.m. y aumentando.

    OpenAI aún no ha comentado públicamente sobre la interrupción.

    Ayer, OpenAI lanzó la aplicación Codex para Mac, que ha demostrado ser muy popular según su CEO, Sam Altman. Él afirmó que hubo más de 200,000 descargas del software el primer día.

    Hoy, Apple introdujo una actualización a Xcode que agrega soporte de codificación agentic para Codex y Claude.

    Si bien es poco probable que estos lanzamientos hayan causado la interrupción actual de ChatGPT, es posible que una adopción de Codex mayor de la anticipada esté contribuyendo al problema.

  • Xcode 26.3 libera el poder de la codificación mediante el uso de agentes

    Xcode 26.3
    Xcode 26.3 soporta el desarrollo con IA mediante el uso de agentes

    Esto es otra cosa, Xcode vuelve a brillar

    Apple acaba de anunciar una nueva versión de Xcode con soporte extendido para desarrollar aplicaciones para las plataformas de Apple usando agentes. Esto representa un gran avance ya que aunque Xcode podía integrarse desde la versión 26 con OpenAI y Claude de Anthropic, la experiencia era bastante limitada, comparado con lo que se podía hacer con herramientas como Antigravity de Google.

    Esto va a simplificar el desarrollo dentro de Xcode, apalancando el poder de la IA y en particular lo que se conoce como “vibe coding”. Esta nueva tecnica permite crear programas complejos de forma rápida y sin experiencia técnica profunda, simplemente explicando a la IA lo que pretendemos lograr.

    Esto es lo que dice el comunicado de Apple:

    Los desarrolladores ahora pueden utilizar agentes de codificación, incluyendo Claude Agent de Anthropic y Codex de OpenAI, directamente en Xcode para abordar tareas complejas de forma autónoma, ayudándoles a desarrollar aplicaciones más rápido que nunca.

    Xcode 26.3 desbloquea la codificación basada en agentes, permitiendo a los desarrolladores aprovechar agentes directamente en Xcode. De esta forma, Xcode puede trabajar con mayor autonomía para alcanzar los objetivos de un desarrollador, desde desglosar tareas hasta tomar decisiones basadas en la arquitectura del proyecto y utilizar herramientas integradas.

    Ampliando las funciones de inteligencia introducidas en Xcode 26, que trajo un nuevo asistente de codificación para escribir y editar en Swift, esta versión da a los agentes de codificación acceso a aún más capacidades de Xcode. Agentes como Claude Agent y Codex ahora pueden colaborar a lo largo de todo el ciclo de vida del desarrollo, dando a los desarrolladores el poder de optimizar los flujos de trabajo, iterar más rápido y dar vida a las ideas como nunca antes. Los agentes pueden buscar documentación, explorar estructuras de archivos, actualizar la configuración del proyecto y verificar su trabajo visualmente capturando Xcode Previews e iterando a través de compilaciones y correcciones.

    «En Apple, nuestro objetivo es crear herramientas que pongan las tecnologías líderes de la industria directamente en manos de los desarrolladores para que puedan construir las mejores aplicaciones», dijo Susan Prescott, vicepresidenta de Relaciones con Desarrolladores Mundiales de Apple. «La codificación apoyada en agentes sobrecarga la productividad y la creatividad, agilizando el flujo de trabajo de desarrollo para que los desarrolladores puedan centrarse en la innovación».

    Con acceso continuo a Claude Agent y Codex, los desarrolladores pueden llevar el razonamiento avanzado de estos modelos directamente a su flujo de trabajo de creación de aplicaciones. Esta conexión combina el poder de estos agentes con las capacidades nativas de Xcode para proporcionar los mejores resultados al desarrollar para plataformas Apple, dando a los desarrolladores la flexibilidad de trabajar con el modelo que mejor se adapte a su proyecto.

    Además de estas integraciones, Xcode 26.3 pone sus capacidades a disposición a través del Model Context Protocol, un estándar abierto que da a los desarrolladores la flexibilidad de utilizar cualquier agente o herramienta compatible con Xcode.

    Disponibilidad

    Xcode 26.3 está disponible como release candidate para todos los miembros del Programa de Desarrolladores de Apple a partir de hoy, con un lanzamiento próximo en la App Store.

    Fuente: Apple

  • Investigadores de Apple logran avances para generar una voz por IA Más Rápida y Natural

    Usuario utilizando Siri
    Usuario utilizando Siri

    Apple quiere demostrar que también sabe de IA

    Imaginen a Siri respondiendo a sus solicitudes con aún mayor velocidad y fluidez. Investigadores de Apple están dando pasos significativos hacia esa realidad con un nuevo enfoque para mejorar la tecnología que convierte texto a voz. Un nuevo estudio, “Principled Coarse-Grained Acceptance for Speculative Decoding in Speech”, detalla un método que acelera drásticamente la generación de voz artificial sin sacrificar la claridad o la naturalidad usando la IA.

    La clave de esta innovación reside en cómo los modelos de IA generan el habla. Muchos sistemas actuales, particularmente los modelos autorregresivos, crean el habla ensamblando pequeños fragmentos de audio llamados «tokens», uniéndolos para formar palabras y oraciones. Estos modelos autorregresivos predicen cada token subsiguiente basándose en los que vinieron antes, de manera similar a como los grandes modelos de lenguaje o LLMs predicen la siguiente palabra en una oración.

    Si bien es efectivo, este proceso puede ser un cuello de botella. Los modelos autorregresivos existentes a menudo dependen de una coincidencia de tokens estricta y exacta. Esto significa que si un token predicho no se alinea perfectamente con las expectativas del modelo, se rechaza, incluso si suena virtualmente idéntico. Esta rigidez ralentiza todo el proceso de generación de voz.

    La solución de Apple

    Los investigadores de Apple, en colaboración con la Universidad de Tel Aviv, proponen una solución basada en la observación de que muchos tokens de voz diferentes pueden producir sonidos que son casi indistinguibles para el oído humano. Su enfoque implica agrupar los tokens de voz que suenan similares en lo que llaman Grupos de Similitud Acústica (ASG). En lugar de exigir una coincidencia exacta, el sistema acepta cualquier token que se encuentre dentro del ASG apropiado.

    Este sistema emplea dos modelos: un modelo más pequeño y rápido que propone rápidamente tokens de voz potenciales, y un modelo más grande que “juzga” el resultado y determina si esos tokens pertenecen al grupo acústico correcto. Esto permite que el sistema explore múltiples posibilidades simultáneamente, acelerando significativamente el proceso.

    Ilustración del proceso de decodificación usando PCG
    Ilustración del proceso de decodificación usando PCG

    Los resultados son impresionantes. El estudio demuestra que este nuevo método, llamado Aceptación con Principios de Grano Grueso (PCG), aumenta la velocidad de generación de voz en aproximadamente un 40% comparado con los métodos estándar actuales. Además, este aumento de velocidad no se produce a expensas de la calidad. PCG mantiene bajas tasas de error de palabras, conserva la similitud del hablante e incluso supera a los enfoques anteriores centrados en la velocidad en términos de naturalidad, logrando una alta puntuación en las calificaciones hechas por humanos.

    Finalmente, los investigadores demostraron la robustez del enfoque al reemplazar un gran porcentaje de tokens de voz con alternativas del mismo grupo acústico. El audio resultante permaneció claro y natural, con un impacto mínimo en la tasa de error de palabras.

    Una solución que puede ser adoptada rápidamente

    Uno de los aspectos más atractivos de esta innovación es su practicidad. PCG no requiere volver a entrenar los modelos de voz existentes. Es un cambio que solo afecta al «tiempo de decodificación», lo que significa que se puede aplicar a los sistemas existentes sin la necesidad de modificaciones extensas o revisiones arquitectónicas. Además, requiere un mínimo de recursos adicionales, lo que lo hace ideal para su implementación en dispositivos con memoria limitada.

    Si bien el estudio no menciona explícitamente aplicaciones específicas dentro del ecosistema de productos de Apple, las implicaciones son claras. Esta tecnología podría ser fundamental para mejorar la velocidad y la naturalidad de las respuestas de Siri, mejorando la experiencia general del usuario. Al hacer que la voz generada por IA sea más rápida y fluida, Apple está allanando el camino para interacciones más fluidas e intuitivas con sus dispositivos y plataformas. Este avance promete hacer que las conversaciones con los asistentes de IA se sientan más naturales y menos robóticas, acercándonos a una IA verdaderamente conversacional.

  • Una demanda judicial afirma que NVIDIA contactó a Anna’s Archive para usar libros pirateados para en entrenamiento de LLMs

    El director general y co-fundador de nvidia, Jensen Huang

    La piratería está mal

    Una nueva demanda judicial afirma que NVIDIA obtuvo acceso a una gran cantidad de libros pirateados para entrenar sus modelos de IA.

    La demanda colectiva, presentada en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California, afirma que el personal de NVIDIA se puso en contacto con Anna’s Archive, un sitio que alberga millones de libros pirateados y artículos académicos. Los demandantes afirman que las conversaciones se centraron en btener «acceso de alta velocidad» a los datos del archivo. Anna’s Archive supuestamente le dijo a NVIDIA que el material se obtuvo ilegalmente y preguntó si NVIDIA tenía aprobación interna para seguir adelante. La demanda afirma que la gerencia dio el visto bueno poco después.

    Se dice que Anna’s Archive ofreció acceso a unos 500 terabytes de datos. Esa colección supuestamente incluía millones de libros, algunos de los cuales normalmente solo están disponibles a través de Internet Archive y su sistema de préstamo digital controlado. La presentación no dice si NVIDIA pagó por el acceso o utilizó los datos que se ofrecieron.

    Los autores acusan a NVIDIA de utilizar otras fuentes piratas, como los sitios Library Genesis, Sci-Hub y Z-Library. Otra afirmación es que NVIDIA proporcionó scripts o herramientas que permitieron a los clientes descargar partes del set de datos «The Pile», que incluye Books3 (un gran conjunto de datos que contiene unos 200.000 libros). Los autores argumentan que esto representa una infracción clara de los derechos de autor, ya que los clientes podían acceder a libros pirateados a través de las herramientas proporcionadas por NVIDIA.

    NVIDIA ha argumentado en el pasado que el entrenamiento de la IA no es ilegal ya que los modelos aprenden patrones en lugar de almacenar libros, aunque la justicia de EEUU ha emitido al menos un fallo que van en contra de esa creencia. El juicio está en curso y los detalles que se mencionan en este artículo provienen de la última presentación hecha por los demandantes.