gadgetsgenial.es

Categoría: Redes Sociales

Noticias acerca de Redes Sociales

  • WhatsApp trabaja en una función para programar el envío de mensajes

    WhatsApp permitirá programar el horario de envío de los mensajes
    WhatsApp permitirá programar el horario de envío de los mensajes

    WhatsApp por fin prueba la programación horaria de mensajes

    ¿Alguna vez necesitaste enviar un mensaje importante muy tarde por la noche? ¿O temiste olvidar esa felicitación de cumpleaños a la mañana siguiente? WhatsApp por fin desarrolla una solución para este dilema moderno. La plataforma ya prepara una de sus funciones más solicitadas: la programación horaria de mensajes.

    WABetaInfo es una plataforma famosa por dar seguimiento a las próximas actualizaciones de WhatsApp. Según ellos, la popular aplicación de mensajería de Meta ya prepara una herramienta de programación horaria integrada. Los usuarios podrán escribir un mensaje y elegir una fecha y hora exactas para su envío automático. Esta nueva función se podrá usar tanto en chats individuales como en grupos.

    Los usuarios no tendrán que «enviar y olvidar». La próxima actualización incluye una opción exclusiva de «Mensajes programados». Podrás acceder a ella directamente desde la página de información del chat. Esta pestaña especial funcionará como una cola de espera en la que podrás ver todos tus textos pendientes. Desde allí, tendrás el control total para revisar, editar o eliminar por completo un mensaje programado. ¡Así podrás cancelar el envío si cambias de opinión antes de la entrega!

    Los expertos de WABetaInfo descubrieron esta función recientemente en la versión beta 26.7.10.72 de WhatsApp para iOS que está disponible a través de TestFlight. Aunque todavía no funciona al cien por cien y las capturas actuales muestran una interfaz de iPhone, esta funcionalidad llegará sin duda también a los usuarios de Android muy pronto.

    Whatsapp está poniéndose al día

    Durante años, programar un mensaje en WhatsApp requería trucos un poco torpes, como usar la aplicación Atajos de Apple. Mientras tanto, los competidores ofrecen soluciones nativas desde hace tiempo. Telegram presume de mensajes programados desde hace bastante. Google Messages lo ofrece en Android y Apple acaba de lanzar su brillante opción «Enviar más tarde» en iOS 18. Con esta actualización, WhatsApp por fin se pone al día, lo cual es una excelente noticia.

    Retrasar un mensaje quizás no parezca una revolución absoluta, pero representa una mejora práctica y para nuestra calidad de vida. Esta novedad se une a una larga lista de mejoras recientes en la plataforma. Hablamos de las encuestas en los chats, las fotos de visualización única, el formato de texto avanzado y la útil opción de editar mensajes enviados. Quizás estas herramientas parezcan pequeñas por separado. Sin embargo, juntas logran perfeccionar la experiencia de los usuarios de WhatsApp. ¡Hacen que la aplicación sea mucho más cómoda, flexible y amigable para miles de millones de personas en todo el mundo!

  • La actividad de ChatGPT de la asesina de Tumbler Ridge fue analizada internamente 7 meses antes de la tragedia

    ¿Se podía haber evitado la tragedia?

    Hace unos días, un remoto pueblo de montaña de Canadá fue sacudido por por una tragedia. En un tiroteo escolar, un asaltante armado mató al menos a ocho personas.

    La policía encontró a seis personas muertas y docenas heridas al llegar a la escuela secundaria de Tumbler Ridge, una ciudad de tan solo 2.400 personas en el noreste de la provincia de Columbia Británica, a primera hora de la tarde del martes.

    Se cree que la presunta asesina, que fue encontrada muerta en la escuela, mató a otras dos personas más antes de suicidarse, ya que se encontraron dos cuerpos más en una casa en el municipio.

    El rol de OpenAI

    A raíz de esta tragedia, la investigación se ha centrado en la actividad en línea de la sospechosa, Jesse Van Rootselaar, revelando detalles acerca de su uso de ChatGPT.

    OpenAI, la empresa que ofrece ChatGPT, confirmó que en junio de 2025 detectó que una cuenta vinculada a Van Rootselaar violó las políticas de uso de la plataforma. Posteriormente, la cuenta fue dada de baja.

    Según OpenAI, la actividad de la asesina incluía descripciones de violencia causada por armas de fuego. Esto activó el sistema de revisión automatizado del chatbot, y generó preocupación entre los empleados de OpenAI de que estas publicaciones pudieran ser la antesala de actos de violencia en el mundo real.

    Si bien algunos empleados instaron a los líderes de la empresa a contactar a las fuerzas del orden, OpenAI finalmente decidió no hacerlo. La empresa determinó que la situación no era suficientemente seria, ya que no involucraba un «riesgo inminente y creíble» o la planificación activa de daños físicos graves a otros.

    La portavoz de OpenAI, Kayla Wood, declaró que el objetivo de la empresa es buscar un justo balance entre privacidad y seguridad, con el objetivo de evitar crear problemas innecesarios involucrando demasiado a menudo a las fuerzas del orden.

    OpenAI se puso en contacto con la policía después del tiroteo

    A pesar de haber tomado una decisión equivocada en este caso, la empresa se comunicó voluntariamente con la Policía Real Montada de Canadá (RCMP) y les dió información sobre Van Rootselaar y su uso de ChatGPT, después del tiroteo.

    El sargento de la RCMP, Kris Clark, confirmó que la plataforma se puso en contacto con ellos después del incidente. Afirmó que la policía está recopilando y procesando metódicamente todo tipo de pruebas, incluyendo la revisión exhaustiva de los dispositivos electrónicos de la sospechosa, para analizar sus actividades en línea, en particular en las redes sociales. Por otra parte, YouTube y Roblox han confirmado que habían eliminado cuentas y contenido asociadas con la sospechosa.

    ¿OpenAI fue responsable?

    Estas situaciones son complicadas y es difícil echarle la culpa a ChatGPT.

    Lo positivo es que tienen un sistema para detectar situaciones preocupantes y que aparentemente funcionó correctamente, generando una alerta a tiempo.

    Pedirle a ChatGPT (o a cualquier otra empresa de IA o de redes sociales) que determine exactamente cuando es necesario informar a las autoridades puede ser mucha responsabilidad para una empresa comercial.

    Por otro lado, informar de cualquier problema a la policía tiene implicaciones de privacidad. Además de que es poco probable que ellos tengan la capacidad de atender todas las alertas que pudieran llegarles. Habrá que ver como deciden los legisladores atender este tipo de situaciones.

    Comunicado del padre

    El padre de la asesina emitió un comunicado en el que expresó su tristeza y enfatizó que estaba distanciado de su hija. Afirmó que ya no estaba involucrado en su vida y que ella ya no usaba el apellido Van Rootselaar. También transmitió su desconsuelo por el dolor causado a personas inocentes y al pueblo de Tumbler Ridge.

    La RCMP señaló que Jesse Van Rootselaar nació con sexo masculino pero que había comenzado su transición de sexo.

  • OpenAI lanzará un altavoz inteligente con IA en 2027

    El logotipo de OpenAI
    El logotipo de OpenAI

    OpenAI quiere competir con Alexa, Google y Siri

    OpenAI, la empresa que revolucionó el mundo de la IA generativa con el lanzamiento de ChatGPT, pretende diversificarse aventurándose en el mercado del hardware, con planes de lanzar una serie de dispositivos impulsados por IA. El primer producto que esperan lanzar es un altavoz inteligente, que podría llegar al mercado en 2027. Este ambicioso proyecto está respaldado por un equipo dedicado de más de 200 empleados y marca un paso significativo para OpenAI más allá de su enfoque tradicional, centrado en el software.

    Se prevé que el altavoz inteligente, con un precio entre $200 y $300, cuente con una variedad de funciones diseñadas para sumergir a los usuarios en una experiencia impulsada por la IA. Equipado con una cámara, el dispositivo tiene como objetivo comprender su entorno identificando objetos en su vecindad e incluso interpretando conversaciones cercanas. Esta recopilación de información visual y auditiva permite un nivel más profundo de interacción y respuestas personalizadas. Además, se rumorea que la cámara incorpora un sistema de reconocimiento facial similar al Face ID de Apple, lo que podría permitir a los usuarios autenticar compras directamente a través del altavoz.

    OpenAI trabaja también en otros dispositivos

    Más allá del altavoz inteligente, OpenAI también está explorando otras posibilidades de hardware, incluidas gafas inteligentes y una lámpara inteligente. Si bien se han desarrollado prototipos de la lámpara inteligente, su futuro sigue siendo incierto. Las gafas inteligentes, destinadas a competir con las ofertas de Meta, están proyectadas para un lanzamiento posterior, potencialmente en 2028.

    Este impulso hacia el hardware está significativamente influenciado por los problemas que enfrenta OpenAI para generar los flujos de efectivo que requiere su operación. En tiempos recientes ha enfrentado una competencia feroz tanto por el lado de Google como por parte de Anthropic que le han quitado importantes partes de mercado, pero que además ponen en riesgo esa percepción de liderazgo en temas de IA que la empresa tenía con sus clientes.

    El mercado está muy competido

    Sin embargo, ganar dinero en el mercado de los altavoces inteligentes es complicado. Por un lado está Amazon que ha perdido billones de dólares promoviendo los dispositivos Alexa a precios muy bajos y por otro lado está Apple que dispone de un rico ecosistema que hace que sus clientes prefieran los productos de la compañía. Entre los dos, está Google, un gigante con gran experiencia en IA y que en tiempos recientes parece haber rebasado a OpenAI en cuanto a calidad de sus modelos, diferencia que se podría acrecentar con el próximo lanzamiento de Gemini 3.1.

    Aún así, OpenAI parece creer que lo puede lograr. Por eso adquirieron la firma de diseño de Jony Ive, io Products. Ive, el ex Director de Diseño de Apple, es ampliamente reconocido por dar forma a la estética de diseño icónica de Apple. La apuesta de OpenAI es clara, tienen la intención de lanzar dispositivos visualmente atractivos y fáciles de usar.

    Existen aún muchos interrogantes

    Aunque la estrategia es clara, la colaboración no ha estado exenta de problemas. Se ha sabido por ejemplo que la integración de la filosofía de diseño de Ive con el equipo de hardware existente de OpenAI ha provocado cierta fricción.

    También existe preocupación con respecto a la potencia informática necesaria para operar dispositivos de IA a escala. Finalmente, hay dudas acerca de como se protegerá la privacidad con unos dispositivos que están constantemente escuchando y observando.

    A pesar de estos obstáculos, la incursión de OpenAI en el ámbito del hardware promete ser paso importante en la rápida evolución de la IA y su integración en nuestra vida diaria.

    El éxito de estos dispositivos probablemente dependerá de cómo OpenAI logrará atender las crecientes preocupaciones acerca de la privacidad de los consumidores y sobre todo de su capacidad para ofrecer un valor convincente de forma sostenida a sus clientes ya que es probable que además del precio del altavoz haya que pagar una suscripción mensual.

  • Google Play usó IA para ayudar a bloquear 1.75 millones de apps maliciosas en 2025

    Google Play usó IA para bloquear reseñas falsas y detectar aplicaciones maliciosas

    También evitó que se colaran falsas reseñas y canceló más de 80,000 cuentas de desarrolladores.

    Google ha anunciado que, con la ayuda de la IA, bloqueó 1,75 millones de aplicaciones que infringían sus políticas en 2025, una cifra significativamente inferior a los 2,36 millones de 2024. La disminución de este año, según afirma, se debe a que sus «protecciones multicapa impulsadas por la IA» están disuadiendo a hackers de siquiera intentar publicar aplicaciones maliciosas.

    La IA revisa todas las aplicaciones

    Google dijo que ahora ya ejecuta más de 10.000 controles de seguridad en cada aplicación y que las sigue verificando después de su publicación en Google Play. Los modelos de IA generativa más modernos de Google ayudan a los revisores humanos a descubrir patrones maliciosos más rápidamente. La compañía también bloqueó 160 millones de valoraciones ficticias, evitando una caída promedio de 0,5 estrellas en la calificación de las aplicaciones que fueron objeto de bombardeos automatizados de reseñas. Finalmente, Google impidió que 255.000 aplicaciones obtuvieran acceso excesivo a datos confidenciales de los usuarios en 2025, frente a los 1,3 millones del año anterior.

    Mientras tanto, Google Play Protect, el sistema de defensa de Android creado por la compañía, detectó más de 27 millones de nuevas aplicaciones maliciosas, ya sea advirtiendo a los usuarios o impidiéndoles que se ejecuten. La compañía agregó que la protección contra el fraude mejorada de Play Protect ahora cubre 2.800 millones de dispositivos Android en 185 mercados y que bloqueó 266 millones de intentos de instalación usando “side-loading”, un sistema potencialmente riesgoso, aunque también puede ser utilizado de forma legítima.

    «Iniciativas como la verificación de desarrolladores, los controles pre-revisión obligatorios y los requisitos de pruebas han elevado el listón para el ecosistema de Google Play y han reducido significativamente las opciones para los desarrolladores malintencionados, dijo la compañía en su blog de seguridad. «Este año, continuaremos invirtiendo en nuevas defensas apoyadas por la IA para mantenernos a la vanguardia de las amenazas emergentes y equipar a los desarrolladores de Android con las herramientas que necesitan para crear aplicaciones de forma segura».

    Una cuestión de escala

    Cuando uno observa los números tan altos con los que debe lidiar Google Play, se entiende que se necesite utilizar tecnología como la IA para poder responder en tiempos aceptables. Sin embargo, en este tipo de comunicados triunfalistas, donde todo es positivo, no se suele hablar de la pesadilla que puede suponer para un desarrollador legítimo ver su aplicación rechazada por la IA y no saber cómo apelar la decisión.

    El costo de la seguridad para Google

    Google ha justificado constantemente sus tarifas relativamente altas en las compras y suscripciones de aplicaciones destacando sus inversiones en la seguridad de las aplicaciones. Claro que al automatizar todo el proceso de revisión mediante el uso de la IA, esos costos deberían bajar. Veremos si eso se traduce en una reducción de las comisiones que deben pagar los desarrolladores.

  • Google lanza Gemini 3.1 Pro y alcanza evaluaciones récord en materia de razonamiento

    Gemini 3.1 Pro
    Gemini 3.1 Pro

    Gemini 3.1 Pro: Una Nueva Era de Razonamiento y Resolución de Problemas con IA

    Google ha presentado Gemini 3.1 Pro, una actualización significativa de su modelo de IA insignia, diseñado para abordar las tareas más complejas con capacidades de razonamiento sin precedentes. Esta inteligencia mejorada ahora se está implementando en las plataformas para consumidores y desarrolladores de Google, llevando la IA avanzada a las aplicaciones cotidianas.

    Las evaluaciones de Gemini 3.1 son excelentes

    Gemini 3.1 Pro representa un salto sustancial en cuanto a capacidad de razonamiento, demostrado por su rendimiento en pruebas especialmente diseñadas para evaluar las capacidades de los LLMs.

    En particular, en ARC-AGI-2, una prueba que evalúa la capacidad de un modelo para resolver patrones lógicos completamente nuevos, Gemini 3.1 Pro logró una puntuación del 77,1%. Esto duplica con creces el rendimiento de razonamiento de su predecesor, Gemini 3 Pro, y supera a competidores como GPT-5.2 y Claude Opus 4.6. El modelo también lidera en la mayoría de los puntos de referencia rastreados en comparación con estos rivales, incluido un resultado del 94,3% en GPQA Diamond, una prueba de razonamiento científico a nivel de posgrado.

    Los resultados obtenidos en estas pruebas son importantes porque reflejan la fiabilidad del modelo en el mundo real. Las tareas de estilo ARC examinan la generalización y la inducción de patrones, lo que sugiere habilidades mejoradas en la síntesis de datos, la planificación y las instrucciones de varios pasos. GPQA Diamond mide la comprensión a nivel de posgrado en dominios científicos, lo que indica un razonamiento mucho más fiable y un comportamiento menos frágil cuando recibe prompts con los que no está familiarizado.

    En esencia, los resultados más sólidos en estas pruebas se correlacionan de forma directa con un rendimiento más fiable en tareas complejas.

    Evaluaciones de distintos modelos de IA generativa

    Mejoras en el razonamiento avanzado

    Gemini 3.1 Pro está diseñado para escenarios en los que una respuesta simple no es suficiente. En ese caso usa razonamiento avanzado y lo aplica para resolver incluso los retoos más difíciles. Esta inteligencia mejorada puede ayudar en situaciones prácticas, ya sea que esté buscando una explicación visual clara de un tema complejo, una forma de sintetizar datos en una sola vista o dar vida a un proyecto creativo.

    Por ejemplo, el modelo es capaz de generar SVG animados listos para la web directamente desde una instrucción de texto, construir paneles de control aeroespaciales en vivo configurando transmisiones de telemetría públicas e incluso codificar experiencias interactivas 3D complejas. Esto va a revolucionar sin duda los libros de texto en los próximos años.

    Una de las innovaciones clave en Gemini 3.1 Pro es su uso del pensamiento dinámico. El modelo es capaz de ajustar la cantidad de razonamiento interno que aplica en función de la complejidadl problema. Las preguntas sencillas obtienen respuestas rápidas, mientras que los problemas complejos que deben resolverse paso a paso activan cadenas de procesamiento más profundas. Los desarrolladores pueden incluso controlar este comportamiento a través de una configuración en la API, estableciendo la profundidad máxima del razonamiento interno.

    Todavía hay oportunidades de mejora

    Si bien Gemini 3.1 Pro sobresale en muchas áreas, Google reconoce que se queda atrás en ciertas evaluaciones de herramientas de codificación agentic, como SWE-Bench Verified, que mide la capacidad de corregir problemas de software del mundo real. Para los equipos centrados en la corrección automatizada de errores o la refactorización de aplicaciones completas, la combinación de agentes de codificación especializados con IDEs altamente integrados aún pueden superar a los modelos de chat de generalistas, por lo menos hasta que mejoren la orquestación y la fiabilidad de las herramientas.

    Con Gemini 3.1 Pro, Google ha reducido, si no es que invertido, varias de las tablas de clasificación más escrutadas a su favor, particularmente en razonamiento abstracto y control de calidad científico. Si sus tareas se centran en el análisis complejo, la síntesis de múltiples fuentes y las explicaciones técnicas difíciles, las puntuaciones de Gemini 3.1 Pro deberían convencerlo o convencerla de usarlo en primera opción. Sin embargo, las cosas están cambiando tan rápidamente que esta ventaja puede ser solo momentánea.

    Gemini 3.1 Pro está disponible ahora

    Gemini 3.1 Pro está disponible en la aplicación Gemini de Google y en la web. También es accesible en NotebookLM para suscriptores de planes AI Pro o AI Ultra. Los desarrolladores y las empresas pueden acceder a 3.1 Pro ahora en vista previa usando la API de Gemini a través de AI Studio, Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI y Android Studio.