gadgetsgenial.es

Google refuerza los controles de salud mental en Gemini ante el creciente escrutinio gubernamental

Google se preocupa por la salud mental de los usuarios de Gemini
Google se preocupa por la salud mental de los usuarios de Gemini

Google quiere evitar más demandas

A medida que la inteligencia artificial se integra cada vez más en la vida diaria, Google anunció una profunda renovación de las protecciones de salud mental de su chatbot Gemini, junto con una inversión millonaria en apoyo global a líneas de crisis. El movimiento llega en un momento crítico, marcado por el creciente debate sobre los vínculos emocionales que los usuarios desarrollan con la IA generativa y una demanda.

Google está bajo presión

La noticia no sale de la nada. Toda la industria enfrenta presión regulatoria y demandas legales, incluida una demanda presentada por la familia de Jonathan Gavalas, quien se suicidó tras interactuar con Gemini en conversaciones que incluían role-play romántico y escenarios ficticios.

El caso se suma a otras acciones legales contra OpenAI y Character.ai, además de una investigación de la Federal Trade Commission sobre chatbots “de compañía” que fomentan la intimidad emocional.

Google afirma que el chatbot dejó claro que era IA y sugirió líneas de ayuda en repetidas ocasiones, aunque reconoció que estos escenarios siguen siendo extremadamente complejos y que los modelos “no son perfectos”.

Acceso más rápido a ayuda humana

El cambio más visible es un nuevo módulo llamado “Help is available” (ayuda disponible).

Cuando Gemini detecta señales de crisis, autolesiones o riesgo suicida:

  • Aparece una interfaz simplificada diseñada por expertos clínicos.
  • El usuario puede llamar, enviar mensajes o chatear con un agente humano con un solo toque.
  • El acceso a ayuda profesional permanece visible durante toda la conversación.

El objetivo es reducir fricción y facilitar el paso inmediato de la IA a apoyo humano real.

Nuevos límites y protección de menores

Google también ha rediseñado la forma en que Gemini responde a conversaciones emocionales complejas:

  • Prioriza fomentar la conexión con personas reales.
  • Evita validar conductas dañinas o delirios peligrosos.
  • Diferencia suavemente entre experiencias subjetivas y hechos objetivos.

Además, introduce “persona protections” para evitar dependencia emocional, especialmente en menores:

  • El chatbot no puede afirmar ser humano.
  • No simula intimidad ni necesidades emocionales.
  • Incluye protecciones contra bullying y acoso.

Inversión global en líneas de crisis

Google reconoce que la IA no puede sustituir la atención clínica. Por ello, Google.org invertirá:

  • 30 millones de dólares en tres años para fortalecer líneas de crisis globales.
  • 4 millones de dólares adicionales para ReflexAI, que utiliza simulaciones con IA para entrenar personal y voluntarios.

Gemini se integrará en estas simulaciones, mientras expertos técnicos de Google colaborarán con organizaciones como Educators Thriving y Erika’s Lighthouse.

IA como puente, no reemplazo

El mensaje central es que la IA puede ayudar a encontrar información y orientación, pero no reemplaza la terapia ni el apoyo profesional. Con estas mejoras, Google busca que la tecnología funcione como puente hacia la ayuda real y no como sustituto de la misma.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *