En un contexto en el que la salud mental se consolida como uno de los principales desafíos de salud pública a nivel mundial —afectando a más de mil millones de personas—, Google anunció una serie de actualizaciones enfocadas en facilitar el acceso a apoyo en situaciones de crisis, así como una inversión significativa para fortalecer redes de atención en todo el mundo.
LEA TAMBIÉN
La compañía informó que está optimizando su sistema de inteligencia artificial (IA) Gemini con el objetivo de mejorar la detección de señales de alerta en conversaciones relacionadas con salud mental y conectar de manera más efectiva a los usuarios con recursos de ayuda profesional.
La plataforma incluye herramientas para identificar riesgos. Foto:Géminis Google
Estas mejoras llegan en un momento en el que decenas de organizaciones han señalado que la IA no puede ser utilizada como terapia, algo que se está volviendo cada vez más común entre jóvenes. Por ejemplo, de acuerdo con datos recientes de OpenAI, compañía que opera la herramienta ChatGPT, se han identificado riesgos en la salud mental en aproximadamente el 0,07% de los usuarios de esta plataforma, lo que equivale al menos a 560.000 personas.
Diana Camila Garzón Velandia, profesora de la Facultad de Psicología de la Universidad Católica de Colombia, es enfática en señalar que no es recomendable que las personas jóvenes utilicen herramientas de inteligencia artificial para tratar asuntos personales o emocionales. Según explica, aunque estas plataformas ofrecen respuestas inmediatas y accesibles, carecen de elementos fundamentales en el abordaje psicológico profesional.
Las actualizaciones incluyen barreras contra la dependencia emocional. Foto:iStock
Uno de los principales riesgos identificados es lo que la experta denomina “complacencia y validación”. Garzón Velandia explica que, en algunos casos, la inteligencia artificial puede llegar a justificar conductas poco adaptativas o poco funcionales para las personas.
A diferencia de un psicólogo, que no solo identifica patrones y variables comunes, sino que también confronta al paciente cuando es necesario, la IA tiende a evitar ese tipo de intervención crítica. “En algunos casos, la IA puede incluso justificar conductas poco adaptativas para las personas”, advirtió la académica, al tiempo que subrayó que esa ausencia de confrontación puede reforzar comportamientos, creencias o sesgos que resulten perjudiciales.
LEA TAMBIÉN

Los cambios de la IA de Google
Con esa realidad como contexto, y según el comunicado oficial de Google, uno de los cambios más relevantes que hará la compañía es la introducción de un módulo rediseñado denominado “Ayuda disponible”, desarrollado en conjunto con expertos clínicos. Este componente se activará cuando el sistema identifique que una persona podría necesitar orientación o asistencia en temas de salud mental, facilitando conexiones inmediatas con servicios especializados.
Además, cuando Gemini detecte posibles situaciones de crisis relacionadas con el suicidio o las autolesiones, desplegará una nueva interfaz simplificada que permitirá a los usuarios acceder con un solo toque a líneas de ayuda. A través de esta herramienta, las personas podrán comunicarse mediante chat, llamada, mensajes de texto o visitando directamente el sitio web de los servicios de atención disponibles.
El diseño de esta funcionalidad también incluye respuestas orientadas a incentivar la búsqueda de ayuda profesional. Una vez activada, la opción de contacto con especialistas permanecerá visible durante el resto de la conversación, reforzando la posibilidad de intervención adecuada.
Miles de personas están usando hoy la inteligencia artificial como sustituto de la terapia. Foto:iStock
En paralelo a estos desarrollos tecnológicos, la organización anunció, a través de Google.org, una inversión de 30 millones de dólares que se ejecutará durante los próximos tres años. Estos recursos estarán destinados a fortalecer la capacidad de las líneas de crisis en diferentes países, con el fin de ampliar la cobertura y garantizar atención inmediata y segura para personas en situaciones críticas.
Como parte de esta estrategia, también se ampliará la alianza con ReflexAI, organización con la que se busca escalar los servicios de apoyo en salud mental. La iniciativa contempla una financiación directa de cuatro millones de dólares, así como la integración de herramientas de inteligencia artificial en procesos de capacitación.
LEA TAMBIÉN

Entre los desarrollos previstos se encuentra “Prepare”, una plataforma personalizable basada en simulaciones impulsadas por IA, diseñada para entrenar tanto a profesionales como a voluntarios en la gestión de conversaciones complejas relacionadas con crisis emocionales. Dentro de los aliados prioritarios figuran organizaciones educativas como Erika’s Lighthouse y Educators Thriving.
El enfoque de estas actualizaciones también contempla la forma en que la inteligencia artificial responde en contextos de alta vulnerabilidad emocional. En ese sentido, los equipos clínicos, de ingeniería y de seguridad han trabajado en tres frentes principales: priorizar la conexión con ayuda humana, diseñar respuestas que fomenten la búsqueda de apoyo y evitar la validación de comportamientos perjudiciales.
Asimismo, según Google, se ha entrenado al sistema para no reforzar creencias falsas, diferenciando entre experiencias subjetivas y hechos objetivos, con el propósito de ofrecer una orientación más responsable. La compañía subrayó que, aunque estas herramientas pueden ser útiles para acceder a información, no sustituyen la atención clínica profesional ni los servicios especializados en crisis.
Otro componente clave del anuncio está relacionado con la protección de usuarios menores de edad. En este ámbito, se han implementado medidas específicas para evitar que la inteligencia artificial simule relaciones humanas o genere dependencia emocional. Entre las restricciones se incluyen barreras para impedir que el sistema afirma ser humano o expresa necesidades emocionales, así como mecanismos para prevenir el acoso o el fomento del bullying.
Estas acciones, según el comunicado, buscan crear un entorno digital más seguro y saludable, especialmente para jóvenes que interactúan con herramientas de inteligencia artificial en su vida cotidiana.
Finalmente, la compañía destacó que estas iniciativas hacen parte de un compromiso de largo plazo para integrar tecnología, evidencia científica y experiencia clínica en el desarrollo de soluciones que mejoren el bienestar mental.
EDWIN CAICEDO
Periodista de Medio Ambiente y Salud
@CaicedoUcros
! function (f, b, e, v, n, t, s) {
if (f.fbq) return;
n = f.fbq = function () {
n.callMethod ?
n.callMethod.apply(n, arguments) : n.queue.push(arguments)
};
if (!f._fbq) f._fbq = n;
n.push = n;
n.loaded = !0;
n.version = '2.0';
n.queue = ();
t = b.createElement(e);
t.async = !0;
t.src = v;
s = b.getElementsByTagName(e)(0);
s.parentNode.insertBefore(t, s)
}
(window, document, 'script', 'https://connect.facebook.net/en_US/fbevents.js');
fbq('init', '2639268933010768');
fbq('track', 'PageView');



