Conversar con una inteligencia artificial sobre ansiedad, tristeza, conflictos de pareja o pensamientos repetitivos se ha convertido en una práctica cada vez más común. Miles de personas recurren hoy a chatbots de IA para expresar lo que sienten, desahogarse o intentar ordenar sus ideas en momentos de angustia. Muchos aseguran que, tras estas interacciones, se sienten escuchados, comprendidos e incluso mejor. Este fenómeno ha abierto un debate inevitable: ¿puede la inteligencia artificial convertirse en una forma de terapia?
LEA TAMBIÉN
Desde la psiquiatría, la respuesta es clara, aunque incómoda. La inteligencia artificial no puede ser terapeuta. Así lo afirma la doctora Laura Villamil, psiquiatra y especialista en salud mental, quien advierte que asumir lo contrario puede ser clínicamente riesgoso. «La inteligencia artificial no puede ser terapeuta. Pero puede convertirse en una herramienta sorprendentemente útil cuando se entiende su verdadero lugar dentro del cuidado de la salud mental», señala.
Para entender esta afirmación, Villamil explica que es fundamental comprender qué ocurre realmente en una consulta psiquiátrica o psicoterapéutica, especialmente cuando una persona atraviesa una crisis. El trabajo de un profesional de salud mental va mucho más allá de escuchar palabras. En cada encuentro se realiza, de manera simultánea, una lectura compleja del lenguaje verbal y no verbal: el tono de voz, las pausas, la coherencia del discurso, la expresión emocional, el juicio de realidad y el nivel de riesgo vital.
Especialistas en salud mental alertan sobre los límites clínicos de la inteligencia artificial. Foto:iStock
En ese proceso, el especialista evalúa si existen señales de ideación suicida, síntomas psicóticos incipientes, desorganización del pensamiento o alteraciones cognitivas. Además, ofrece un elemento que, según Villamil, ninguna tecnología puede replicar: la regulación emocional a través de la presencia humana. «En momentos de crisis, el paciente no necesita información. Necesita que otro sistema nervioso humano lo ayude a regular el suyo», explica.
Ese es, precisamente, el límite de la inteligencia artificial. No puede asumir responsabilidad clínica, no puede intervenir ante un riesgo vital, no puede detectar con confiabilidad una psicosis ni puede contener desde una presencia física y emocional. Por esta razón, usarla como sustituto de un profesional en situaciones de crisis puede resultar peligroso, ya que genera una falsa sensación de acompañamiento terapéutico que, en la práctica, puede retrasar la búsqueda de ayuda real.
LEA TAMBIÉN

Sin embargo, Villamil plantea una reflexión que incomoda a parte del gremio médico: el problema no es la inteligencia artificial en sí, sino la forma en que se está abordando su uso. A su juicio, muchos profesionales de la salud mental aún no han comprendido cómo integrarla de manera adecuada. Porque, aunque no puede ni debe reemplazar la terapia, la IA sí puede convertirse en una herramienta clínica de gran valor.
Los psiquiatras advierten que la IA no puede asumir responsabilidad clínica. Foto:iStock
Entre sus posibles usos, la psiquiatra menciona la capacidad de estas tecnologías para ayudar a ordenar pensamientos caóticos en momentos de insomnio o angustia, como ocurre frecuentemente en la madrugada. También pueden servir de apoyo para personas con rumiación mental, que encuentran dificultades para poner en palabras lo que sienten durante una consulta. En ese sentido, la inteligencia artificial puede facilitar la expresión emocional y preparar al paciente para un trabajo terapéutico más profundo.
Además, puede reforzar procesos de psicoeducación entre sesiones, disminuir la sensación de soledad en momentos de angustia leve o moderada y facilitar el trabajo clínico cuando el profesional enseña a usarla como complemento y no como sustituto. «Pretender que la inteligencia artificial reemplace a un terapeuta en una crisis es como intentar que un libro de autoayuda haga una sutura en una herida abierta. Pero usarla como complemento es como tener un cuaderno guiado que ayuda a entender la herida mientras llega la consulta médica», explica Villamil.
LEA TAMBIÉN

La clave, entonces, no está en rechazar la inteligencia artificial ni en idealizarla, sino en enseñar a los pacientes a utilizarla de forma adecuada. Para el especialista, el mensaje debe ser claro y directo. «Si la inteligencia artificial te ayuda a ordenar tus pensamientos antes de tu próxima consulta, excelente. Si la usas para sentirte menos solo mientras esperas tu cita, adelante. Pero si la estás usando porque no quieres ir a consulta o porque crees que es lo mismo, ahí está el problema», advierte.
EDWIN CAICEDO
Periodista de Medio Ambiente y Salud
@CaicedoUcros
! function (f, b, e, v, n, t, s) {
if (f.fbq) return;
n = f.fbq = function () {
n.callMethod ?
n.callMethod.apply(n, arguments) : n.queue.push(arguments)
};
if (!f._fbq) f._fbq = n;
n.push = n;
n.loaded = !0;
n.version = '2.0';
n.queue = ();
t = b.createElement(e);
t.async = !0;
t.src = v;
s = b.getElementsByTagName(e)(0);
s.parentNode.insertBefore(t, s)
}
(window, document, 'script', 'https://connect.facebook.net/en_US/fbevents.js');
fbq('init', '2639268933010768');
fbq('track', 'PageView');



