Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

Chatbots de inteligencia artificial como herramientas de apoyo emocional: ¿progreso o riesgo?

En busca de nuevas formas de apoyo emocional, los chatbots de IA están ganando popularidad como herramientas alternativas para quienes buscan orientación o simplemente una salida para expresarse. Sin embargo, su utilidad y seguridad en la salud mental son objeto de intenso debate. Si bien algunos usuarios enfatizan los beneficios de estos robots como «compañeros» accesibles y sin prejuicios, los expertos en salud mental advierten sobre los riesgos que pueden surgir al usarlos sin la supervisión adecuada.

Experiencia con un terapeuta GPT

Recientemente, un usuario interactuó con un modelo de chatbot llamado Therapist GPT, que fue desarrollado en la plataforma «GPT personalizada» de OpenAI. Diseñado para brindar apoyo emocional, este chatbot se presenta como un “compañero empático” que puede escuchar y ofrecer consejos. A pesar de la advertencia inicial de que no sustituye a la terapia profesional, su lenguaje cálido y acogedor ha atraído a personas que buscan una forma alternativa de expresar sus pensamientos y emociones.

Mya Dunham, de 24 años, de Atlanta, ha estado utilizando ChatGPT como herramienta de apoyo emocional durante dos meses. Según Dunham, el robot le brinda una perspectiva diferente sobre sus problemas, permitiéndole pensar sin sentirse juzgada. «La falta de expresiones faciales y la neutralidad del robot hacen que sea más fácil abrirse», dijo Dunham.

Dunham comenzó a utilizar la tecnología después de leer testimonios positivos en las redes sociales. Tras su primera interacción con el chatbot, quedó sorprendida por el tono humano y amigable de las respuestas. Si bien reconoce que este no es un terapeuta real, siente que le proporciona un espacio seguro para explorar sus emociones.

Los beneficios y riesgos de los chatbots en la salud mental

El uso de chatbots como apoyo emocional puede resultar beneficioso en determinados casos. Según el Dr. Russell Fulmer, experto en inteligencia artificial aplicada a la psicología, algunas personas se sienten más cómodas compartiendo sus pensamientos con un programa que con un terapeuta humano. Las investigaciones han demostrado que en ciertos grupos, como personas con ansiedad o depresión leve, los chatbots pueden ser efectivos para aliviar ciertos síntomas.

Además, se puede acceder a los chatbots en cualquier momento y en cualquier lugar, lo que puede resultar útil para personas con agendas ocupadas o recursos limitados. Sin embargo, Fulmer enfatiza que estas herramientas no deben reemplazar la terapia profesional. «Un terapeuta humano puede establecer objetivos claros, corregir malentendidos y brindar un apoyo más profundo, algo que un chatbot no puede hacer», explicó.

Por otro lado, la Dra. Marlynn Wei, psiquiatra y fundadora de una práctica de psicoterapia en la ciudad de Nueva York, advirtió sobre los riesgos de utilizar chatbots que no estaban diseñados específicamente para abordar problemas de salud mental. Según Wei, los bots genéricos pueden ofrecer información incorrecta, alucinaciones (respuestas inventadas) o incluso decir lo que el usuario quiere escuchar en lugar de lo que realmente necesita.

Otro problema es la falta de regulación respecto a la privacidad de las conversaciones de los chatbots. A diferencia de un terapeuta humano cuya práctica está protegida por leyes como HIPAA en Estados Unidos, las interacciones con bots no garantizan la confidencialidad de la información, lo que podría exponer a los usuarios a riesgos de seguridad de los datos.

¿Pueden los chatbots reemplazar a los terapeutas humanos?

Dr. Daniel Kimmel, profesor de psiquiatría en la Universidad de Columbia, realizó un experimento en el que comparó las respuestas de ChatGPT con las que ofrecería a un paciente hipotético. Aunque el chatbot demostró habilidades impresionantes en validación emocional y técnicas terapéuticas básicas, carecía de la curiosidad y la profundidad necesarias para explorar más allá de la superficie.

Kimmel explicó que un terapeuta humano no sólo escucha lo que dice el paciente, sino que conecta sus palabras con experiencias previas, teorías psicológicas y estrategias prácticas. Este proceso permite un enfoque más personalizado y eficiente, algo que un chatbot aún no puede replicar.

Además, los riesgos aumentan cuando el chatbot ofrece información que el usuario puede no estar dispuesto a aceptar o que puede no ser apropiada para su situación particular. En casos extremos, como los problemas mentales graves, la mala gestión puede tener consecuencias desastrosas.

Casos problemáticos con chatbots

El uso de chatbots en contextos sensibles no está exento de polémica. Character.AI, que desarrolla chatbots, se enfrenta actualmente a demandas de familias que acusan a la plataforma de exponer a menores a contenidos inapropiados, fomentar la autolesión y, en un caso, contribuir al suicidio de un adolescente.

Aunque la empresa ha implementado medidas de seguridad, como redirigir a los usuarios a recursos útiles si mencionan autolesiones, estos incidentes subrayan la necesidad de una regulación y supervisión más estrictas del desarrollo de estas tecnologías.

Vista de usuarios

Para personas como Dunham, los chatbots representan una solución accesible y sin prejuicios, especialmente para aquellos que no se sienten cómodos con la interacción cara a cara. Sin embargo, incluso Dunham reconoce que el uso de estas herramientas debe ser complementario y no sustituto de la terapia tradicional.

Dunham dijo que su experiencia con el chatbot ha sido positiva porque le permite reflexionar sobre sus emociones y obtener una perspectiva externa. Sin embargo, también destacó la importancia de no juzgar a quienes eligen métodos no convencionales para cuidar su salud mental.

Pensando en el futuro de los chatbots en salud mental

Aunque los chatbots no están diseñados para reemplazar a los terapeutas humanos, su creciente popularidad plantea preguntas importantes sobre su papel en el apoyo emocional y la salud mental. Según Kimmel, las investigaciones futuras serán clave para comprender mejor cómo estas herramientas pueden incorporarse de forma segura y eficaz al campo de la psicología.

La inteligencia artificial no va a desaparecer y su potencial para ampliar el acceso a los recursos de salud mental es innegable. Sin embargo, su implementación debe ir acompañada de medidas de seguridad, control ético y una comprensión clara de sus limitaciones.

En última instancia, los chatbots pueden ser útiles como herramientas complementarias, pero nunca deben considerarse un sustituto de la conexión humana que sólo un terapeuta puede ofrecer. La empatía, la curiosidad y la capacidad de profundizar en la experiencia del paciente son cualidades que aún están fuera del alcance de la inteligencia artificial.

Para quienes buscan apoyo emocional, es importante comprender que los chatbots pueden ser un primer paso, pero no una solución completa. Priorizar la salud mental significa explorar todas las opciones disponibles y elegir la que mejor se adapte a las necesidades individuales, siempre con atención y consciencia de los posibles riesgos.