Ciudadano News
Futuro y psicología

El peligro de recurrir a la IA para que nos analice psicológicamente

Los expertos advierten que la tecnología solo debe utilizarse con respaldo científico y aseguran que los chatbots nunca podrán reemplazar a los terapeutas humanos.

Redacción

Por Redacción

18 Julio de 2024 - 09:53

Expertos advierten que la tecnología solo debe utilizarse con respaldo científico.
Expertos advierten que la tecnología solo debe utilizarse con respaldo científico. Ciudadano News

La última tendencia entre los adolescentes es usar ChatGPT para evaluar si sus relaciones con amigos y parejas son saludables, volcando en esta IA sus conversaciones de WhatsApp. Desde su lanzamiento en noviembre de 2022, ChatGPT impresiona por su capacidad de imitar el lenguaje humano. Muchas personas lo utilizan para tareas administrativas, redacción de correos electrónicos, planificación de viajes, análisis de compras o búsqueda de recetas, pero cada vez más se recurre a esta herramienta para responder cuestiones emocionales.

Los problemas de salud mental están en aumento en los países desarrollados. Según la OMS, una de cada cuatro personas sufrirá algún trastorno mental a lo largo de su vida. La tecnología ha respondido a esta necesidad con numerosas aplicaciones de terapia y bienestar emocional. En el mercado de aplicaciones de Apple, destacan aquellas para meditar, monitorear el sueño o controlar el ciclo menstrual. A estas se suman los chatbots de inteligencia emocional, como Replika, Wysa y Youper, que permiten mantener conversaciones sobre problemas emocionales.

Aunque la IA es gratuita, rápida y accesible las 24 horas del día, no es la herramienta adecuada para tratar cuestiones emocionales, advierten los expertos. "La tecnología puede ayudar a detectar un problema de salud mental, pero nunca debe sustituir a un profesional," dice Edgar Jorba, fundador de Aimentia, un sistema que ayuda a psicólogos y psiquiatras a ser más precisos en sus diagnósticos y terapias. Jorba destaca que la mayoría de estas aplicaciones no tienen aval científico y pueden llevar a diagnósticos incorrectos.

La falta de psicólogos en la atención primaria y el alto costo de la terapia privada explican en parte el uso de la IA para el bienestar emocional. Además, la epidemia de soledad entre los jóvenes es un factor clave en el aumento del uso de estas aplicaciones. Según un estudio del Observatorio Estatal de la Soledad, uno de cada cuatro jóvenes experimenta soledad no deseada, y el 75.8% la ha sentido durante más de un año. La falta de educación sobre salud mental y el estigma asociado a estas enfermedades también contribuyen a que se busque apoyo en canales digitales.

Ana Freire, docente e investigadora en inteligencia artificial en la UPF, subraya la importancia del anonimato que ofrecen las redes sociales y aplicaciones. Freire lidera el proyecto STOP, que busca reducir los suicidios mediante el análisis de datos en redes sociales. Las campañas de STOP, dirigidas a personas con riesgo de trastornos mentales, incrementaron significativamente las solicitudes de ayuda.

Sin embargo, el uso de aplicaciones y chatbots para apoyo emocional plantean problemas de privacidad. "El uso de datos es un problema sin resolver en sistemas como ChatGPT", señala Freire. La re-entrenación de estos sistemas con datos personales puede ser peligrosa, y es crucial encontrar un equilibrio entre privacidad e innovación.

El riesgo usar la IA cómo terapeuta

Si bien la IA puede ofrecer herramientas útiles para la salud mental, como la psicoeducación o el seguimiento de síntomas, no reemplaza la terapia tradicional. Existen diversos riesgos asociados que hay que considerar antes de recurrir a este tipo de herramientas:

1. Falta de empatía y comprensión: la IA no posee la capacidad de comprender las complejidades de la experiencia humana y las emociones de la misma manera que un terapeuta humano. Esto puede limitar su capacidad para brindar apoyo emocional y responder a las necesidades individuales de cada paciente.

2. Incapacidad para detectar y abordar problemas graves: los chatbots y aplicaciones de IA no están capacitados para detectar o diagnosticar problemas de salud mental graves, como depresión, ansiedad o trastornos de personalidad. En algunos casos, incluso podrían empeorar los síntomas al proporcionar información o consejos inadecuados.

3. Riesgo de dependencia y aislamiento: el uso excesivo de la IA para terapia puede generar dependencia y aislar a las personas de la interacción humana y el apoyo social. La terapia tradicional, en cambio, fomenta la construcción de relaciones con un terapeuta y otros individuos, lo cual es fundamental para el bienestar mental.

4. Preocupaciones por la privacidad y la seguridad de los datos: la confidencialidad de la información personal es un aspecto crucial en la terapia. Sin embargo, al utilizar herramientas de IA, existe el riesgo de que los datos personales de los pacientes sean recopilados, utilizados o incluso filtrados sin su consentimiento.

5. Falta de regulación y supervisión: actualmente, no existe una regulación clara que controle el desarrollo y uso de la IA en el ámbito de la salud mental. Esto significa que no hay garantía de que las herramientas de IA sean seguras, efectivas o éticamente responsables.