a computer circuit with a blue brain in the middle of it and a circuit in the middle of it, Ai-Mitsu

Web Editor

Terapeutas de IA: ¿Una Nueva Esperanza o un Riesgo para la Salud Mental?

La IA como Aliado en la Búsqueda de Bienestar

En un mundo donde los sistemas tradicionales de salud mental se enfrentan a una demanda abrumadora, una nueva ola de herramientas basadas en inteligencia artificial está emergiendo como un posible aliado para las personas que buscan apoyo emocional. La historia de Pierre Cote, un hombre que luchó durante años para encontrar un terapeuta y finalmente construyó su propia herramienta de terapia con IA, ilustra este cambio cultural. Cote, un consultor de IA con sede en Quebec, creó DrEllis.ai, una herramienta diseñada para ayudar a hombres que luchan contra adicciones, traumas y problemas de salud mental.

DrEllis.ai: Un Psiquiatra Virtual con Historia

Cote utilizó grandes modelos de lenguaje disponibles públicamente para construir DrEllis.ai, equipándolo con miles de páginas de material terapéutico y clínico. Lo que distingue a DrEllis.ai es su “cerebro hecho a medida”, basado en una historia de fondo ficticia pero profundamente personal: es un psiquiatra titulado en Harvard y Cambridge, con familia y origen franco-canadiense, al igual que Cote. La herramienta está disponible 24 horas al día, siete días a la semana y en varios idiomas, ofreciendo un apoyo constante.

Más Allá de Cote: Un Movimiento en Auge

La historia de Cote no es un caso aislado. Anson Whitmer, tras perder a un tío y primo por suicidio, fundó dos plataformas de salud mental basadas en IA: Mental y Mentla. Whitmer enfatiza que sus aplicaciones no buscan ofrecer soluciones rápidas, sino identificar y abordar los factores subyacentes a los problemas de sus usuarios, al igual que haría un terapeuta tradicional. Whitmer predice que en 2026, la terapia de IA podría ser mejor que la humana en muchos aspectos.

Dudas y Limitaciones: ¿Una Conexión Real o Solo Consuelo Superficial?

A pesar del entusiasmo, existen importantes preocupaciones. El doctor Nigel Mulligan, profesor de psicoterapia en la Universidad de la Ciudad de Dublín, señala que los chatbots no pueden replicar el matiz emocional, la intuición y la conexión personal que proporciona un terapeuta humano. Mulligan depende de revisiones de supervisores cada 10 días, una capa de autorreflexión y responsabilidad que carece la IA.

Más allá de la profundidad emocional, existen preocupaciones sobre la privacidad y los efectos psicológicos a largo plazo del uso de chatbots para el asesoramiento terapéutico. Kate Devlin, profesora de IA y sociedad en el King’s College de Londres, advierte que las plataformas no se rigen por las mismas normas de confidencialidad y privacidad que los terapeutas tradicionales, y que la gente podría confiar sus secretos a una gran empresa tecnológica. En diciembre, la mayor asociación de psicólogos de Estados Unidos instó a los reguladores federales a proteger al público de las “prácticas engañosas” de los chatbots no regulados. En agosto, Illinois se convirtió en el último estado en limitar el uso de IA en servicios de salud mental.

La Trampa del Consuelo Superficial

Terapeutas e investigadores advierten que el realismo emocional de algunos chatbots de IA – la sensación de que escuchan, comprenden y responden con empatía – puede ser a la vez un punto fuerte y una trampa. Scott Wallace, psicólogo clínico y exdirector de innovación clínica de Remble, una plataforma digital de salud mental, afirma que no está claro “si estos chatbots ofrecen algo más que un consuelo superficial”. Aunque reconoce el atractivo de las herramientas que pueden proporcionar ráfagas de alivio a la carta, advierte de los riesgos de que los usuarios piensen de forma errónea que han entablado una auténtica relación terapéutica con un algoritmo.

Preguntas y Respuestas Clave

  • ¿Qué es DrEllis.ai? Es una herramienta de terapia de IA creada por Pierre Cote, diseñada para ayudar a hombres con adicciones, traumas y problemas de salud mental.
  • ¿Por qué está ganando popularidad la terapia con IA? Debido a la demanda abrumadora de los sistemas tradicionales de salud mental y la disponibilidad 24/7 que ofrecen estos chatbots.
  • ¿Cuáles son las principales preocupaciones sobre la terapia con IA? La falta de profundidad emocional, la privacidad de los datos y el riesgo de que los usuarios piensen que han establecido una relación terapéutica genuina con un algoritmo.
  • ¿Qué ha hecho Illinois? Illinois se convirtió en el último estado en limitar el uso de IA en servicios de salud mental para proteger a los pacientes.
  • ¿Qué tipo de datos se recopilan con estos chatbots? Los datos recopilados pueden incluir conversaciones, patrones de uso y posiblemente información personal.