Plataformas como Facebook ya usa datos para predecir comportamientos y posibles situaciones de suicidio
La inteligencia artificial no solo es vista como una herramienta para resolver problemas de la vida cotidiana o laboral, también tiene un prometedor enfoque en temas de salud mental, como una opción para su tratamiento y detección.
Desde los primeros experimentos en la década de los sesenta hasta los programas actuales, la IA ha mostrado un potencial interesante para identificar y tratar trastornos mentales antes de que se conviertan en crisis profundas. Todo esto en medio de un contexto en el que la salud mental tiene un valor mucho más grande para las organizaciones, autoridades y pacientes.
Cómo surge el uso de inteligencia artificial en el tratamiento de salud mental
El viaje de la inteligencia artificial en la salud mental comenzó con Eliza, un programa de computadora creado en 1966 por Joseph Weizenbaum, un científico informático del MIT, que estaba diseñado para simular la terapia rogeriana, un enfoque en el que el terapeuta repite las palabras del paciente para alentarlo a seguir hablando.
Aunque Weizenbaum creó Eliza como una sátira para demostrar la incapacidad de las máquinas para interactuar significativamente con los humanos, el programa sorprendió a muchos al ser considerado útil y cautivador. Incluso, su propia secretaria pidió quedarse a solas con el sistema para continuar la “terapia”. Este episodio inicial marcó el inicio de un debate sobre el potencial y los peligros de la IA en la terapia.
No mucho después, en 1972, Kenneth Colby, un psiquiatra de Stanford, desarrolló Parry, un programa que simulaba el lenguaje de una persona con esquizofrenia paranoide. Este programa se utilizó para entrenar a estudiantes de psiquiatría, ayudándoles a familiarizarse con el lenguaje y los patrones de pensamiento de los pacientes con este trastorno.
Parry tuvo tanto éxito en simular la esquizofrenia que, en algunos casos, superó la prueba de Turing, un test diseñado para evaluar si una máquina puede exhibir un comportamiento inteligente similar al de un ser humano.
Así puede usarse la IA en los tratamientos de salud mental
Hoy en día, la investigación sobre el uso de la IA en la salud mental ha avanzado considerablemente. Un enfoque que ha ganado atención es el fenotipado digital, que implica la recopilación y análisis de datos de dispositivos móviles, como la actividad física o la ubicación, para predecir problemas de salud mental.
Investigadores de la Universidad de Oxford han comenzado a explorar cómo esta técnica podría ayudar a detectar signos tempranos de trastornos mentales. Jessica Lorimer, asistente de investigación en el Departamento de Psiquiatría de Oxford, explica que la IA puede analizar patrones de comportamiento que podrían pasar desapercibidos para los médicos humanos, proporcionando una advertencia anticipada sobre posibles problemas de salud mental.
La capacidad de la IA para analizar grandes cantidades de datos también ha permitido avances en la identificación de ideación suicida. Por ejemplo, John Pestian, un científico especializado en el análisis de datos médicos, ha desarrollado un algoritmo que analiza notas de suicidio y grabaciones de conversaciones en salas de emergencia para identificar patrones de lenguaje que indican riesgo de suicidio.
Este enfoque ha mostrado ser tan preciso como los médicos humanos en el 85% de los casos, lo que sugiere que podría ser una herramienta valiosa para los clínicos menos experimentados o sobrecargados de trabajo.
Sin embargo, el uso de la IA en la salud mental no está exento de controversias. Una de las preocupaciones más grandes es la privacidad de los datos.
La recolección de datos personales, como la ubicación o el historial de mensajes de texto, plantea serias preguntas sobre quién tiene acceso a esta información y cómo se utiliza. Por ejemplo, Facebook ya utiliza IA para detectar publicaciones que indican riesgo de suicidio, pero el proceso por el cual se analizan estos datos es en gran medida desconocido, lo que genera inquietudes sobre la transparencia y la eficacia real de estas intervenciones.
Además, los problemas éticos relacionados con el consentimiento se vuelven especialmente complejos cuando se trata de menores de edad. Jessica Lorimer plantea la cuestión: si se determina que un joven está en riesgo, ¿quién debería tener derecho a saber esa información: sus padres, sus maestros, la escuela, su médico?
En la práctica clínica actual, aplicaciones como Woebot usan la IA para proporcionar apoyo en salud mental. Esta plataforma, desarrollada en 2017 por Alison Darcy, psicóloga clínica e investigadora de Stanford, utiliza la terapia cognitivo-conductual para guiar a los usuarios a través de secuencias de respuestas preescritas que los ayudan a examinar y cambiar sus patrones de pensamiento.
Aunque al principio algunos usuarios pueden sentirse escépticos sobre la idea de conversar con una aplicación, muchas personas han encontrado en Woebot una herramienta valiosa para manejar la ansiedad y la depresión, especialmente en áreas con escasez de profesionales de la salud mental.
A medida que la IA continúa evolucionando, su papel en la salud mental probablemente seguirá expandiéndose. Los algoritmos predictivos, como el desarrollado por John Pestian, que pretende prever la aparición de enfermedades mentales meses antes de que se manifiesten, podrían revolucionar la forma en que entendemos y tratamos estos trastornos.
Sin embargo, es crucial que este desarrollo venga acompañado de un marco ético sólido que garantice la privacidad y la dignidad de los pacientes.