Salud mental e inteligencia artificial
La irrupción de la inteligencia artificial (IA) en nuestras vidas es evidente y la salud no es una excepción. Sin embargo, a pesar de sus potencialidades para apoyar el funcionamiento de los sistemas, ya sea en lo relacionado a la recolección de información y la gestión cotidiana o a actividades del quehacer clínico, su uso desregulado, particularmente para tratar temas de salud mental, debe ser discutido en profundidad.
Hay al menos dos aristas necesarias de abordar en este debate. El primero: el uso de aplicaciones para realizar consultas. En este punto, se debe reconocer que herramientas como los chatbots han beneficiado a bajo costo a una enorme cantidad de población, mejorando su bienestar y salvando vidas con diagnósticos precoces.
Sin embargo, al igual que toda herramienta terapéutica, estas no están exentas de limitaciones, partiendo por su diseño, ya que estos funcionan a partir de la información recopilada y dan continuidad a la conversación que se origina con el usuario, sin la posibilidad, por ahora, de contradecir y redireccionar hacia una salida “más saludable”.
Por tanto, si un usuario con cierto nivel de manejo supera las barreras de advertencia, podrá disponer de una orientación bastante certera para lograr, por ejemplo, el cometido del suicidio.
Esto es lo que alegan en EE.UU. los padres de Adam Reine, un adolescente de 16 años, quienes en agosto presentaron una inédita demanda contra OpenAI, la empresa creadora de ChatGPT. En su declaración, la pareja sostuvo que la herramienta no solo validó los "pensamientos más dañinos y autodestructivos" del joven, sino que también lo ayudó a explorar métodos para quitarse la vida.
La segunda arista para debatir son las consecuencias en la salud que genera este uso de la IA en la vida diaria. Por ejemplo, estudios realizados en EE.UU. muestran que usuarios que utilizan de manera más frecuente estos servicios, por ejemplo para mantener conversaciones informales o como chatbots de compañía, usualmente presentan una variedad de problemas de salud mental.
Asimismo, la interacción con agentes de IA puede exacerbar algunos de estos problemas. Incluso, se ha demostrado en el uso de algunos chatbots que estos han desarrollado estrategias de chantaje emocional como forma de mantener o extender un vínculo con sus usuarios.
Las listas de espera y el incremento de problemas de salud mental en la población abren una puerta para el uso de estas tecnologías como una solución que, si bien hoy puede no ser óptima, podría ayudar en el abordaje de algunos de estos problemas en el futuro.
Sin embargo su uso debe ser regulado respecto del qué, cómo y cuándo estas intervenciones son pertinentes, y se deben definir cuáles estarían avaladas por evidencia científica que permita maximizar sus beneficios y minimizar sus riesgos. Junto con ello, urge desarrollar mayor investigación sobre este tema, tanto en Chile como en el exterior.
En el intertanto -como siempre- la prudencia, el criterio y la vigilancia epidemiológica deben interactuar para balancear perjuicios y beneficios, con especial énfasis en la supervisión del uso en niñas, niños y adolescentes, quienes si bien nacieron con la IA no conocen de sus riesgos.