Estudio certifica errores en el diagnóstico de COVID-19 con inteligencia artificial

Estudio certifica errores en el diagnóstico de COVID-19 con inteligencia artificial

Por: Carolina Ceballos | 31.05.2021
Específicamente, el hallazgo apunta a que en lugar de aprender de la "patología médica real", estos modelos, cuyo uso no está generalizado, recurrían a "atajos de aprendizaje" que desembocaban en "asociaciones falsas entre factores médicos irrelevantes y el estatus de la enfermedad".

Un estudio difundido este lunes advierte que los modelos de inteligencia artificial de diagnóstico médico, tienden a buscar "atajos" en los datos y, por ello, pueden cometer errores en la detección de enfermedades como el COVID-19.

Investigadores de la Universidad de Washington (Estados Unidos) examinaron la eficacia de varios modelos presentados como posibles herramientas para detectar el virus a partir de radiografías pectorales, publica "Nature Machine Intelligence".

Específicamente, el hallazgo apunta a que en lugar de aprender de la "patología médica real", estos modelos, cuyo uso no está generalizado, recurrían a "atajos de aprendizaje" que desembocaban en "asociaciones falsas entre factores médicos irrelevantes y el estatus de la enfermedad".

Respecto de este caso, los modelos "ignoraban indicadores significativos" en la radiografía y se basaban en otros elementos para predecir si se trataba de un caso de coronavirus, constatan.

Uno de los autores, Alex DeGrave, explica que, normalmente, los médicos "esperarían que un diagnóstico de COVID-19 a partir de una radiografía estuviera basado en pautas específicas dentro de la imagen que reflejaran los procesos de la enfermedad".

[Te puede interesar] Una terapia con nanocuerpos inhalables previene y trata el COVID-19 en hámsters

Sin embargo, advierte que en lugar de buscar esas pautas, "un sistema que use atajos de aprendizaje puede, por ejemplo, establecer que alguien es anciano y, por tanto, concluir que es más probable que tengan la enfermedad dado que es más común en pacientes de más edad".

El experto apunta que "el atajo en sí no es incorrecto", pero la asociación es "inesperada" y "no es transparente", lo que podría llevar a diagnosis "falsas".

DeGrave mantiene que, un modelo que utilice atajos, puede funcionar en el hospital donde ha sido desarrollado y es conocido, pero "fallará" en otros centros hospitalarios, donde podría generar diagnósticos y tratamientos inadecuados.

Por su parte, la investigadora Su-In Lee manifestó que aún es "optimista" sobre "la viabilidad clínica de la IA para las imágenes médicas", pero admitió que "llevará un tiempo" conseguir "mecanismos fiables para evitar que la IA aprenda atajos".

Los autores aclaran que debe ser "raro o inexistente" el uso en hospitales de esta forma de diagnóstico de COVID-19, pues la mayoría "usará pruebas de laboratorio o PCR" y no "radiografías pectorales" para detectar la enfermedad.