Los modelos de IA médica se basan en siglas y podrían causar un diagnóstico erróneo: The Tribune India

Nueva York, 1 de junio

Los modelos de inteligencia artificial (IA) como los humanos tienden a buscar atajos. Si la enfermedad se detecta con la ayuda de la IA, estos atajos podrían provocar errores de diagnóstico si se implementan en entornos clínicos, advierten los investigadores.

Un equipo de la Universidad de Washington en los EE. UU. Ha examinado varios modelos introducidos recientemente como herramientas potenciales para la detección precisa de Covid-19 a partir de una radiografía de tórax, conocida como radiografía de tórax.

Los resultados, publicados en la revista Nature Machine Intelligence, muestran que en lugar de aprender la patología médica verdadera, estos modelos se basan en un aprendizaje breve para trazar asociaciones espurias entre factores médicamente no relacionados y el estado de la enfermedad.

Como resultado, los modelos ignoraron los indicadores clínicamente importantes y, en cambio, se basaron en características como los marcadores de texto o el estado del paciente que eran específicas de cada conjunto de datos para predecir si alguien tenía Covid-19.

«En general, un médico espera que la detección del virus Covid-19 a partir de rayos X se base en patrones específicos en la imagen que reflejan los procesos de la enfermedad», dijo el coautor principal Alex DeGriff del Programa de Capacitación para Científicos Médicos de la Universidad de Wisconsin. .

« Pero en lugar de depender de estos patrones, un sistema que utiliza el aprendizaje abreviado, por ejemplo, puede juzgar que alguien es mayor y, por lo tanto, concluir que es más probable que desarrolle la enfermedad porque es más común en pacientes mayores.

«El atajo no es un error en sí mismo, pero el vínculo es inesperado y opaco. Esto puede conducir a un diagnóstico inapropiado», dijo DeGraf.

Los investigadores dijeron que el aprendizaje en pocas palabras es menos sólido que la verdadera patología médica y, por lo general, significa que el modelo no se generalizará bien fuera del entorno original.

La combinación de la falta de poder y la opacidad típica de la toma de decisiones de la IA podría hacer que estos modelos de IA sean vulnerables a una condición conocida como la «confusión del peor de los casos», debido a la falta de datos de entrenamiento disponibles para una enfermedad tan nueva.

Los investigadores notaron que este escenario aumentaba la probabilidad de que los modelos se basaran en atajos en lugar de aprender la patología subyacente de la enfermedad a partir de los datos de entrenamiento.

– Janz

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *