Cómo el sesgo se infiltra en la IA de la atención médica

aLa inteligencia artificial y los algoritmos médicos están profundamente entrelazados con nuestro moderno sistema de salud. Estas tecnologías simulan los procesos de pensamiento de los médicos para tomar decisiones médicas y están diseñadas para ayudar a los proveedores a determinar quién necesita atención. Pero uno de los grandes problemas de la IA es que a menudo replica los sesgos y los puntos ciegos de los humanos que la crean.

Investigadores y médicos han advertido que se están utilizando algoritmos para determinar quién recibe… Trasplantes de riñónY el cirugías del corazón Y el Diagnóstico de cáncer de mama Mostrar prejuicio racial. Estos problemas pueden conducir a una atención nociva que puede, en algunos casos, poner en riesgo la salud de millones de pacientes.

Entonces, ¿cómo se filtra exactamente el sesgo en estos algoritmos? ¿Y qué se puede hacer para prevenirlo?

anuncios

La jueza del condado de Hertford, Deborah Morrison, del departamento del alguacil en Winton, Carolina del Norte, cuya madre, una expastora de 74 años, había comenzado a experimentar cansancio extremo y dificultad para respirar. Morrison dijo que el médico de atención primaria de su madre le diagnosticó depresión, le recetó medicamentos y la envió a casa sin derivarla a un cardiólogo. Una semana después, en Greenville, una ciudad a 90 millas de distancia, a su madre le diagnosticaron insuficiencia cardíaca congestiva. Se derrumbó y murió aproximadamente un mes después. Landon Post para STAT

En este episodio escuchamos de casey rossun reportero de STAT para National Health Technology, sobre sus informes sobre el sesgo racial en la inteligencia artificial. chris hemphillY el El vicepresidente de Inteligencia Artificial y Crecimiento Aplicado de Actium Health nos cuenta sobre el auge de la IA responsable en el cuidado de la salud. Ziad Obermerermédico e investigador de medicina de emergencia de la Facultad de Salud Pública de Berkeley de la Universidad de California, explica cómo su equipo encontró sesgos en un algoritmo ampliamente utilizado en nuestro sistema de atención médica y un caso en el que se usó inteligencia artificial para corregir injusticias en la atención médica.

READ  Las técnicas de detectives de dinosaurios revelan los secretos de la comida de los mosasaurios

Una copia de este episodio está disponible aquí.

anuncios

Puede suscribirse a «Color Code» en podcast de manzanaY el spotificarY el podcast de googleY el Nube de sonido, y en otros lugares. Se lanzarán nuevos episodios cada dos días.

Para leer más sobre algunos de los temas discutidos en el episodio:

Y echa un vistazo a alguna cobertura STAT del tema:

Este podcast fue posible gracias al apoyo de Fondo de la Commonwealth.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *