La OMS describe los principios de ética para la inteligencia artificial en la salud

La Organización Mundial de la Salud emitió un documento de orientación Describe seis principios clave para el uso ético de la inteligencia artificial en la salud. Veinte expertos pasaron dos años desarrollando las pautas, que representan el primer informe de consenso sobre la ética de la inteligencia artificial en entornos sanitarios.

El informe destaca la promesa de la IA para la salud y su capacidad para ayudar a los médicos a tratar a los pacientes, especialmente en áreas de escasos recursos. Pero también enfatiza que la tecnología no es una solución rápida para los desafíos de salud, particularmente en países de ingresos bajos y medianos, y que los gobiernos y los reguladores deben analizar cuidadosamente dónde y cómo se usa la IA en la salud.

La Organización Mundial de la Salud dijo que espera que los seis principios sean la base de cómo los gobiernos, los desarrolladores y los reguladores tratan la tecnología. Los seis principios que propusieron sus expertos son: proteger la independencia; promover la seguridad y el bienestar humanos; asegurar la transparencia; mejorar la rendición de cuentas; garantizar la justicia; y promover herramientas receptivas y sostenibles.

Hay docenas de formas potenciales de usar la IA en la atención médica. Hay aplicaciones en desarrollo que usan inteligencia artificial para examinar imágenes médicas como mamografías, herramientas que verifican los registros de salud de los pacientes para predecir si podrían enfermarse, dispositivos que ayudan a las personas a monitorear su salud y sistemas que ayudan a rastrear los brotes de enfermedades. En áreas donde las personas no tienen acceso a médicos especialistas, se pueden utilizar herramientas Ayuda con la evaluación Síndrome. Pero cuando no se desarrolla e implementa cuidadosamente, en el mejor de los casos, no cumple sus promesas. En el peor de los casos, puede causar daños.

READ  El derretimiento de los glaciares en el Ártico libera metano

Algunas trampas han sido evidentes durante el año pasado. En la batalla para combatir la pandemia de COVID-19, las organizaciones de salud y los gobiernos han recurrido a herramientas de inteligencia artificial para encontrar soluciones. Sin embargo, muchas de estas herramientas tenían algunas características sobre las que advierte el informe de la OMS. En Singapur, el gobierno ha admitido que una aplicación de rastreo de contactos recopiló datos que también podrían usarse en investigaciones criminales, un ejemplo de «rastreo de trabajos», donde los datos de salud fueron redirigidos más allá del objetivo original. La mayoría de los programas de IA que tienen como objetivo detectar COVID-19 basados ​​en exámenes de tórax se han Basado en datos deficientes Y no terminó siendo útil. Los hospitales de EE. UU. Han utilizado un algoritmo diseñado para predecir qué pacientes con COVID-19 pueden necesitar cuidados intensivos. Antes de probar el programa.

«El estado de emergencia no justifica el despliegue de tecnologías no probadas», dice el informe.

El informe también reconoció que muchas herramientas de inteligencia artificial están siendo desarrolladas por grandes empresas tecnológicas privadas (como Google y la empresa china Tencent) o mediante asociaciones público-privadas. Estas empresas tienen los recursos y los datos para construir estas herramientas, pero es posible que no tengan incentivos para adoptar el marco ético propuesto para sus propios productos. Su enfoque puede estar en las ganancias más que en el bien común. «Aunque estas empresas pueden ofrecer enfoques innovadores, existe la preocupación de que eventualmente ejerzan demasiado poder con respecto a los gobiernos, los proveedores y los pacientes», se lee en el informe.

READ  Las condiciones de salud crónicas son más comunes en las últimas generaciones

La tecnología de inteligencia artificial en el cuidado de la salud aún es nueva, y muchos gobiernos, reguladores y sistemas de salud aún están descubriendo cómo evaluarla y administrarla. El informe de la OMS dijo que la reflexión y la medición del enfoque ayudarían a evitar daños potenciales. «El atractivo de las soluciones tecnológicas y la promesa de la tecnología pueden llevar a una sobreestimación de los beneficios y un rechazo de los desafíos y problemas que pueden presentar las nuevas tecnologías como la inteligencia artificial».


A continuación, se muestra un desglose de los seis principios éticos de las directrices de la OMS y por qué son importantes:

  • Protección de la independencia: Los seres humanos deben tener la supervisión y la última palabra en todas las decisiones de salud; no deben ser tomadas en su totalidad por máquinas, y los médicos deben poder pasarlas por alto en cualquier momento. La IA no debe utilizarse para dirigir la atención médica de una persona sin su consentimiento, y sus datos deben protegerse.
  • Mejorar la seguridad humana: Los desarrolladores deben monitorear constantemente las herramientas de inteligencia artificial para asegurarse de que funcionen, ya que se supone que no deben causar ningún daño.
  • Garantía de transparencia: Los desarrolladores deben publicar información sobre el diseño de herramientas de IA. Una de las críticas habituales a los sistemas es que «cajas negras» Es muy difícil para los investigadores y los médicos saber cómo toman sus decisiones. La Organización Mundial de la Salud quiere ver suficiente transparencia para que los usuarios y reguladores puedan auditarla y entenderla por completo.
  • Mejorar la rendición de cuentas: Cuando algo sale mal en la tecnología de IA, como si una decisión tomada por un instrumento daña al paciente, deben existir mecanismos que determinen quién es el responsable (por ejemplo, fabricantes y usuarios clínicos).
  • Garantía de justicia: Esto significa asegurarse de que las herramientas estén disponibles en varios idiomas y de que estén capacitadas en diversos conjuntos de datos. En los últimos años, un examen detenido de los algoritmos de salud populares ha descubierto que algunos de ellos contienen prejuicios raciales.
  • Promoción de la inteligencia artificial sostenible: Los desarrolladores deben poder actualizar sus herramientas con regularidad y las organizaciones deben tener formas de adaptarse si una herramienta parece ineficaz. Las organizaciones o empresas también deben ofrecer herramientas que solo se pueden arreglar, incluso en sistemas de salud de bajos recursos.
READ  Mira a SpaceX lanzar un cohete Falcon 9 en el vuelo 12 del viernes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *