Novedades


Sesgo en atención al paciente: construyendo una inteligencia artificial imparcial
La inteligencia artificial puede ser una herramienta poderosa, pero sin una supervisión cuidadosa, puede contribuir a problemas continuos con equidad en la atención e integrar sesgos dañinos
Biometría

La tecnología, que a menudo procesa datos para extraer patrones y conocimientos, podría ser clave para la detección temprana de afecciones médicas, identificando a los pacientes en riesgo de deterioro y recomendando planes de atención. Pero una investigación reciente sugiere que la inteligencia artificial y los algoritmos predictivos pueden ser menos precisos para las poblaciones vulnerables y podrían exacerbar las disparidades de salud existentes.

Esa atención al sesgo potencial en la IA es un área de enfoque creciente, con hospitales individuales, el gobierno federal y agencias internacionales haciendo sonar las alarmas.

En la primavera, la Comisión Federal de Comercio recomendó a las empresas que no implementaran herramientas de inteligencia artificial que podrían resultar involuntariamente en discriminación. La Agencia para la Investigación y la Calidad de la Atención Médica del Departamento de Salud y Servicios Humanos emitió a principios de este año una solicitud de información sobre algoritmos que podrían introducir prejuicios raciales o étnicos en la prestación de la atención. Y la Organización Mundial de la Salud publicó en junio su primer informe sobre consideraciones éticas para la IA en la salud.

Un primer paso para abordar el sesgo es ser consciente del potencial que tiene para infiltrarse en los algoritmos de formas que potencialmente pueden empeorar las disparidades, dijo el Dr. Edmondo Robinson, vicepresidente senior y director digital de Moffitt Cancer Center, con sede en Tampa, Florida. y seguir estando atentos a tales preocupaciones.

"Siempre quieres estar al tanto de la posibilidad", dijo Robinson.

La mitad de los ejecutivos de atención médica indicaron que el sesgo potencial era uno de los mayores riesgos potenciales de la adopción de la inteligencia artificial, según una encuesta de la consultora KPMG, y ocupó el segundo lugar detrás de las preocupaciones sobre violaciones de la privacidad con un 54%.

Pero debe ser una prioridad para todos, dicen los expertos, ya que los algoritmos ampliamente implementados informan las decisiones de atención de miles, si no cientos de miles, de pacientes.

"La IA tiene un enorme potencial, si se hace bien", dijo Satish Gattadahalli, director de salud digital e informática en el negocio del sector público de la firma de asesoría Grant Thornton. Al igual que con el resto de la medicina, eso significa tomar las medidas necesarias para garantizar el compromiso de "no hacer daño". Eso "debe integrarse en la estrategia desde el principio", dijo.

Aquí hay un puñado de enfoques que los sistemas de salud y los contribuyentes están probando para reducir la probabilidad de que se produzcan sesgos involuntariamente en cada etapa del desarrollo de la IA.

Trabaje desde un conjunto de datos diverso

La IA requiere una gran cantidad de datos. Y no cualquier dato, sino datos que reflejen los pacientes que tratará un hospital.

Para crear una herramienta de IA, los desarrolladores alimentan un sistema con montones de datos de entrenamiento, a partir de los cuales aprende a identificar características y dibujar patrones. Pero si esos datos carecen de información sobre algunas poblaciones, como las minorías raciales o los pacientes de un nivel socioeconómico bajo, los conocimientos que señala la IA podrían no ser aplicables a esos grupos de pacientes.

Esa falta de diversidad es uno de los problemas centrales que impulsa el sesgo en la IA, escribió la Oficina de Responsabilidad del Gobierno en un informe publicado el año pasado, ya que podría resultar en herramientas menos seguras.

Esa ha sido una preocupación particular en dermatología, donde los investigadores han dicho que muchas herramientas de inteligencia artificial diseñadas para detectar el cáncer de piel se entrenaron principalmente en imágenes de pacientes de piel clara.

Es un desafío que Meharry Medical College, una escuela de medicina históricamente negra con sede en Nashville, Tennessee, planea abordar a través de su nueva Escuela de Ciencias Computacionales Aplicadas, que se inauguró este año. La escuela, que también ofrece títulos en ciencia de datos y alberga investigación de la facultad en el campo, está construyendo un depósito central de datos de sus pacientes.

Hasta ahora, el lago de datos incluye datos de registros médicos electrónicos, pero en el futuro incorporará genómica, sensores portátiles y determinantes sociales.

Muchos repositorios de datos sanitarios incluyen principalmente datos sobre pacientes blancos, ya que tienden a utilizar los servicios sanitarios con más frecuencia que otros grupos y representan la mayor parte del gasto sanitario. Pero dado que Meharry Medical College trata a muchos pacientes negros y latinos, los ejecutivos esperan hacer que dichos conjuntos de datos sean más diversos.

“Las organizaciones como la nuestra que tratan a un gran número de pacientes afroamericanos e hispanos deben participar en este tipo de trabajo”, dijo el Dr. James Hildreth, presidente y director ejecutivo de Meharry. "Si se van a aplicar algoritmos a los planes de tratamiento o planes de atención de una población diversa, deben incluir datos acumulados de un conjunto diverso de pacientes".

Meharry no solo está configurando un lago de datos para la investigación interna. También se está asociando con organizaciones externas, como el Instituto de Investigación de Resultados Centrados en el Paciente, con quienes compartirán datos para la investigación, y es parte del consorcio de investigación COVID-19 de HCA Healthcare, a través del cual HCA, con sede en Nashville, Tennessee, está compartiendo datos sobre Pacientes COVID-19 tratados en sus instalaciones con un consorcio de universidades.

Tener datos diversos también ayuda a validar la IA. Los investigadores pueden extraer datos de subgrupos específicos para probar el algoritmo y asegurarse de que funcione para todas las poblaciones.

Un investigador de la Escuela de Ciencias Computacionales Aplicadas está desarrollando un algoritmo para predecir qué pacientes con COVID-19 están en riesgo de readmisión y síntomas a largo plazo, dijo Ashutosh Singhal, director de investigación, desarrollo y estrategia médica de la escuela. El investigador creará el algoritmo con datos del consorcio HCA, pero planea validarlo con datos sobre poblaciones de pacientes desatendidos de Meharry.

"Confiaremos mucho en estos algoritmos en el futuro", dijo Singhal, por lo que es importante asegurarse de que funcionen para todos los pacientes, y no solo para algunas poblaciones.

Instó a las organizaciones que saben que tienen lagunas en sus datos a asociarse con colaboradores como Meharry, o recurrir a consorcios nacionales como el National COVID Cohort Collaborative en los Institutos Nacionales de Salud, que está agrupando datos de registros médicos electrónicos de múltiples organizaciones de atención médica en un base de datos central.

Estudio de casos

En un estudio de caso, los médicos de UCSF Health en San Francisco implementaron un algoritmo de inteligencia artificial diseñado para predecir las ausencias, pero solo para determinar qué pacientes podrían beneficiarse de la extensión dirigida. No reservaron citas dos veces.

Idealmente, ese alcance activo serviría para ayudar a los pacientes con dificultades para acceder a la atención, en lugar de dejarlos con visitas demoradas o apresuradas como resultado de una doble reserva.

Los médicos del artículo reconocieron que los pacientes con doble reserva probablemente habrían maximizado sus horarios. Si bien el alcance dirigido redujo las ausencias, no las eliminó.

Pero puede valer la pena correr el riesgo, dijo Obermeyer, que no participó en el estudio de caso, si sirve para interrumpir, en lugar de reforzar, las disparidades existentes.

Ese es el tipo de impacto en el que los ejecutivos deben pensar antes de implementar un algoritmo de inteligencia artificial, sin importar cuán preciso sea, en la prestación de atención.

Y la IA no es solo una implementación única. Las organizaciones de atención médica necesitan monitorear constantemente la inteligencia artificial, particularmente si una herramienta de inteligencia artificial no es un algoritmo bloqueado y está evolucionando, aprendiendo y cambiando la forma en que toma decisiones a lo largo del tiempo, documentando las decisiones que toma y refinando cuando no está funcionando como se esperaba. .

Una vez que se implementan las herramientas de inteligencia artificial, es importante verificar continuamente su imparcialidad, dijo Robinson en Moffitt Cancer Center. Eso puede implicar la creación de un control de equidad directamente en una herramienta de IA o la evaluación por separado de sus resultados.

“El desafío es que hay que definir (qué es la justicia)”, dijo. Eso varía según el caso de uso. En algunos casos, podría ser importante verificar si la IA está tomando la misma determinación independientemente de los datos demográficos como la raza o el género, como en el algoritmo estudiado por el Center for Applied AI, donde a pacientes blancos y negros similares se les asignaron diferentes puntajes de riesgo.

Monitorear la demografía de los pacientes que marca un algoritmo es particularmente útil con un algoritmo de IA de "caja negra", donde no está claro cómo un algoritmo toma decisiones individuales y simplemente comparte un resultado o una recomendación. Si una herramienta está dirigiendo constantemente a más pacientes blancos que pacientes negros a ciertos programas, podría ser el momento de preguntar por qué.

“Realmente depende del caso de uso”, dijo Robinson, pero un tema general es la explicabilidad: investigar cómo una IA llega a un resultado, y no solo aceptarlo.

"Se vuelve más difícil cuanto más complejos son los algoritmos", dijo. Pero "(necesitamos) un entendimiento, o algún tipo de forma de explicar, por qué estamos donde estamos".

Fuente: Modern Health Care

x
Este sitio utiliza cookies para su correcto funcionamiento. Para aceptar su uso presione Aceptar para continuar navegando. Aceptar
2018 - 2019   |   Todos los derechos reservados