Sesgo en los algoritmos de Inteligencia Artificial para el sector sanitario

Alvaro
Escrito por Alvaro el
Sesgo en los algoritmos de Inteligencia Artificial para el sector sanitario

AI en la industria sanitaria

La continua aparición de numerosos estudios y aplicaciones de la Inteligencia Artificial (IA) en el sector salud, siguen demostrando que esta tecnología emergente tiene el gran potencial de revolucionar la forma en la que médicos, enfermeras, hospitales, farmacéuticas y aseguradoras toman decisiones en pro de salvaguardar la vida de los pacientes. Increíblemente, la creación de estas herramientas tecnológicas basadas en IA tienen un futuro bastante prometedor, con un crecimiento del mercado estimado de 4.900 millones de dólares en 2020 a 45.200 millones de dólares en 2026.

Sin embargo, a pesar de su inmenso potencial, en los últimos años la aplicación de la IA al sector Sanitario ha despertado la preocupación de algunos expertos, pues se ha encontrado que los algoritmos pueden exacerbar las disparidades estructurales existentes en el sistema de salud.

Para nadie es un secreto que los prejuicios de sexo, género, raza, situación socioeconómica, origen étnico, religión e incluso de discapacidad, llevan afectando al sector salud y biomédico desde el siglo XVIII con la llegada de la medicina moderna. Estos prejuicios, o sesgos, han promovido que, como afirma Londa Schiebinger profesora de Historia de la Ciencia en la Facultad de Humanidades y Ciencias de Stanford: “el funcionamiento y anatomía del cuerpo del hombre blanco haya sido utilizado como guía para el descubrimiento de medicamentos, tratamiento y dispositivos médicos durante las últimas décadas de la medicina moderna”.

Lo preocupante, es que la presencia de este sesgo afecta potencialmente la calidad de atención médica que reciben algunas minorías en los diferentes sistemas de salud. Solo por dar un ejemplo (bastante relevante durante estos últimos dos años de pandemia), podríamos analizar el comportamiento del pulsioxímetro. El pulsioxímetro, es un dispositivo biomédico que registra la cantidad de luz absorbida por los glóbulos rojos oxigenados y no oxigenados, en busca de analizar de manera rápida, y no invasiva, los niveles de oxígeno en sangre de un paciente. Sin embargo, cuando es utilizado en pacientes que poseen altos niveles de melanina en su piel (de raza negra), tienen tres veces más probabilidad de informar incorrectamente los niveles de gases en sangre. De hecho, también se ha visto que suelen mal funcionar con mayor frecuencia en mujeres que en hombres, lo que amenaza la posibilidad de que ambas minorías (raza y género) reciban un tratamiento adecuado.

Ahora bien, tal vez la pregunta que surge en este momento es:

¿Cómo este sesgo, o Bias, podría transmitirse a los algoritmos de IA?

Pues bien, como en cualquier otra industria, los algoritmos de IA que se desarrollan para ayudar a la toma de decisiones en el sector salud, son altamente dependientes de los datos que se utilicen para su entrenamiento.

En términos generales, tanto los algoritmos de aprendizaje de máquinas como los de aprendizaje profundo (los más utilizados en el sector salud), necesitan de una base de datos que contenga toda la información relevante para la toma de decisiones. Esta información puede ser, por ejemplo, imágenes diagnósticas con una clasificación de sí el paciente presenta o no alguna enfermedad, registros de señales biomédicas con patrones de interés identificados a lo largo del tiempo, historia clínica del paciente que permita predecir el desarrollo de alguna condición, entre otras.

A partir de esta información, la máquina pasa por un proceso de aprendizaje en el que, viendo numerosas veces los datos, es capaz de reconocer características que le permiten tomar decisiones tal y como lo haría un humano experimentado. No obstante, como se resaltó anteriormente, los datos disponibles para el entrenamiento de estos algoritmos suelen estar intrínsecamente sesgados, pues no contemplan la amplia variabilidad que se observa al momento de enfrentarse con la toma de decisiones en la vida real. Por tanto, la máquina aprende a favorecer, o desfavorecer, cierta población basada en características demográficas, de género o de raza que no tienen relación con el proceso que se quiere autorizar.

Ahora bien, siendo objetivos, aunque la principal fuente de sesgo se atribuye a los datos, el bias puede aparecer en cualquier etapa de la construcción de los algoritmos. Desde el planteamiento del problema a solucionar, si no se tiene en cuenta la variabilidad del proceso, hasta las condiciones de uso de los algoritmos, si se implementan en situaciones para las que no fueron construidos.

Por tanto, es importante, particularmente en el sector salud en el que un resultado erróneo tiene el potencial de afectar la salud de un ser humano, que quienes estén encargados del desarrollo de los algoritmos sean consientes de la presencia de esta amenaza

¿Se puede hacer algo para mitigar el sesgo de los algoritmos?

Para afrontar una amenaza como la del sesgo en la inteligencia artificial lo primero, y más importante, es reconocer que existe y que puede estar presente en las diferentes etapas del desarrollo de los algoritmos. Con esto claro, se pueden plantear diferentes estrategias que pueden ayudar a reducir sus efectos perjudiciales.

En primer lugar, es necesario que el personal sanitario que está recopilando la información para la construcción del algoritmo, sea consciente de que los sesgos que se tengan en la construcción de la base de datos van a mantenerse en los resultados que se obtengan al momento de implementar las herramientas tecnológicas. En este sentido, es imperativo que las bases de datos muestran una amplia variabilidad en la información recopilada, asegurándose de que sea representativa de la población en la vida real y siguiendo altos estándares de calidad.

Para promover este punto, es vital aumentar la inversión en entidades públicas y privadas para la construcción de bases de datos libres de sesgo. De tal manera que proyectos como el “Stanford Skin of Color Project” que busca recopilar el mayor conjunto de datos públicos de imágenes dermatológicamente relevantes para diferentes tonos de piel, se repliquen en todas las entidades de salud alrededor del mundo.

En segundo lugar, los investigadores destacan la importancia de evaluar sistemáticamente las herramientas de IA, aun después de que las organizaciones las hayan implantado. Esto es clave para entender cómo él desempeño del algoritmo al ser enfrentado a datos cotidianos de la población para el que fue creado. Lo anterior, significa que deben evaluarse utilizando no solo las métricas tradicionales de precisión y especificidad, sino también las métricas de equidad pertinentes como lo menciona Henk van Houten, director de tecnología de Royal Philips. Incluso, esto también implica que las herramientas que se construyan deben tener un alto grado de explicabilidad para que puedan ser evaluadas de manera sencilla por los expertos.

Para lograrlo, los esfuerzos de entidades gubernamentales y no gubernamentales para promover el desarrollo de estudios prospectivos es de gran importancia. En este sentido, entidades como Arkangel AI has puesto a disposición de la comunidad del sector sanitario herramientas como Hippocrates que permite construir y testear los algoritmos de manera automática siguiendo modelos de estudios prospectivos y retrospectivos.

Finalmente, en los últimos años se ha venido resaltando la importancia de hacer que la IA sea accesible para todos, un proceso conocido como “democratización”. Particularmente en el sector sanitario, este proceso permite que los profesionales de la salud tengan acceso al conocimiento necesario para proponer y desarrollar modelos de IA. Con esta democratización, se promueve la diversidad geográfica, de género, de raza y de clase al momento de construir los algoritmos y definir la reglamentación necesaria para su uso. Igualmente, con el conocimiento en manos del personal sanitario, se pueden empezar a plantear cátedras de IA al interior de universidades que generen conciencia de sus bondades, pero también de sus amenazas como el bias al momento de ser utilizados.

En busca de impulsar esta democratización, desde Arkangel, hemos estado desarrollando la herramienta Hippocrates para que el personal sanitario no tenga que preocuparse por la programación detrás de los modelos de IA, sino que se enfoque por tener conciencia de las bases teóricas del funcionamiento de los modelos, desde la construcción de bases de datos poco sesgadas, hasta la correcta implementación y evaluación de los algoritmos.


En conclusión, para garantizar que los algoritmos de IA que se usen en el futuro no solo sean potentes, sino también justos y generen valor para todos los seres humanos, debemos construir la infraestructura técnica, normativa y económica que permita obtener los datos amplios y diversos necesarios para entrenar y testear estos algoritmos. Si bien el futuro de esta tecnología en el sector sanitario es brillante, no se puede seguir permitiendo el desarrollo o incluso la implementación de herramientas que pueden pasar por encima de los principios éticos de la práctica médica afectada la atención que reciben los pacientes. Y no solo eso, aun cuando el foco de la medicina siempre debe ser el paciente, las consecuencias de algoritmos sesgados pueden sentirse desde perspectivas legales y financieras, como ya ha ocurrido anteriormente.

Entre tanto, desde Arkangel AI seguiremos comprometidos con generar conciencia de las amenazas que afectan él desempeño de los algoritmos de IA en el sector salud, mendicante el desarrollo de herramientas que permitan democratizar esta tecnología e impulsen su uso de manera cotidiana

Si quieres conocer más sobre el software Arkangel Ai déjanos tu (información profesional) y uno de nuestros agentes se pondrá en contacto contigo para acompañarte en un on-boardig uno a uno de nuestra tecnología y asesorarte en el proyecto que tienes en mente.


Comentarios

comments powered by Disqus