Que la tecnología no es neutra y reproduce el sesgo de los humanos lo demuestra un nuevo estudio publicado en la revista Science. Investigadores de Estados Unidos, de la Universidad de California, Berkeley, del Hospital Brigham and Women's, del Hospital General de Massachusetts y de la Universidad de Chicago han evidenciado la existencia de un sesgo racial en un algoritmo ampliamente usado en el sistema de salud estadounidense. Según los expertos, este sesgo reduce en más de la mitad el número de pacientes negros susceptibles de recibir atención adicional.
“El sesgo ocurre porque el algoritmo utiliza los costos de salud como un indicador aproximado de las necesidades de salud”, se puede leer en el artículo, según el cual se gasta menos dinero en pacientes negros que tienen el mismo nivel de necesidad y el algoritmo concluye falsamente que los pacientes negros están más sanos que los pacientes blancos. Según los datos obtenidos, la atención que se brinda a las personas negras es en promedio de 1.800 dólares menos por año que la que se brinda a una persona blanca con el mismo número de problemas de salud crónicos.
De acuerdo con los investigadores, este algoritmo se aplica a cerca de 200 millones de personas en Estados Unidos cada año. “La reformulación del algoritmo para que ya no utilice los costos como sustituto de las necesidades elimina el sesgo racial en la predicción de quién necesita atención adicional”, añade el artículo firmado por Ziad Obermeyer, Brian Powers, Christine Vogeli y Sendhil Mullainathan.
Los sistemas de salud se basan en algoritmos de predicción comercial para identificar y ayudar a los pacientes con necesidades de salud complejas. Según los datos a los que accedieron los investigadores sobre enfermedades no controladas, los pacientes negros están considerablemente más enfermos que los pacientes blanco. Remediar esta disparidad aumentaría el porcentaje de pacientes negros que reciben ayuda, del 17,7 al 46,5 %.
Sin embargo, las investigaciones sobre el sesgo algorítmico -cómo, por qué surgen y qué hacer al respecto- se han visto obstaculizadas por la dificultad de acceder a los propios algoritmos. Aquellos desplegados a gran escala suelen ser de propiedad exclusiva, lo que complica a investigadores independientes acceder a ellos para estudiarlos. “Sin los datos de entrenamiento de un algoritmo, la función objetiva y la metodología de predicción, solo podemos adivinar los mecanismos reales para las importantes disparidades algorítmicas que surgen”, subrayan los expertos.
“Debido a que tenemos las entradas, salidas y resultados finales, nuestros datos nos permiten una oportunidad única para cuantificar las disparidades raciales en los algoritmos y aislar los mecanismos por los cuales surgen… Este algoritmo no es único. Más bien, es emblemático de un enfoque generalizado de la predicción del riesgo en el sector de la salud, ampliamente adoptado por una serie de centros médicos sin fines de lucro y organismos gubernamentales”, explican.
En el estudio realizado en un hospital académico, con datos de entre 2013 y 2015, unos 6.000 pacientes se autoidentificaron como negros y unos 43.500 como blancos. El promedio es de casi 60 años, y el 63 % son mujeres.
El estudio concluye que es necesario cambiar los datos que le damos al algoritmo, específicamente las etiquetas, determinantes tanto de la calidad predictiva como del sesgo predictivo.