El informático y miembros del Instituto ISC Smart Cities Iris Domínguez – Catena (NUP) han diseñado métricas para cuantificar los sesgos demográficos de los conjuntos de datos utilizados para el entrenamiento de modelos de inteligencia artificial.
Y es que, según han explicado, en los sistemas de inteligencia artificial existen pocos o mal representados determinados grupos demográficos, como las mujeres, las personas mayores de 70 años y las personas negras. Esto puede provocar que los sistemas de inteligencia artificial formados con estos datos actúen de forma incorrecta y sean tratados discriminatoriamente por determinados grupos de población.
Por ejemplo, los investigadores han afirmado que algunos sistemas de filtrado curricular excluían sistemáticamente los currículos que parecían femeninos. Y en el caso de la inteligencia artificial generativa, como el sistema ChatGPT, se han dado cuenta de que asocia el género a determinadas profesiones, mientras que algunos grupos raciales lo asocian a ciertas características negativas.
La investigación, publicada en la revista IEEE Transactions on Pattern Analysis and Machine Intelligence, se basa en el conocimiento automático de las expresiones faciales, es decir, de los sistemas que inventan en las fotografías de las personas qué emociones representan. Estos sistemas tienen importantes aplicaciones en medicina (detección de señales dolorosas en bebés), robótica de apoyo (sobre todo para personas mayores) y creación audiovisual.
Así, se han analizado más de veinte conjuntos de datos utilizados para el entrenamiento de los sistemas mencionados. Y han visto que en los conjuntos de datos la presencia de hombres y mujeres suele estar equilibrada, pero no la edad y la raza. De hecho, los datos de las personas blancas de entre 20 y 30 años son mucho más que los de otros grupos y, en consecuencia, los modelos de inteligencia artificial pueden discriminar a las personas mayores de 70 años y a las mujeres racionalizadas, entre otros. Estos sesgos se denominan sesgos de representación.
Pero no es el único sesgo que tienen los sistemas de inteligencia artificial. De hecho, se constata que el número de mujeres felices en muchos grupos de datos casi duplica al de los hombres, mientras que el número de mujeres enfadadas casi la mitad. Esto sugiere al sistema que el género o el sexo de la persona están relacionados con la felicidad o el enfado. Se denominan sesgos estereotípicos.
En total, se han analizado 17 métricas para cuantificar todos los tipos de sesgos, de donde se han deducido cuales son las más adecuadas para medir cuantitativamente los sesgos contenidos en un conjunto de datos, primer paso para evitar la transferencia de sesgos a modelos de inteligencia artificial y minimizar su impacto.