La RIEV ha recopilado y analizado las evidencias de los sesgos cognitivos que aparecen en los algoritmos de inteligencia artificial para, conociendo su influencia, poder tomar medidas correctoras.
De hecho, es conocido que los algoritmos de inteligencia artificial, que están en los datos, interiorizan e incrementan los sesgos, ya están trabajando en su detección y corrección. Por ejemplo, los investigadores de Orai (Elhuyar) han desarrollado una novedosa técnica de corrección del sesgo de la traducción automática.
Sin embargo, según los autores del artículo, los sesgos cognitivos humanos influyen en el desarrollo integral de los algoritmos de inteligencia artificial, y todos los partícipes, desde los investigadores hasta los usuarios. Así, los autores han recopilado evidencias de estos sesgos y han explicado, a través de ejemplos, cómo actúan.
En primer lugar, la sustituibilidad es mayor cuanto más se acerca un individuo al prototipo de la categoría. Por ejemplo, un txantxangorri tiene más posibilidades de aparecer en la categoría de pájaro que un pingüino. En la inteligencia artificial este sesgo influye mucho en la fase de entrenamiento. En algunas actividades, los hombres se mostrarán mucho más que las mujeres y serán más blancos que racializados. Esto es lo que provoca que los programas no estén representados, como los diagnósticos médicos.
El sesgo de recobro nos lleva a recordar y tener en cuenta con más fuerza la información que se corresponde con las previsiones o hipótesis. En inteligencia artificial, en las pruebas de la fase de desarrollo, implica aceptar los resultados que corrobora la convicción del investigador y subestimar a los demás. Los autores mencionan una investigación en 2013 en Calikli y Bener, en la que entre un 60% y un 93% de las lagunas de software se encuentran en su origen en un sesgo de reutilización.
También se analiza el efecto del primero. En este sentido, al recibir información tendemos a destacar la primera en detrimento de lo que luego se recoge. Sus consecuencias son muy evidentes en las búsquedas en Internet. La inteligencia artificial, además, al aprender de las tendencias anteriores, aumenta esta influencia.
El efecto de anclaje nos lleva a comparar la información obtenida posteriormente con la que teníamos clavada. La referencia es la que tenemos clavada. También aquí, la inteligencia artificial hereda y propaga un sesgo involuntario causado por el usuario, creando un círculo vicioso.
Por último, se produce una descripción de la ilusión del efecto causa. Al igual que lo anterior, el ser humano es inherente a este sesgo: si algo ha ocurrido después de otra cosa, pensaremos que una es consecuencia de otra. Esto lo reflejan también los modelos de inteligencia artificial, que corren el riesgo de dar resultados erróneos.
Los autores advierten de que, aunque las inteligencias artificiales han interiorizado los sesgos cognitivos humanos, la mayoría de los usuarios los consideran objetivos y neutrales. Por lo tanto, les parece importante estar atentos para identificar los sesgos y evitar o minimizar sus consecuencias.