La RIEV ha recopilat i analitzat les evidències dels biaixos cognitius que apareixen en els algorismes d'intel·ligència artificial per a, coneixent la seva influència, poder prendre mesures correctores.
De fet, és conegut que els algorismes d'intel·ligència artificial, que estan en les dades, interioritzen i incrementen els biaixos, ja estan treballant en la seva detecció i correcció. Per exemple, els investigadors d'Orai (Elhuyar) han desenvolupat una nova tècnica de correcció del biaix de la traducció automàtica.
No obstant això, segons els autors de l'article, els biaixos cognitius humans influeixen en el desenvolupament integral dels algorismes d'intel·ligència artificial, i tots els partícips, des dels investigadors fins als usuaris. Així, els autors han recopilat evidències d'aquests biaixos i han explicat, a través d'exemples, com actuen.
En primer lloc, la sustituibilidad és major com més s'acosta un individu al prototip de la categoria. Per exemple, un txantxangorri té més possibilitats d'aparèixer en la categoria d'ocell que un pingüí. En la intel·ligència artificial aquest biaix influeix molt en la fase d'entrenament. En algunes activitats, els homes es mostraran molt més que les dones i seran més blancs que racializados. Això és el que provoca que els programes no estiguin representats, com els diagnòstics mèdics.
El biaix de recobrament ens porta a recordar i tenir en compte amb més força la informació que es correspon amb les previsions o hipòtesis. En intel·ligència artificial, en les proves de la fase de desenvolupament, implica acceptar els resultats que corrobora la convicció de l'investigador i subestimar als altres. Els autors esmenten una recerca en 2013 en Calikli i Bener, en la qual entre un 60% i un 93% de les llacunes de programari es troben a l'origen en un biaix de reutilització.
També s'analitza l'efecte del primer. En aquest sentit, en rebre informació tendim a destacar la primera en detriment del que després es recull. Les seves conseqüències són molt evidents en les cerques en Internet. La intel·ligència artificial, a més, en aprendre de les tendències anteriors, augmenta aquesta influència.
L'efecte d'ancoratge ens porta a comparar la informació obtinguda posteriorment amb la qual teníem clavada. La referència és la que tenim clavada. També aquí, la intel·ligència artificial hereta i propaga un biaix involuntari causat per l'usuari, creant un cercle viciós.
Finalment, es produeix una descripció de la il·lusió de l'efecte causa. Igual que l'anterior, l'ésser humà és inherent a aquest biaix: si alguna cosa ha ocorregut després d'una altra cosa, pensarem que una és conseqüència d'una altra. Això ho reflecteixen també els models d'intel·ligència artificial, que corren el risc de donar resultats erronis.
Els autors adverteixen que, encara que les intel·ligències artificials han interioritzat els biaixos cognitius humans, la majoria dels usuaris els consideren objectius i neutrals. Per tant, els sembla important estar atents per a identificar els biaixos i evitar o minimitzar les seves conseqüències.