Le RIEV a recueilli et analysé les preuves des biais cognitifs qui apparaissent dans les algorithmes d’intelligence artificielle pour, en connaissant leur influence, pouvoir prendre des mesures correctives.
En fait, il est connu que les algorithmes d'intelligence artificielle, qui sont dans les données, intériorisent et augmentent les biais, travaillent déjà sur leur détection et leur correction. Par exemple, les chercheurs d'Orai (Elhuyar) ont développé une nouvelle technique de correction du biais de la traduction automatique.
Cependant, selon les auteurs de l'article, les biais cognitifs humains influencent le développement intégral des algorithmes d'intelligence artificielle, et tous les participants, des chercheurs aux utilisateurs. Ainsi, les auteurs ont recueilli des preuves de ces biais et expliqué, à travers des exemples, comment ils agissent.
Tout d'abord, la substituabilité est plus grande qu'un individu se rapproche du prototype de la catégorie. Par exemple, un txantxangorri a plus de chances d'apparaître dans la catégorie des oiseaux qu'un pingouin. Dans l'intelligence artificielle, ce biais influence fortement la phase d'entraînement. Dans certaines activités, les hommes se montreront beaucoup plus que les femmes et seront plus blancs que racialisés. C'est pourquoi les programmes ne sont pas représentés, comme les diagnostics médicaux.
Le biais de collecte nous amène à nous rappeler et à prendre davantage en compte les informations qui correspondent aux prévisions ou aux hypothèses. En intelligence artificielle, dans les tests de la phase de développement, il implique d'accepter les résultats qui corroborent la conviction du chercheur et de sous-estimer les autres. Les auteurs mentionnent une enquête en 2013 à Calikli et Bener, où entre 60% et 93% des lacunes logicielles sont à l'origine d'un biais de réutilisation.
L'effet du premier est également analysé. À cet égard, en recevant des informations, nous avons tendance à mettre en évidence la première au détriment de ce qui est ensuite recueilli. Ses conséquences sont très évidentes dans les recherches sur Internet. L’intelligence artificielle, en outre, en apprenant des tendances précédentes, augmente cette influence.
L'effet d'ancrage nous conduit à comparer les informations obtenues ultérieurement avec celles que nous avions clouées. La référence est celle que nous avons clouée. Ici aussi, l’intelligence artificielle hérite et répand un biais involontaire causé par l’utilisateur, créant un cercle vicieux.
Enfin, il y a une description de l'illusion de l'effet cause. Comme ce qui précède, l'être humain est inhérent à ce biais: si quelque chose s'est passé après autre chose, nous pensons que l'une est la conséquence d'une autre. Cela est également reflété par les modèles d’intelligence artificielle, qui risquent de donner des résultats erronés.
Les auteurs avertissent que, bien que les intelligences artificielles aient intériorisé les biais cognitifs humains, la plupart des utilisateurs les considèrent comme objectifs et neutres. Il leur semble donc important d'être vigilant pour identifier les biais et éviter ou minimiser leurs conséquences.