Les mécanismes de biais dans les systèmes d'intelligence artificielle
Les systèmes d'intelligence artificielle, en tant que systèmes créés par les humaines, restent sujets à certains biais cognitifs. Focus :

Le système d'intelligence artificielle fonctionne, avant toute chose, sur un algorithme, c'est à dire une suite d'étapes permettant d'obtenir un résultat à partir d'éléments d'entrée, appelés "données" suivant la définition de la CNIL. Dans un premier temps, lorsqu'un système d'intelligence artificielle est entraîné, dans un environnement de test, son objectif est de déterminer un scénario attendu ("modèle")" sur la base d'une interprétation de données d'apprentissage, c'est-à-dire accompagnées d'informations descriptives ("métadonnées"). Ces données d'apprentissage doivent être généralement fictives. Dans un second temps, lorsque le système est mature, c'est à dire qu'il présente un taux d'erreur suffisamment faible à la suite de son apprentissage, il analysera cette fois des données de production, c'est-à-dire non etiquetées. C'est ce qu'on appelle l'environnement de production. A l'inverse de la phase d'apprentissage, l'analyse du système d'intelligence artificielle porte non plus sur des données fictives, mais bien réelles, avec toutes les conséquences que cela peut induire sur les personnes concernées...
Selon la définition proposée par wikipédia, le "biais cognitif est une déviation dans le traitement cognitif d'une information : ces biais conduisent à accorder une importance différente à des faits de même nature tout en étant convaincus que la considération est impartiale et cohérente. A titre d'exemple, lorsqu'un individu est attiré par des détails qui confirment ses propres croyances, il peut avoir tendance à éviter de s'exposer à des informations qu'il craint et qui peuvent causer un inconfort psychologique (effet de l'autruche) ou encore à ignorer ou discréditer les informations qui contredisent ses croyances (biais de confirmation), comme le révèle le code "Your Bias Is" développé par John Manoogian III. Ce dernier répertorie en outre près de 188 biais... La problématique réside dans le fait que ces biais cognitifs sont susceptibles d'être répercutés dans les programmes informatiques développés pour déterminer les instructions données à un système d'intelligence artificielle, soit dans la sélection des données d'apprentissage, soit encore dans le paramétrage de l'algorithme servant au fonctionnement du système d'intelligence artificielle. Or, le risque réside dans le fait qu'une instruction biaisée aboutisse nécessairement à un résultat biaisé...
A titre d'exemple, Amazon a utilisé un système d'intelligence artificielle lors des processus de recrutement en 2014 : l'instruction, cest-à-dire le modèle de ce système, visait à analyser les CV reçus pendant les dix années précédentes pour sélectionner les profils les plus pertinents. Cependant, puisque les données d'apprentissage étaient essentiellement extraites de CV masculins, le résultat attendu du système intelligence artificielle a nécessairement conduit à privilégier le recrutements d'hommes. Cet exemple illustre le fait qu'un individu peut être attiré par les détails qui confirment ses propres croyances existantes, à savoir que les hommes sont plus performants que les femmes, et interpréter une information avec un biais de confirmation, ce qui peut le conduire à privilégier le recruteent d'un certain type de profil, en l'absence même de données de comparaison... Plus récemment, comme le rapporte Le Temps, la police américaine a eu recours a un système d'intelligence artificielle dont l'algorithme avait pour instruction, pour des mêmes faits, de privilégier le ciblage d'une personne issue d'une certaine ethnie, là encore suite à un même mécanisme de biais, ce qui a pu conduire au placement en garde-à-vue d'une jeune femme enceinte sans lien apparent avec l'infraction, après enquête, donc supervision humaine... En 2017, soucieuse déjà de ces menaces pouvant résulter d'une prise de décision entièrement automatisée fondée sur des mécanismes de biais, la CNIL publiait un rapport intitulé "Comment permettre à l'homme de garder la main ?", visant à traiter des enjeux éthiques des algorithmes et des systèmes d'intelligence artificielle, ce que la loi européenne sur l'intelligence artificielle, aussi connue sous le nom d'"AIAct", ne manquera pas de rappeler presque six ans plus tard...