Difficile aujourd’hui d’ouvrir son ordinateur sans croiser, de près ou de loin, une IA prête à nous assister. En quelques mois seulement, ces outils se sont glissés dans nos routines professionnelles comme s’ils y avaient toujours été : suggestion de texte, résumé automatique, analyse de données, génération d’images… L’IA n’est plus un “plus”, c’est devenu l’arrière-plan permanent de nos journées de travail. Dans son sixième Baromètre de la formation et de l’emploi, l’association Centre Inffo, sous tutelle du ministère du travail, estimait ainsi que 53% des actifs utilisaient l’IA dans leur vie professionnelle. 

Mais derrière cette promesse d’efficacité infinie, une question plane : que se passe-t-il réellement dans nos têtes - et dans nos entreprises - quand une machine commence à partager nos tâches ? Comme le souligne Nina Franiatte, docteure en psychologie cognitive, dans une vidéo réalisée avec Onepoint, cette nouvelle cohabitation n’est pas sans zones grises. Car si l’IA nous libère du temps, elle modifie aussi subtilement la façon dont nous pensons, apprenons… et prenons des décisions.

Du biais cognitif au biais algorithmique

L’un des problèmes majeurs réside dans ce qu’on appelle les biais cognitifs. Des “raccourcis de pensée” que nous expérimentons tous au quotidien au moment d’émettre un jugement ou de prendre une décision… et qui se traduisent, dans l’univers des nouvelles technologies, par des “biais algorithmiques.” 

Nina Franiatte donne l’exemple, en 2016, d’une IA créée par Amazon pour sélectionner des CVs et ainsi faciliter le recrutement de futurs salariés. Problème : la sélection faite par l’IA était “discriminante pour les femmes”. Comment est-ce possible ? L’IA est ici alimentée par les données de recruteurs, eux-mêmes soumis à des biais. Et elle les reproduit…

Comment l’IA reflète nos préjugés

Plus récemment, un cas a fait la Une des médias anglophones. En 2024, Workday, une entreprise américaine d’outils RH a été jugée pour des pratiques discriminatoires via son logiciel de recrutement alimenté par l’IA. Un plaignant affirmait que sa candidature avait été rejetée plus de 100 fois en raison de son âge et de ses origines notamment. 

Ce type de biais s’est retrouvé dans de nombreuses études sur les IA, avec des conséquences donc, importantes : les biais cognitifs pouvaient influencer l’accès à un prêt bancaire, à un emploi, et même pire, favoriser la discrimination pénale, certaines villes américaines ayant testé des systèmes d’IA pour prédire les crimes, qui ont révélé des biais racistes.

Comment limiter ces biais algorithmiques ?

Tout cela résulte de la façon dont nous entraînons les IA, et des biais contenus dans les bases de données sur lesquelles elles s’appuient. Nina Franiatte, docteur en psychologie cognitive chez Onepoint recommande de fait de “travailler sur les données pour éviter certains biais”, en n’hésitant pas à demander à l’IA explicitement de ne pas prendre en compte des critères comme le genre ou la nationalité. 

“En pratique, explique-t-elle, on peut limiter certains biais spécifiques. Il y a des méthodes qui sont mises en place, comme le fait de mixer ses équipes pour avoir la décision la moins biaisée possible, ou de confronter ses résultats à d’autres points de vue.

Elle conclut en rappelant que tous les biais ne sont heureusement pas négatifs en soi… A condition de bien les comprendre et les anticiper. Tel sera le rôle des organisations, pour mieux agir et limiter autant que possible les biais.