L’IA doit encore faire ses preuves pour se faire une place dans le marché du travail

Réussir à transformer les RH en recruteurs augmentés, voici les atouts souvent prêtés à l’intelligence artificielle. Entre mythe et réalité, quatre experts expliquent les atouts et les points faibles de la technologie dans le marché du recrutement.

Des chatbots à l’utilisation des robots pour prédire la réussite d’un candidat au poste de commercial, il n’y a apparement qu’un pas que certaines startups et entreprises seraient prêtes à franchir pour optimiser leurs recrutements. Si la technologie possède des avantages certains et une capacité d’analyse que l’humain ne peut pas concurrencer, l’IA est-elle un outil utilisable aujourd’hui pour trouver des perles rares ? À l’occasion d’un débat sur le sujet organisé par la Cnil ce 9 novembre, Sarah Kerel, Laurence Devillers (professeur en intelligence artificielle au LIMSI-CNRS), Stéphanie Lecerf (DRH France de PageGroup), Michael Cottura (responsable IA à pôle emploi) et Henri Isaac (Président du think tank Renaissance numérique) estiment tous qu’un important travail reste encore à faire avant de pouvoir associer efficacement technologie et humain dans les processus de recrutement.  

Combattre les biais de l’intelligence artificielle  

Interpellée sur le rôle de l’intelligence artificielle dans le processus de recrutement, Laurence Devillers s’est montrée catégorique : ses faiblesses limitent son usage. « On parle beaucoup d’intelligence artificielle mais il y a encore beaucoup de recherches à faire pour connaitre ses limites et pouvoir l’utiliser à bon escient, et pourtant je suis pro technologie » . Au-delà de la simple analyse de CV par mots-clés, les modèles en cours d’élaboration tendent à analyser les émotions et les expressions des candidat·e·s. « Ces outils sont peu fiables » et ne prennent pas assez de mesures et de spécificités en considération, comme les personnes enrouées ou qui possèdent un cheveux sur la langue.

Pour Stéphanie Lecerf, le problème des algorithmes vient d’abord de leurs créateurs. « Ceux-ci sont développés par des ingénieurs et des développeurs qui ont globalement tous le même profil. On note un manque de diversité, en termes de genre mais aussi d’origine géographique dans ce secteur » , avoue t-elle. Or, il reste encore bien compliqué de remarquer ses propres biais, surtout lorsqu’ils font partie de notre matrice depuis notre enfance.

L’autre point faible signalé par la DRH de PageGroup et Henri Isaac reste la qualité des données utilisées pour entraîner ces algorithmes. « Nous avons peu de visibilité sur le traitement algorithmique en matière de soft skills. Or, l’objectif actuel est de recruter sur des métiers en transformation, pas sur des compétences passées » , rappelle Stéphanie Lecerf. Et malgré l’importante quantité de données possédées par les entreprises sur leurs salarié·e·s, « celles-ci ne sont pas toujours de bonne qualité, elles le sont rarement même. Les employé·e·s qui restent ne sont pas forcément les meilleur·e·s et les licenciements ne reflètent pas toujours la réalité d’une situation » , renchérit Henri Isaac. C’est pourquoi il est important de travailler les informations utilisées pour construire les solutions de recrutement semi-automatisées. 

Surveiller les algorithmes 

Avant de faire entrer l’intelligence dans le marché de l’emploi et lui donner le pouvoir d’établir des bons et des mauvais points entre les candidat·e·s, il faut d’abord les auditer. « On ne devrait pas utiliser des outils d’apprentis sorciers tant que n’aurons pas une évaluation assez claire des choses » , conclut-elle.

Afin de vérifier quels sont leurs biais et ainsi pouvoir les retravailler et tenter de les effacer, « il faut tester les algorithmes eux-mêmes. Ce travail doit être imaginé sur le long terme et de manière régulière et en collaboration avec des sociologues et des responsables des ressources humaines » , poursuit Stéphanie Lecerf. Dans le cas contraire, on risque de retrouver dans les solutions d’intelligence artificielles les travers reprochés aux humains.

« À la différence que l’IA possède un facteur de démultiplication des biais important. Le risque est alors que ces biais s’imposent puis se généralisent dans les sociétés et finissent par se standardiser à l’échelle nationale » , alerte Henry Isaac.

L’humain, chef d’orchestre du recrutement

« Dans sa relation avec les demandeurs d’emploi, le conseiller utilise ses connaissances, sa capacité d’analyse mais aussi ses émotions et sa capacité d’adaptation » , détaille Michaël Cottura. Cet aspect humain est plébiscité par les candidat·e·s qui passent dans les bureaux de Pôle Emploi. « Ils sont prêts à utiliser l’IA à condition de pouvoir rester en contact avec un conseiller en chair et en os ».

On parle souvent de la technologie et encore plus encore de l’intelligence artificielle comme un soutien, une aide à un être humain limité dans sa capacité à calculer ou analyser une grande quantité d’informations par exemple. Et c’est vrai, nos possibilités sont parfois réduites comparées à la puissance de calcul ou de lecture d’une machine. Pourtant, cet humain imparfait « doit être le garde fou de cette technologie » , souligne Stéphanie Lecerf.

Pour réussir à concilier le meilleur des deux mondes, l’humain et la technologie, il faut apporter plus de transparence sur l’IA et les algorithmes. « Les responsables des ressources humaines ne se considèrent pas comme des data scientists » , reconnaît Stéphanie Lecerf. Ce monde est parfois bien obscur pour les néophytes. Pourtant, la transparence sur les données prises en considération par les machines qui sélectionnent les candidats est essentiel. C’est cette connaissance qui permettra ensuite aux recruteurs d’orchestrer et d’arbitrer les informations mises en avant par l’intelligence artificielle. Car c’est bien à lui et non à un robot de rester maître des choix finaux à effectuer pour embaucher tel·le ou tel·le candidat·e pour un poste.