Maddyness

L’IA doit encore faire ses preuves pour se faire une place dans le marché du travail

Comments
Partager :
Up
Partie précédente
1 —
Partie suivante
Down
Maddyness
Up
Menu
Partie 1
Down
Technologies

L’IA doit encore faire ses preuves pour se faire une place dans le marché du travail

Pepper Pepper Pepper
3154 - piping hot  |  
Comments
Par Anne Taffin - 10 novembre 2020 / 08H00

Réussir à transformer les RH en recruteurs augmentés, voici les atouts souvent prêtés à l’intelligence artificielle. Entre mythe et réalité, quatre experts expliquent les atouts et les points faibles de la technologie dans le marché du recrutement.

Des chatbots à l’utilisation des robots pour prédire la réussite d’un candidat au poste de commercial, il n’y a apparement qu’un pas que certaines startups et entreprises seraient prêtes à franchir pour optimiser leurs recrutements. Si la technologie possède des avantages certains et une capacité d’analyse que l’humain ne peut pas concurrencer, l’IA est-elle un outil utilisable aujourd’hui pour trouver des perles rares ? À l’occasion d’un débat sur le sujet organisé par la Cnil ce 9 novembre, Sarah Kerel, Laurence Devillers (professeur en intelligence artificielle au LIMSI-CNRS), Stéphanie Lecerf (DRH France de PageGroup), Michael Cottura (responsable IA à pôle emploi) et Henri Isaac (Président du think tank Renaissance numérique) estiment tous qu’un important travail reste encore à faire avant de pouvoir associer efficacement technologie et humain dans les processus de recrutement.  

Combattre les biais de l’intelligence artificielle  

Interpellée sur le rôle de l’intelligence artificielle dans le processus de recrutement, Laurence Devillers s’est montrée catégorique : ses faiblesses limitent son usage. « On parle beaucoup d’intelligence artificielle mais il y a encore beaucoup de recherches à faire pour connaitre ses limites et pouvoir l’utiliser à bon escient, et pourtant je suis pro technologie » . Au-delà de la simple analyse de CV par mots-clés, les modèles en cours d’élaboration tendent à analyser les émotions et les expressions des candidat·e·s. « Ces outils sont peu fiables » et ne prennent pas assez de mesures et de spécificités en considération, comme les personnes enrouées ou qui possèdent un cheveux sur la langue.

Pour Stéphanie Lecerf, le problème des algorithmes vient d’abord de leurs créateurs. « Ceux-ci sont développés par des ingénieurs et des développeurs qui ont globalement tous le même profil. On note un manque de diversité, en termes de genre mais aussi d’origine géographique dans ce secteur » , avoue t-elle. Or, il reste encore bien compliqué de remarquer ses propres biais, surtout lorsqu’ils font partie de notre matrice depuis notre enfance.

L’autre point faible signalé par la DRH de PageGroup et Henri Isaac reste la qualité des données utilisées pour entraîner ces algorithmes. « Nous avons peu de visibilité sur le traitement algorithmique en matière de soft skills. Or, l’objectif actuel est de recruter sur des métiers en transformation, pas sur des compétences passées » , rappelle Stéphanie Lecerf. Et malgré l’importante quantité de données possédées par les entreprises sur leurs salarié·e·s, « celles-ci ne sont pas toujours de bonne qualité, elles le sont rarement même. Les employé·e·s qui restent ne sont pas forcément les meilleur·e·s et les licenciements ne reflètent pas toujours la réalité d’une situation » , renchérit Henri Isaac. C’est pourquoi il est important de travailler les informations utilisées pour construire les solutions de recrutement semi-automatisées. 

Surveiller les algorithmes 

Avant de faire entrer l’intelligence dans le marché de l’emploi et lui donner le pouvoir d’établir des bons et des mauvais points entre les candidat·e·s, il faut d’abord les auditer. « On ne devrait pas utiliser des outils d’apprentis sorciers tant que n’aurons pas une évaluation assez claire des choses » , conclut-elle.

A lire aussi

Afin de vérifier quels sont leurs biais et ainsi pouvoir les retravailler et tenter de les effacer, « il faut tester les algorithmes eux-mêmes. Ce travail doit être imaginé sur le long terme et de manière régulière et en collaboration avec des sociologues et des responsables des ressources humaines » , poursuit Stéphanie Lecerf. Dans le cas contraire, on risque de retrouver dans les solutions d’intelligence artificielles les travers reprochés aux humains.

« À la différence que l’IA possède un facteur de démultiplication des biais important. Le risque est alors que ces biais s’imposent puis se généralisent dans les sociétés et finissent par se standardiser à l’échelle nationale » , alerte Henry Isaac.

L’humain, chef d’orchestre du recrutement

« Dans sa relation avec les demandeurs d’emploi, le conseiller utilise ses connaissances, sa capacité d’analyse mais aussi ses émotions et sa capacité d’adaptation » , détaille Michaël Cottura. Cet aspect humain est plébiscité par les candidat·e·s qui passent dans les bureaux de Pôle Emploi. « Ils sont prêts à utiliser l’IA à condition de pouvoir rester en contact avec un conseiller en chair et en os ».

On parle souvent de la technologie et encore plus encore de l’intelligence artificielle comme un soutien, une aide à un être humain limité dans sa capacité à calculer ou analyser une grande quantité d’informations par exemple. Et c’est vrai, nos possibilités sont parfois réduites comparées à la puissance de calcul ou de lecture d’une machine. Pourtant, cet humain imparfait « doit être le garde fou de cette technologie » , souligne Stéphanie Lecerf.

Pour réussir à concilier le meilleur des deux mondes, l’humain et la technologie, il faut apporter plus de transparence sur l’IA et les algorithmes. « Les responsables des ressources humaines ne se considèrent pas comme des data scientists » , reconnaît Stéphanie Lecerf. Ce monde est parfois bien obscur pour les néophytes. Pourtant, la transparence sur les données prises en considération par les machines qui sélectionnent les candidats est essentiel. C’est cette connaissance qui permettra ensuite aux recruteurs d’orchestrer et d’arbitrer les informations mises en avant par l’intelligence artificielle. Car c’est bien à lui et non à un robot de rester maître des choix finaux à effectuer pour embaucher tel·le ou tel·le candidat·e pour un poste.

Par

Anne Taffin

10 novembre 2020 / 08H00
mis à jour le 12 novembre 2020
Articles les plus lus du moment

Les indépendants craignent le pire avec la fin du fonds de solidarité

Entrepreneurs
Par Maddyness avec AFP - 18H01vendredi 04 décembre 2020
Next

Les 21 femmes les plus influentes de la Tech en France

Entrepreneurs
Par Heloïse Pons - 09H00jeudi 03 décembre 2020
Next

À La Courneuve, un incubateur veut faire passer le périph' aux VC

Business
Par Arthur Le Denn - 17H15mercredi 02 décembre 2020
Next

Miser sur l’investissement corporate : les clés pour bien réussir

Finance
Par Maddyness, avec EDF - 07H00mardi 01 décembre 2020
Next

Quand EDF rencontre PowerUp : le binôme qui fait mouche

Finance
Par Maddyness, avec EDF - 07H00mardi 01 décembre 2020
Next
Business
Menu
Entrepreneurs
Menu
Finance
Menu
Innovation
Menu
Technologies
Menu
MaddyShop
MaddyShop
Agenda
Agenda
MaddyEvent
MaddyEvent
MaddyJobs
MaddyJobs
MaddyStudio
MaddyStudio
Search
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Articles les plus consultés
Les guides
Entreprises Structures d’accompagnement MaddyBasics
Maddyplay
Newsletter
À propos
Mentions Légales
Search
Nos services
Les catégories
Maddynews
Hmm... Il y a visiblement eu un soucis :(
Maddyness

Comme vous le savez, Maddyness est à la pointe de l'innovation.
Malheureusement il semble que votre navigateur ne le soit pas encore...

Pour une bonne expérience de navigation
(et être au top de la modernité) pensez à passer sur :
Chrome
Chrome
Safari
Safari
Firefox
Firefox
Edge
Edge