L’intelligence artificielle, votre nouvelle RH ?

Cet article a été rédigé par Léa Balounaik, Léna Cuq, Clara Lejeune, Ryan Ancel

« Il est probable qu’une fois les machines capables de penser, elles surpasseront rapidement nos capacités… Capables de communiquer entre elles, elles pourraient prendre le contrôle à un moment donné » nous confiait déjà Alan Turing au XX° siècle. Ces dernières années, l’Intelligence Artificielle a atteint un niveau de développement sans précédent : elle est capable d’apprendre, d’étudier et d’utiliser les données recueillies pour devenir le juge de l’Homme. Alors, qu’en est-il de son rôle dans le recrutement ? Comment cela impacte-t-il les candidats ?

Vos données sont-elles vraiment protégées ?

Aujourd’hui, l’intelligence artificielle est souvent utilisée lors des sessions de recrutement afin d’optimiser et faciliter le travail des ressources humaines. Le terme d’Intelligence artificielle couvre l’ensemble des théories et techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine. Dans le domaine du recrutement, son utilisation est croissante et peut être appliquée de trois manières différentes. Il existe tout d’abord le “recrutement augmenté” qui consiste à faire correspondre un profil à un poste précis ; qu’il s’agisse d’une personne occupant déjà le poste ou travaillant à un poste similaire. Ensuite, on retrouve le “recrutement prédictif” qui permet de prévoir le succès d’une embauche en se basant sur les performances du candidat. Cela repose sur deux piliers : les performances des collaborateurs qui occupent le poste convoité et les données RH des collaborateurs en poste. Finalement, on peut passer par le “recrutement de personnalité” qui se base sur des “soft skill”. Ce sont des compétences comportementales qui privilégient le savoir-être, comme par exemple la créativité ou la capacité de prise de décision. C’est une solution qui permet de mesurer si la personnalité du futur talent est en concordance avec le poste. Comme nous pouvons nous en douter, afin d’être efficaces, ces différents types d’application de l’IA nécessitent de se reposer sur des données, et lorsqu’on parle de recrutement, nous parlons donc des données des candidats. Ces données sont donc récupérées lors des étapes dites de “sourcing”. Mais que deviennent-elles par la suite ? Sont-elles vraiment protégées ?

Depuis son utilisation, en particulier en matière de recrutement, l’Intelligence Artificielle a recueilli un grand nombre de données biographiques, personnelles et professionnelles d’un grand nombre de candidats. Malgré l’avancement technologique qui en découle, elle présente également de nouveaux risques en matière de sécurité, particulièrement en termes de sécurité numérique et de protection des données personnelles. Les bases de données avec ce genre d’informations peuvent être des cibles attrayantes pour les cyberattaques telles que le « phishing ». L’utilisation de l’IA pourrait multiplier ces attaques à grande échelle, en les rendant mieux ciblées et plus convaincantes. De plus, certaines technologies utilisées dans le recrutement par l’Intelligence Artificielle, comme les chatbots, pourraient faire l’objet de détournements. En effet, des hackers sont en mesure d’utiliser les failles de ces systèmes et conduire à des usages malveillants comme l’usurpation d’identité.

Ce n’est qu’en 2018 qu’une réglementation générale sur la protection des données a été mise en place, afin d’exiger aux entreprises de montrer qu’elles sont en capacité de protéger toutes les données collectées. Mais l’utilisation de l’Intelligence Artificielle étant en pleine croissance, le volume de données collectées ne cesse de grandir, ce qui engendre une difficulté supplémentaire. On se rend compte que malgré l’avantage de l’utilisation de l’IA dans le recrutement pour les entreprises, cette dernière représente un risque majeur pour les données des candidats.

Et l’égalité dans l’analyse des CV ?

L’égalité dans l’analyse des CV par l’IA est une préoccupation majeure de nos jours. Lorsque des technologies telles que celles développées par HrFlow.Ai sont utilisées pour évaluer les CV, comment éviter les risques de discrimination ?

Ces technologies utilisent des algorithmes pour analyser les mots clés et les compétences des CV afin de classer les candidats. Cependant, il existe un risque que ces processus introduisent des biais involontaires. Par exemple, si certaines compétences ou expériences sont pondérées de manière disproportionnée, cela pourrait favoriser certains groupes de candidats au détriment d’autres. Alors comment les recruteurs peuvent-ils être sûrs que les candidats sélectionnés répondront forcément à leurs attentes ?

Il existe plusieurs processus qui permettent aux recruteurs de sélectionner le ou les bons candidats. Le processus de scoring, qui s’applique aux CV des candidats, consiste à attribuer une notation aux CV en fonction de critères de recherche. Plus précisément, cette méthode permet de comparer les caractéristiques d’un CV à celles d’une offre d’emploi à l’aide d’un algorithme d’analyse de CV. Ensuite, un pourcentage de compatibilité des deux est obtenu. Le processus de matching permet la présélection des candidatures en tenant compte d’un certain nombre de critères prédéfinis. Le predictive hiring, ou recrutement prédictif, vise quant à lui à prédire le succès d’un candidat sur un poste. Cependant, ces processus doivent être surveillés pour éviter de discriminer les candidats en fonction de leur origine, de leur sexe, de leur âge ou d’autres caractéristiques protégées. Par exemple, des algorithmes mal conçus pourraient favoriser les hommes plutôt que les femmes pour certains postes, simplement en raison de la manière dont les compétences ou les expériences sont pondérées.

Cette utilisation de l’IA dans le recrutement peut être puissante et avantageuse pour les recruteurs, mais elle nécessite une surveillance constante pour garantir l’égalité des chances pour tous les candidats.

Entre déshumanisation et problèmes d’algorithmique, comment savoir si on est vraiment légitime ou non ?

Comme évoqué précédemment, l’Intelligence Artificielle induit l’automatisation des tâches pour les recruteurs de part une fusion de celle-ci avec l’humain. Cette automatisation facilite la programmation d’entretiens et de tests sans intervention humaine. Le but recherché est de trouver des profils de candidats qui correspondent parfaitement aux offres d’emploi, de manière efficace et plus rapide. Alors, ces avantages pour les responsables des ressources humaines deviennent-ils des inconvénients pour les candidats ?

Aujourd’hui, 62 % des candidats pensent que l’Intelligence Artificielle dans le recrutement présente un risque de déshumanisation ou de manque de personnalisation. Pour eux, il est impossible de savoir vraiment si une personne est légitime pour un poste. En effet, les candidats ont tendance à se sentir « exclus » lorsqu’ils interagissent avec des algorithmes plutôt qu’avec des recruteurs humains. Le fait d’être seul face à une caméra, sans pouvoir poser de questions, sans avoir la possibilité de recevoir des commentaires et de se sentir écoutés peut entraîner une perte de confiance dans le processus de recrutement et une perception négative de l’entreprise. Ce phénomène est d’autant plus observé avec la multiplication des chatbots.

L’Intelligence Artificielle permet de détecter les compétences ou encore les diplômes des candidats, mais pas leurs savoir-être. À la différence d’un algorithme, les recruteurs sont capables de percevoir chez une personne, sa personnalité et son potentiel ; ce qui, de nos jours, est encore essentiel au bon fonctionnement d’une organisation. Un candidat pourra se voir refuser un poste sans avoir rencontré un seul salarié de l’entreprise, et ceci pour des raisons non pas en lien avec ses compétences, mais plutôt avec le « format de lecture » de sa candidature. Pour éviter cette déshumanisation dans le recrutement, certaines entreprises parviennent à allier les algorithmes et l’homme dans leur processus. Par exemple, l’entreprise Randstad a développé le chatbot Randy pour « simuler une conversation en langage naturel » afin de détecter le potentiel des candidats susceptibles de convenir le mieux au poste proposé. Le robot va ainsi effectuer une présélection des candidats grâce à une série de questions qui donneront lieu à une note. Les personnes ayant reçu un score élevé seront ensuite re contactées par un responsable des ressources humaines de chez Randstad et la suite du processus de recrutement se poursuivra avec lui. Cet effort permet de fluidifier le traitement des candidatures tout en laissant l’espace aux professionnels du recrutement pour un traitement plus qualitatif des candidats. Cependant, tous les outils de recrutement utilisant l’Intelligence Artificielle ne sont pas encore paramétrés de cette manière et ne peuvent donc pas détecter le savoir-être des candidats.

À lire aussi : “Randy, le chatbot de Randstad qui présélectionne les candidats sans CV ni formulaire

D’un autre côté, l’Intelligence Artificielle soulève des préoccupations chez les candidats quant aux problèmes liés aux algorithmes. Ces algorithmes se fondent sur deux principes : l’intégration de nombreuses données variées qui changent en permanence ; et une analyse suivie d’un apprentissage des modèles transmis. Si ces données ne sont pas suffisantes ou non représentatives de la réalité / des résultats espérés, cela peut conduire à des conséquences inattendues ou à des résultats non désirés. Par exemple, l’algorithme peut reproduire des biais institutionnels ou historiques de l’entreprise, amplifiant les désavantages pour certains profils et pouvant conduire à de la discrimination, volontaire ou non, de certains candidats. Ces données d’entraînement biaisées amplifient donc certains préjugés, sans forcément que l’entreprise ne s’en aperçoive. Par ailleurs, la majorité des entreprises utilisant ces genres d’algorithmes n’ont pas les compétences en interne pour comprendre comment ils sont construits. Le fonctionnement du deep learning fait que l’algorithme est incapable de justifier ses choix. Il est donc difficile d’apporter des corrections en cas d’erreur ou de non-compréhension du choix de l’Intelligence Artificielle.

Finalement, de plus en plus de candidats pensent que les décisions prises par ces systèmes d’algorithmes ne sont pas toujours légitimes. Il est donc important de considérer l’Intelligence Artificielle comme un outil complémentaire dans le processus de recrutement tout en conservant un vrai contact humain afin d’éviter une standardisation des candidats.

La loi AI Act : Un accord entre recruteurs, IA et recrutés ?

En début d’année 2024, l’adoption de l’AI Act a marqué une étape significative dans la régulation des applications de l’intelligence artificielle. Selon Leptidigital, en 2024, environ 44% des entreprises déclarent vouloir intégrer l’IA dans leurs applications et leurs processus existants. Et 42% d’entre elles explorent déjà les avantages de l’IA.

Ainsi, l’AI Act, loi conçue pour encadrer les divers usages de l’IA, établit une classification en plusieurs niveaux de risque, distinguant les systèmes de notation sociale, les risques intermédiaires et les risques élevés. Parmi ces derniers, figurent les systèmes d’IA impliqués dans le recrutement et la gestion des salariés, considérés comme particulièrement risqués en raison de leur impact potentiel sur la carrière et la vie des individus concernés. Bien que ces outils ne soient pas explicitement interdits, la loi exige une transparence totale dans le processus de recrutement afin d’atténuer les risques associés. En fin de compte, la décision finale doit reposer sur l’humain. Toute dérogation à cette exigence expose l’entreprise à des amendes pouvant atteindre jusqu’à 4% de son chiffre d’affaires. Sous le nom de “Management Algorithmique”, ces outils représentent une part significative de l’arsenal technologique des entreprises, comme en témoigne un sondage réalisé par la banque Littler fin 2022. Ce sondage révèle que près de 28% des entreprises y ont eu recours. Certains exploitent la technologie du deep learning pour affiner le ciblage des candidats en ligne par le biais de plateformes telles qu’Albert ; utilisées par des entreprises comme Engie, Total et Monoprix pour filtrer leurs recrutements.

Finalement, même si nous n’avons pas assez de recul sur son efficacité, l’IA Act serait peut-être enfin la solution convenable pour satisfaire à la fois les ressources humaines et les candidats dans le processus de recrutement.