L'intelligence artificielle (IA) est déjà largement intégrée au sein des départements RH de nombreuses entreprises. Une étude récente auprès de plus de 250 responsables RH aux États-Unis a révélé que 73 % d'entre eux utilisaient l'IA dans le cadre du recrutement (étude en anglais). 

Les outils d'IA peuvent aujourd'hui être utilisés pour accélérer l'étude de CV, évaluer la pertinence des candidatures, réaliser le sourcing de talents pour des postes à pourvoir, rédiger des descriptions de poste, identifier des opportunités de promotion et envoyer des messages automatisés aux talents. 

« Quelle que soit la tâche à réaliser, un outil d'IA peut être développé instantanément pour s'en charger », explique Trey Causey, responsable de l'éthique en matière d'IA et directeur sénior de la science des données chez Indeed. 

Ces outils présentent néanmoins un niveau de complexité variable et leurs développeurs n'ont pas nécessairement envisagé tous les risques liés à l'utilisation de l'IA. Les entreprises doivent donc connaître ces risques et mettre en place des stratégies pour en garantir une utilisation responsable. 

L'IA peut réduire le biais humain, notamment dans le cadre du recrutement, et générer de meilleures opportunités pour les travailleurs tout en rationalisant les tâches routinières, ce qui permet aux RH de se concentrer sur les aspects humains de leur travail. Cependant, l'IA peut aussi perpétuer, voire amplifier des biais inhérents, et ainsi mener à des pertes de temps et d'argent. 

Nous vous présentons une démarche en quatre étapes pour identifier les risques de l'IA et en garantir une utilisation juste, éthique et efficace.

 

1. Évaluer les risques et les avantages pour votre entreprise

Commencez par déterminer si les outils d'IA sont adaptés aux processus RH de votre entreprise. Les systèmes d'IA peuvent par exemple vous aider à identifier un plus grand nombre de candidatures et à évaluer leur pertinence. 

Jey Kumarasamy, partenaire chez Luminos.Law (une entreprise juridique très portée sur l'IA), explique : « Ces systèmes n'étant pas parfaits, les erreurs peuvent également se multiplier. Même avec un niveau de précision de 90 %, ce qui est plutôt généreux, le traitement de milliers de candidatures générera automatiquement un nombre plus ou moins élevé d'évaluations incorrectes. » 

Pour évaluer les outils de RH basés sur l'IA, il est d'abord nécessaire de comprendre qu'ils sont par nature imparfaits. Trey Causey indique : « Parce que les biais sont inévitables, les entreprises doivent réfléchir à la manière dont elles vont les combattre, ou accepter qu'ils constituent un risque ». 

Si certaines entreprises acceptent ce risque en raison du gain de productivité acquis, d'autres peuvent estimer que la marge d'erreur potentielle enfreint leurs valeurs ou génère trop de complexité face à l'intensification des pressions en matière de conformité réglementaire. 

Si vous décidez d'opter pour l'IA, choisissez vos outils avec prudence. Ceux qui permettent de réaliser des transcriptions d'entretiens, par exemple, présentent un risque relativement faible (bien que leurs performances puissent être limitées avec des personnes qui parlent une langue autre que leur langue maternelle). À l'inverse, les outils qui évaluent les talents sur la base de leurs performances lors d'entretiens vidéo « posent probablement le plus de problèmes, car ils présentent de nombreux risques et d'erreurs potentielles », d'après Jey Kumarasamy.

En fin de compte, l'IA doit compléter et optimiser les processus humains, et non les remplacer. Avant d'adopter des outils d'IA, veillez à ce que votre équipe RH soit suffisamment nombreuse pour que chaque étape des processus automatisés par l'IA puisse être vérifiée. Les tâches RH critiques doivent rester manuelles, par exemple la prise de décision finale, les promotions et l'assistance aux collaborateurs. Dans le meilleur des cas, le fait de confier les tâches de routine à l'IA donnera aux professionnel·les RH davantage de temps et de flexibilité pour remplir ces missions.

2. Présélectionner des fournisseurs tiers d'outils basés sur l'IA

Une fois que vous avez déterminé les outils d'IA adaptés à votre entreprise, vous pouvez vous rapprocher de potentiels fournisseurs en étudiant les questions spécifiques suivantes : 

  • Comment auditent-ils leur système ? Quand a-t-il été testé pour la dernière fois, et quels indicateurs ont été utilisés pour cela ?
  • Le test a-t-il été effectué en interne ou par un intervenant extérieur ?
  • Comment le biais est-il réduit ? S'il est indiqué que le biais du système est minimal, qu'est-ce que cela signifie et comment cet aspect est-il mesuré ? 
  • Existe-t-il des indicateurs de test que vous pouvez examiner en tant que client potentiel ?
  • En cas de dégradation des performances du modèle, les fournisseurs proposent-ils des services post-déploiement pour permettre à vos effectifs d'apprendre à configurer et à maintenir le système ?
  • Se conforment-ils aux réglementations actuelles et émergentes ? « J'ai discuté avec un fournisseur l'année dernière et je lui ai demandé s'il se conformait à une réglementation spécifique. Il m'a indiqué qu'il n'en avait jamais entendu parler », explique Trey Causey. Il s'agissait non seulement d'un signal d'alarme, mais « cela avait aussi un impact clair et direct sur son produit ». 
  • Se conformeront-ils aux audits en matière d'IA que vous mènerez ? « Lorsque vous réalisez un audit en matière d'IA, il est probable que vous ayez besoin d'un fournisseur pour vous aider, et il est souvent peu réjouissant de découvrir que celui-ci ne souhaite pas coopérer ni vous fournir de documentation ou de résultats », explique Jey Kumarasamy.

3. Identifier et surveiller le biais

Les algorithmes d'IA sont aussi biaisés que les données utilisées pour les entraîner. Si les employeurs n'ont pas d'influence sur le développement de ces algorithmes, il existe des manières de tester les outils avant de les mettre en œuvre. Par exemple, la législation de la ville de New York impose désormais aux employeurs de réaliser des audits tiers sur les biais de l'IA et d'en publier les résultats avant de pouvoir utiliser cette technologie dans le cadre du recrutement.Les entreprises peuvent également avoir recours à un processus appelé « analyse contrefactuelle » pour savoir comment un modèle d'IA réagit à différentes données. Par exemple, si l'IA évalue des CV pour des candidatures, essayez de modifier le nom de la personne ou de l'établissement scolaire fréquenté, puis observez si l'algorithme évalue la candidature différemment. 

Trey Causey explique : « C'est un procédé qui existe depuis les années 1950 : des sociologues envoient des CV à des employeurs en modifiant une donnée pour voir si le retour est différent. Il est aussi possible de le faire avec l'IA et ainsi d'acquérir de nombreuses connaissances scientifiques et sociales sur la manière dont nous pouvons évaluer le biais dans les modèles d'IA ».

Lorsque vous implémentez des systèmes d'IA, surveillez-les en permanence afin d'identifier et de corriger tous les schémas discriminatoires qui émergent, et suivez de près les recherches de développement sur la science des données et l'IA. « Lorsque des humains prennent des décisions, il est difficile de savoir si celles-ci sont biaisées », explique Trey Causey. « Vous ne pouvez pas entrer dans l'esprit d'une personne pour savoir pourquoi elle a choisi un talent plutôt qu'un autre, alors qu'il est possible de le faire avec un modèle. »

Il n'existe aucun ensemble de tests de base qui permet d'évaluer le biais au sein des outils RH. Les employeurs doivent au minimum comprendre comment l'IA est utilisée au sein de l'entreprise, ce qui peut inclure la tenue d'un inventaire de tous les modèles d'IA exploités. Les entreprises doivent donc documenter le nom du fournisseur et le cas d'utilisation de chaque outil. 

Dans le scénario le plus favorable, les audits font intervenir différents départements, notamment les équipes juridiques internes, les data scientists ainsi que les équipes de conseil externes et les auditeurs tiers. Des outils sont également disponibles publiquement pour aider les entreprises à auditer leurs propres outils d'IA : par exemple, le National Institute of Standards and Technology (NIST) a mis en place un protocole de gestion des risques en quatre parties (gouverner, mettre en correspondance, mesurer et gérer). 

4. Garder une longueur d'avance sur les législations qui évoluent

Les risques liés aux outils RH ne concernent pas uniquement la réputation ou les finances des entreprises : ils sont aussi juridiques. La législation évolue rapidement pour répondre à l'essor de l'IA sur le lieu de travail. 

Au sein de l'Union européenne, la proposition de loi sur l'IA a pour but d'attribuer des niveaux de risque aux applications basées sur l'IA en fonction de leur caractère potentiellement dangereux ou discriminatoire, puis de les réguler sur la base de leur évaluation. Par exemple, la proposition actuelle définit les applications basées sur l'IA qui analysent les CV comme étant « à haut risque » et leur impose des exigences de conformité strictes.

Aux États-Unis, plus de 30 aspects juridiques au niveau étatique sont en attente d'application concernant l'utilisation de l'IA dans le secteur privé, notamment dans la prise de décisions relatives à l'emploi. En juillet 2023, la loi Automated Employment Decision Tool (AEDT) de la ville de New York est entrée en vigueur : elle impose aux employeurs d'indiquer s'ils utilisent l'IA dans le cadre du processus de recrutement et de réaliser des audits annuels pour montrer que leurs systèmes ne présentent pas de biais sur la base du genre ou de l'origine ethnique. Les chercheurs d'emploi qui postulent à des offres au sein d'entreprises basées à New York peuvent également demander des informations sur la manière dont l'IA analyse leurs données.En outre, de nombreuses lois existantes, notamment des lois anti-discrimination ainsi que le Titre VII du Civil Rights Act de 1964, s'appliquent aux décisions prises par l'IA en matière d'emploi. Jey Kumarasamy explique : « On pense à tort que si une loi ne parle pas directement des systèmes d'IA, elle ne s'y applique pas. C'est faux, notamment en ce qui concerne l'emploi ». Que la décision de recrutement soit prise par un humain ou une IA, l'entreprise est responsable de tout biais dont elle fait preuve.

Bien que les audits constituent un bon point de départ, la meilleure manière de se préparer aux réglementations émergentes et de garantir le fonctionnement efficace et équitable de votre système d'IA est de mettre en place un programme de gouvernance de l'IA à plus grande échelle. 

Les systèmes de gouvernance documentent les principes de l'entreprise en matière d'IA et créent des processus qui permettent d'évaluer les outils, de détecter les problèmes et de les résoudre en continu. Par exemple, Indeed a développé et publié ses propres principes concernant l'utilisation éthique et bénéfique de l'IA. L'entreprise a également constitué une équipe interfonctionnelle chargée de l'éthique en matière d'IA dont la mission est de créer des outils, des systèmes et des processus pour garantir l'utilisation responsable de cette technologie. 

Même avec de telles mesures de sécurité, les outils d'IA nouvelle génération sont complexes et faillibles. 

En s'efforçant de les utiliser de manière responsable, il est néanmoins possible de concevoir de meilleurs processus. L'IA peut aider les humains à être plus efficaces et moins biaisés si elle fait l'objet d'une supervision de leur part, par exemple pour déterminer les paramètres qu'un algorithme doit utiliser concernant les qualifications pour un poste. L'évaluation des talents s'en trouve ainsi grandement améliorée. 

Trey Causey conclut avec la question suivante : « Quelle est la manière la plus pertinente d'évaluer les qualifications pour un poste ? » Le recrutement sera peut-être plus juste s'il repose sur des qualifications plutôt que sur des noms d'établissements scolaires ou d'entreprises. Ce paramètre est sans doute plus facilement maîtrisable par l'IA que par les humains. D'après Trey Causey « Le potentiel d'optimisation est donc bien réel, ce qui profite aux chercheurs d'emploi. »