L’accélération du développement des intelligences artificielles a été fulgurante ces dernières années. Ses impacts sur les fonctions RH et le recrutement restent encore à découvrir. 

Pour vous accompagner, et vous aider à appréhender ces évolutions en 2024, nous vous proposons une série de 4 regards d’experts, partagés sur 4 semaines. Ces interviews thématiques vous permettront de mesurer l’impact qu’aura l’IA sur le recrutement et identifier quelques bonnes pratiques pour se prémunir des risques associés.

Il n’a jamais été aussi important de faire preuve de discernement et d’esprit critique : quelles seront les opportunités et dangers apportés par l’utilisation de l’IA dans le recrutement ? Quels choix opérer, tout en restant vigilant ?   

Nous interrogeons le sujet sous des angles sociétaux, opérationnels et sociologiques, à la croisée des regards de 4 experts venus d'horizons variés. L’objectif ?  Vous permettre de rendre vos stratégies et politiques de recrutement plus intelligentes, avec ou sans l’IA ! 

Pour cette quatrième interview, nous avons rencontré Laurence Devillers, professeure d'informatique et d'éthique à Sorbonne Université et chercheuse au LISN-CNRS. Elle est autrice des ouvrages “Des robots et des hommes” édité en 2017 aux éditions Plon et « Les robots émotionnels » édité à l’Observatoire en 2020. Cette spécialiste des interactions entre les humains et les machines nous invite à travailler sur nos capacités de discernement et notre esprit critique. 


L’expression « intelligence artificielle » est totalement entrée dans notre langage commun. De quel type d’intelligence parlons-nous ?

L’intelligence artificielle (IA) est un ensemble de théories, d’algorithmes et de programmes informatiques qui ont pour objectif de simuler des capacités cognitives de l’être humain comme percevoir ou prendre des décisions. Il y a plusieurs types d’IA, par exemple les IA prédictives (ex : la reconnaissance faciale sur son téléphone) ou les IA génératives (ex : Dall-E). Ces systèmes d’IA générative ont démontré leur puissance. Ils sont multilingues, multi-tâches, multi-modales et peuvent servir de fondation à d’autres systèmes. Ces modèles pré-entraînés sur de grands corpus peuvent être optimisés pour réaliser une nouvelle application en utilisant peu de données supplémentaires spécifiques à cette tâche. Les systèmes d’IA générative pour la langue sont souvent utilisés pour des interfaces de chatbots, comme ChatGPT.  Ils répondent à des invites ou requêtes (appelés prompts) en produisant de nouvelles données, par exemple la séquence de mots la plus probable après le prompt, à partir de caractéristiques communes issues de  corpus de données de grande taille. 

Cependant, le travail effectué par ces algorithmes est purement statistique créant des contenus par corrélations entre des éléments des données (segments de mots, parties d’images) utilisées pour leur entraînement. Aucun algorithme aujourd’hui n’est en capacité, sans intervention humaine, de produire un contexte précis et de garantir des données fiables. Les IA ne produisent pas un « raisonnement », elles ne réfléchissent pas au sens humain. Elles produisent des ”modélisations” qui imitent des réactions communes qu’elles s’approprient sans filtre. C’est intelligent si nous limitons l’intelligence exclusivement à des capacités de calculs à partir d’une quantité infinie de données. Malgré cela, nous projetons trop souvent naturellement sur ces systèmes d’IA doués de production dans notre langue des capacités humaines : la machine peut paraître avoir des connaissances, des affects et des valeurs morales. Mais tout cela n’est qu’illusion.

Comment utiliser ces potentialités de façon intelligente ? 

Se former aux techniques d’utilisation des différents outils d’IA générative est un premier pas. Pour faire évoluer nos compétences avec les machines, il faut expérimenter avec elles, en d’autres mots apprendre ce qu’elles savent faire et ce qu’elles ne savent pas faire. Il serait utile de créer un observatoire commun pour partager les bonnes pratiques et les erreurs de ces systèmes d’IA.

Quel est le principal biais dont nous devons avoir conscience dès aujourd’hui ? 

Il faut éviter à tout prix le biais très fréquent de donner plus de rationalité et de crédit à la machine qu’aux êtres humains. Les IA produisent des résultats dénués de notions d’espace et de temporalité, elles sont uniquement sous le joug de données existantes, qui d’ailleurs, à 80%, sont des données en langue et de culture anglo-saxonne. Nous devons avoir conscience que les sources des IA actuelles sont quasiment mono-culturelles. Ce manque de diversité culturelle porte le risque de contenus de plus en plus standardisés et non adaptés dans un territoire donné. 

Concrètement, que pouvons-nous attendre de ces outils d’IA génératives ? 

Autant ils peuvent nous stimuler en termes de créativité, autant ils ne sont pas les meilleurs conseillers pour résoudre des problèmes complexes. Ceci a, d’ailleurs, été démontré dans une étude récente menée par la Harvard Business School, BCG et la MIT Sloan School of Management. L’expérience a été conduite auprès de 750 consultants BCG. Chaque groupe devait réaliser deux tâches : proposer des idées nouvelles et diagnostiquer les défis d’une entreprise. Les résultats ont été comparés entre les groupes utilisant ChatGPT4 et un groupe ne l’utilisant pas. Dans le cadre de la tâche de créativité, l’utilisation de l’outil a permis d’atteindre un niveau de performance 40% supérieur. En revanche, concernant la réalisation de la tâche plus complexe, les résultats du groupe utilisant l’outil ont été 23% moins bons que le groupe ne l’ayant pas utilisé. Il est crucial de maîtriser les forces et faiblesses de ces outils et la complexité des interactions humains-machines. 

En tant qu’acteur du monde des RH, quelles sont les premières actions à engager ? 

Il ne suffit pas de créer une charte indiquant des comportements et des utilisations de « bonne conduite » des IA. Les RH sont garants du lien de confiance et de maturité entre les collaborateurs et les équipements (machines, IA, outils, process,…). A ce titre, la démarche la plus pertinente dans un contexte relativement « flou » et « tous azimuts » est d’avancer en intelligence collective, pas à pas. Comme je le mentionnais plus tôt, une des actions les plus pertinentes est de créer un observatoire des pratiques commun à toute l’organisation. De façon plus pragmatique, le plus urgent est aussi de montrer les dérives éthiques possibles de l’utilisation de l’IA à chaque métier de l’entreprise. Chacun doit comprendre par lui-même et dans le cadre de sa fonction les bénéfices et les dangers de l’IA. Il faut monter des formations portant autant sur les capacités que sur les limites pour appréhender ces outils de façon consciente et responsable. 

Quels sont les principaux enjeux humains sur lesquels nous devons rester vigilants ? 

J’ai eu l’opportunité de réfléchir à ce sujet à partir de 2016 et au moment de travaux d’étude transdisciplinaires au sein du PMIA (Partenariat Mondial pour l’IA) en 2018 sur le futur du travail. Avec mes collègues, nous avons mis en lumière trois principaux enjeux. 

Le premier est la responsabilité. L’humain doit rester responsable des actes et des productions de la machine et des outils. Le deuxième est de continuer à cultiver notre esprit de créativité et d’innovation pour compenser l’inertie inhérente à des machines se basant sur des données existantes et une absence de diversité culturelle. Le troisième est la valeur : veiller à la sauvegarde de la valeur du travail humain versus du travail par la machine. 

Quels sont selon vous les trois mots clefs à retenir pour mieux appréhender les interactions entre les IA et les individus ? 

Démystifier : il n’y a pas plus dangereux qu’un sujet déchaînant les mauvaises passions telles que le mythe de la disparition du travail ou celui de l’humain surpuissant. 
Expérimenter : nous ne sommes qu’au début d’une nouvelle forme d’interactions entre les IA et nous devons apprendre à utiliser ces machines
Innover : continuer à investir dans la recherche des travaux académiques pour innover de façon éthique.

Quelle lecture recommandez-vous pour aller plus loin ? 

En plus de mon ouvrage « Les robots émotionnels », je conseille la lecture de l’avis du Comité National Pilote d’Ethique du Numérique (CNPEN) dont je fais partie. Cet avis intitulé « Systèmes d’intelligence artificielle générative : enjeux d’éthique » répond à la saisine du ministre délégué chargé de la Transition numérique et des Télécommunications, en date du 20 février 2023. Il décrit de façon très détaillée les préconisations pour la conception, la recherche et la gouvernance autour des IA génératives. 


Un grand merci à Laurence Devillers pour son approche lucide des forces et faiblesses des IA. 

Pour aider les entreprises et les talents à amorcer ce changement radical complexe, nous avons mis au point « L'enquête d'Indeed sur l'IA, ou l'avenir du recrutement » : l’analyse approfondie d’une enquête, menée auprès de plus de 7 000 responsables RH et chercheurs d'emploi dans sept pays (États-Unis, Royaume-Uni, Canada, France, Allemagne, Japon et Inde).

Téléchargez l’étude pour en savoir plus

Propos recueillis par Caroline Loisel pour le compte d’Indeed.