L'IA va nous contraindre à nous adapter. Voici comment mettre en place les politiques, les formations et les mesures de sécurité juridiques pour s'y préparer.
Points à retenir :
- Près d'un tiers des responsables RH / acquisition de talents et des chercheurs d'emploi déclarent craindre que l'IA ne les oblige à adapter leurs compétences, à suivre des formations ou même à se reconvertir.
- Les expert(e)s suggèrent de prendre les devants et de rédiger des politiques relatives à l'utilisation responsable de l'IA et de former les collaborateurs aux bonnes pratiques concernant ces outils.
- Il est crucial de s'assurer que chaque membre de votre personnel est au fait des risques juridiques associés à l'IA, qu'il s'agisse de biais, de problèmes de sécurité ou des droits de propriété intellectuelle.
Tandis que les entreprises du monde entier s'empressent d'adopter les outils d'intelligence artificielle (IA), la dernière enquête mondiale d'Indeed sur l'IA nous révèle que les responsables RH / acquisition de talents et les chercheurs d'emploi craignent de ne pas disposer des compétences requises pour suivre le rythme.
Cette enquête rassemble les réponses de plus de 7 000 responsables RH/de l'acquisition de talents et de chercheurs d'emploi issus de 7 pays, dont la France. Il en ressort que près d'un tiers des personnes interrogées, tous groupes confondus, craignent que l'IA ne les oblige à adapter leurs compétences, à suivre des formations ou même à se reconvertir. Pourtant, 54 % des responsables RH / acquisition de talents et 45 % des chercheurs d'emploi se disent optimistes quant aux retombées potentielles de l'IA au travail.
Pour les dirigeant(e)s d'entreprise, cette tension entre inquiétude et optimisme est l'opportunité parfaite pour aider leurs équipes à accueillir l'IA de manière responsable. Selon Lori Aiken, responsable des talents chez Indeed, elles et ils ne peuvent pas simplement supposer que leurs collaborateurs vont acquérir ces compétences par eux-mêmes. Former à l'IA et démontrer son utilité doit être une démarche proactive de la part des dirigeant(e)s. « Nous savons qu'elle existe, et qu'elle va perdurer, déclare Lori Aiken. Il ne faut pas en avoir peur. Il faut simplement l'accueillir et déterminer comment en tirer parti. »
Voici quelques recommandations pour mettre en place les politiques, la formation et les cadres juridiques qui serviront à préparer vos équipes au développement de l'IA.
Des principes directeurs pour une utilisation responsable de l'IA
Il est crucial de définir des principes directeurs afin de déterminer comment utiliser l'IA de manière responsable, et ce, avant que son utilisation ne soit trop ancrée au sein des équipes, assure Matt Donovan, directeur de l'apprentissage et de l'innovation chez GP Strategies, un fournisseur mondial de formation des talents. « L'IA est un outil. Elle n'a ni bon ni mauvais fond, affirme-t-il. Ces recommandations nous aident à prendre des décisions plus éclairées quant à son utilisation et son exploitation. »
Les recommandations relatives à l'IA pour votre entreprise ne doivent pas être excessivement détaillées ou normatives. La liste de six points de GP Strategies (en anglais) comprend par exemple des éléments comme « préserver la confidentialité et la sécurité », « assurer la sécurité et le bien-être » et « favoriser la responsabilité ». Matt Donovan insiste que chaque collaborateur, tous niveaux confondus, et non uniquement ceux de la direction, a joué un rôle dans l'élaboration de ces principes afin d'assurer une représentation globale des points de vue. « Ces décisions ne peuvent pas être exclusivement hiérarchiques », souligne-t-il.
C'est en concevant vos politiques de cette manière que vous laissez la place à l'apparition de nouveaux cas d'utilisation de l'IA, à condition qu'ils respectent les principes de base. Ce niveau de flexibilité est essentiel, indique Lori Aiken. Les mêmes situations se sont posées lors de l'émergence d'Internet et des réseaux sociaux sur le lieu de travail. Les entreprises qui ont d'abord essayé d'interdire l'utilisation de ces technologies ont finalement reconnu ses avantages indéniables.
Je déconseille à quiconque de se montrer trop restrictif. Au fur et à mesure, il y aura des personnes sur Terre qui auront toujours connu l'IA comme un partenaire dans leur vie quotidienne. »
Lori Aken, responsable des talents chez Indeed
Former à l'IA et l'expérimenter de manière réfléchie
L'enthousiasme face à l'IA peut drastiquement varier d'une personne à une autre dans votre entreprise. Une récente étude mondiale menée par Cisco a révélé que 82 % des membres du conseil d'administration et de la direction se montrent très ou plutôt réceptifs vis-à-vis de l'IA. En revanche, seuls 69 % des employé(e)s ont répondu dans le même sens.
Il est donc essentiel de montrer aux employé(e)s comment utiliser l'IA à leur avantage. Matt Donovan suggère de mettre en place un « atelier de l'innovation » pendant lequel les collaborateurs peuvent recevoir une formation à ces nouveaux outils et même procéder à des tests A/B pour déterminer lequel correspond le mieux à une tâche donnée.
Indeed a élaboré son propre programme de formation volontaire à l'IA au cours duquel chaque personne peut tester de véritables cas d'utilisation de ces outils. « Nous souhaitons que chaque collaborateur sache que, s'il doit créer une présentation ou effectuer une recherche, il peut s'aider de l'IA de nombreuses manières afin d'y passer moins de temps », ajoute Lori Aiken.
Évidemment, l'IA ne peut être parfaite. Il est donc important d'apprendre à faire preuve de vigilance. Par exemple, Microsoft reconnaît que son outil de productivité basé sur l'IA, Copilot, montre souvent des « erreurs injustifiées » et nécessite une intervention humaine pour obtenir les meilleurs résultats.
« Assurez-vous que tout le monde comprenne bien qu'il ne suffit pas de cliquer ici et là pour que le tour soit joué, prévient Lori Aiken. Il faut toujours un certain niveau de supervision et d'intervention humaine »
Des risques clairement énoncés
Lorsque les équipes commencent à utiliser l'IA, leurs responsables doivent s'assurer d'informer chaque membre, quel que soit son niveau, des répercussions juridiques et des risques encourus.
Par exemple, au cours du processus de recrutement, l'IA amplifie les biais et peut ainsi enfreindre les lois de lutte contre la discrimination, prévient Alex King, vice-présidente du conseil juridique chez Indeed. « Même si ce n'est nullement votre intention que d'exclure des groupes sous-représentés, vous pouvez tout de même finir par générer une certaine discrimination en utilisant les outils d'IA, poursuit-elle. Il en va de votre responsabilité car vous obtiendrez un manque de diversité qui pourrait être encore plus préoccupant pour votre entreprise. » Les biais sont en réalité l'une des problématiques qui sera abordée dans la loi sur l'IA de l'UE. Les systèmes d'IA à haut risque devront se conformer à des exigences strictes afin de minimiser le risque de biais injustes. Le texte devrait être approuvé dans le courant de l'année 2024 et constitue la première loi internationale sur l'utilisation de l'intelligence artificielle au sein de l'UE.
Le chargement de données confidentielles dans des outils d'IA en libre-service, tels que ChatGPT, peut présenter un risque en matière de confidentialité et de sécurité. À moins d'avoir conclu un accord avec OpenAI, par exemple, et d'avoir mis en place une politique de confidentialité rigoureuse, Alex King indique qu'il n'y a aucune garantie que les données de votre entreprise ne seront pas utilisées pour former les modèles d'IA d'une autre. Même après avoir obtenu un accord, Alex King estime qu'il est judicieux de savoir qui utilise l'outil d'IA et dans quel but, afin d'éviter que les coûts ne s'envolent. « Il faut s'assurer que l'utilisation de l'outil est bénéfique pour l'ensemble de l'entreprise. »
Les employé(e)s doivent aussi avoir conscience que les lois évoluent encore en ce qui concerne la propriété intellectuelle produite par l'IA. De fait, votre équipe doit réfléchir à deux fois avant d'utiliser l'IA pour développer un projet qui nécessiterait une protection juridique, comme un brevet. « Il faut être tenu au courant dès le départ, afin de comprendre quel type de propriété pourra s'appliquer plus tard », explique Alex King.
À terme, investir dans la préparation de vos équipes à l'avènement de l'IA en vaut la peine. Les recherches d'Indeed Hiring Lab démontrent que presque tous les emplois seront exposés à des changements induits par l'IA générative. En aucun cas ils ne doivent représenter une menace si vos équipes y sont préparées, affirme Matt Donovan.
Vous ne perdrez pas votre emploi au profit de l'IA. Vous perdrez votre emploi au profit d'une autre personne qui saura mieux utiliser l'IA. »
Matt Donovan,directeur de l'apprentissage et de l'innovation chez GP Strategies
Écoutez Chris Hyams, le PDG d'Indeed, interroger la Dr Missy Cummings, experte en IA et ancienne pilote de F/A-18 Hornet dans le podcast d'Indeed, « Here to Help » (en anglais).