De nombreuses solutions d’intelligence artificielle peuvent être utilisées dans les relations de travail. Que ce soit au stade du recrutement en utilisant des jeux cognitifs (Goshaba), en écrivant des emails (TextCortex), pour la gestion du développement des compétences (Neobrain), en anticipant les départs futurs (Team Opportunity Prediction), l’organisation du travail ou l’amélioration de la productivité, les employeurs disposent d’un large éventail d’outils pour intégrer l’intelligence artificielle dans la gestion des RH.
Néanmoins, le développement de l’intelligence artificielle soulève des questions et des préoccupations juridiques : le droit du travail ne fait pas exception. Bien que l’IA puisse offrir de belles perspectives, les employeurs doivent anticiper les changements induits par son développement.
Utilisation de l'IA par les RH
L’intelligence artificielle en matière RH peut être utilisée pour de nombreuses tâches traditionnelles :
- Trier des CV : les systèmes d’intelligence artificielle peuvent analyser plusieurs milliers de CV pour déterminer, selon des critères prédéterminés par l’entreprise, les profils correspondant au mieux au descriptif de poste.
- Anticiper les démissions et le turnover du personnel: les systèmes d’intelligence artificielle permettent de déterminer quels salariés sont les plus susceptibles de démissionner, quand et pour quelle raison, afin d’envoyer une alerte lorsqu’un certain nombre de critères sont remplis, permettant d’anticiper les besoins de recrutement.
- Optimisation de l'organisation du temps de travail des salariés : ceci est particulièrement courant dans les entreprises de livraison de colis et de logistique (DHL, Amazon, La Poste, etc.).
Si ces outils permettent clairement un gain de temps et améliorent l’efficacité, cette solution algorithmique ou « prédictive » comporte un risque de pratiques discriminatoires derrière une promesse de neutralité. En effet, l'expérience a démontré qu’en pratique, un système de recrutement prédictif pouvait être discriminatoire en raison de la présence de biais dans les données d'apprentissage introduites dans l'algorithme.
Selon un article récent de Terra Nova daté du 3 février 2025, l’IA générative offre également des opportunités tout au long de la vie professionnelle.
Contrairement à certaines études alarmistes, l’article de Terra Nova souligne que l’IA générative peut faciliter l’accès au marché du travail, réduire les discriminations et favoriser l’avancement professionnel, à condition que les pouvoirs publics, les employeurs et les partenaires sociaux fassent les choix appropriés. Le think tank insiste sur la nécessité d’adapter les politiques de formation continue et d’anticiper les impacts de l’IA dans les entreprises, proposant que l’IA devienne un levier d’inclusion et d’amélioration de la qualité de vie au travail. Par exemple, pendant le processus de recrutement, les outils d’IA peuvent aider à surmonter des obstacles tels que l’analphabétisme, la dyslexie, le manque de compétences numériques et les handicaps en aidant à rédiger des CV et des lettres de motivation, en utilisant la conversion voix-texte et des outils de traduction.
Pour autant bien que cela constitue une opportunité, des difficultés éthiques et juridiques peuvent survenir parce que l’intelligence artificielle peut avoir un impact sur la santé et la sécurité des salariés. De même, l’IA est susceptible de déclencher des problématiques concernant l’organisation du temps de travail (optimisation du temps travaillé dans l’entreprise, avec moins de pauses) ou d’éventuels licenciements économiques (l’utilisation de systèmes d’IA massifs pourrait-elle être qualifiée de « changement technologique » justifiant la mise en place d’un licenciement économique ?).
Remodeler les lois du travail pour protéger les salariés ?
L’utilisation de l’IA en milieu professionnel nécessitera des cadres réglementaires pour maximiser ses avantages tout en atténuant ses potentiels effets négatifs. Mais l’IA est plus rapide que le législateur et jusqu’à ce que des dispositions spécifiques soient promulguées ou du moins adoptées pour relever les nouveaux défis, certaines des questions juridiques soulevées par l’IA peuvent déjà être appréhendées à la lumière des règles juridiques existantes.
Le Règlement Général sur la Protection des Données (RGPD) fixe certaines limites, notamment l’interdiction du profilage (traitement utilisant les données personnelles d’un individu pour analyser et prédire son comportement) et des décisions qui seraient basées exclusivement sur un algorithme.
De même, conformément au Code du travail, le Comité Social et Economique doit être informé et consulté avant l’introduction de toute nouvelle technologie dans l’entreprise, mais peut également demander une évaluation des impacts de l’outil d’IA proposé sur les conditions d’emploi (article L.2312-8 du Code du travail).
Plus récemment, le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (dit règlement sur l’intelligence artificielle) prévoit des règles protégeant les salariés. Le Règlement sur l’intelligence artificielle s’applique aux déploiements de systèmes d’IA au sein de l’UE, ce qui inclut de nombreux employeurs utilisant des systèmes d’IA sous leur autorité. Cela signifie que les employeurs qui utilisent l'IA pour des tâches telles que le recrutement, la gestion des salariés et d'autres activités opérationnelles sont assujettis aux exigences du Règlement.
À cet égard, le Règlement sur l’intelligence artificielle interdit l'utilisation de systèmes d'intelligence artificielle pour déduire les émotions d'une personne sur le lieu de travail (art. 5. 1. f) et ceux qui utilisent des catégorisations biométriques pour classer individuellement les personnes physiques sur la base de leurs données biométriques (...) (Art. 5,1.g).
Le Règlement classe parmi les systèmes d'intelligence artificielle à haut risque (annexe III) les systèmes suivants :
- l’embauche, la gestion des travailleurs et l’accès au travail indépendant
- l’éducation et la formation professionnelle
Les systèmes d’intelligence artificielle à haut risque sont assujettis à l’information des représentants du personnel en vertu du Règlement sur l’intelligence artificielle. Ainsi, avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les employeurs déployant ce type de système doivent informer les représentants du personnel et les personnes concernées qu’ils seront soumis à l’utilisation d’un système d’IA à haut risque. Ces informations sont fournies, le cas échéant, conformément aux règles et procédures prévues par le droit de l’Union Européenne et le droit national et conformément aux pratiques en matière de communication d’informations aux salariés et à leurs représentants.
L’utilisation de l'IA par les salariés et ses risques pour les employeurs
Si certains considèrent l’IA comme une menace possible pour les salariés, il faut également tenir compte des risques pour les employeurs déclenchés par l’utilisation de l’IA par les salariés eux-mêmes.
Le salarié peut produire des textes et des images dans le cadre de son travail sans en informer son employeur et sans que celui-ci en ait connaissance. Pour le moment, il n’existe pas de traçabilité des produits d’IA (par exemple, une étiquette qui indiquerait clairement qu’un texte ou une image a été produit par un système d’IA).
A titre d’illustration, ChatGPT, dont la fonction première est de produire un texte synthétique en réponse à une question sans intervention humaine, pourrait être utilisé par un salarié pour rédiger des articles ou pour automatiser des tâches fastidieuses et à faible valeur ajoutée (rédaction de rapports, emails, etc.). Certains sont allés jusqu’à intégrer l’IA générative dans leurs outils de travail quotidiens, principalement pour éviter les tâches fastidieuses telles que les emails standards, la génération de contenu marketing, la recherche de contenu scientifique, ou encore la rédaction de messages de prospection commerciale.
Cela n’est pas sans risque, car l’utilisation des données peut compromettre les données personnelles et exposer par conséquent leurs employeurs à un non-respect de la réglementation RGPD.
Il existe des risques en matière de confidentialité, car les données peuvent être réutilisées pour entrainer le logiciel, sans qu’aucune information spécifique ne lui soit communiquée sur le sort des données ainsi traitées. C’est ce qui a d’ailleurs conduit le « GPDP » (autorité italienne de protection des données) à suspendre l’utilisation de ChatGPT en Italie.
Enfin, on peut se poser des questions liées à la propriété et à la qualité de la réponse obtenue. Lors de la production de texte automatisé, il n’est pas possible de retracer les sources utilisées, ce qui crée un risque pour l’entreprise si le salarié ne communique pas sur cette utilisation et que l’un des éléments est en fait couvert par le droit d’auteur ou la confidentialité.
IA et dialogue social
Il n’y a pas de véritable consensus parmi les économistes sur les conséquences de l’IA sur la productivité et l’emploi. L’IA a le potentiel d’automatiser une partie substantielle des emplois actuels. Les estimations suggèrent qu’environ deux tiers des emplois pourraient être affectés par l’automatisation de l’IA, l’IA générative remplaçant potentiellement jusqu’à un quart du travail actuel. Cela pourrait entraîner des suppressions d'emplois dans certains secteurs, en particulier ceux qui impliquent des tâches répétitives.
Néanmoins, les études montrent que la majorité des managers considèrent l’IA comme une opportunité, alors qu’environ 20 % la considèrent comme une menace (voir enquête « Les cadres et l’IA : quelle connaissance et utilisations professionnelles ? », APEC, mai 2024).
En fait, l’IA peut aider à l’analyse des données, au service à la clientèle et à la prise de décision, permettant aux salariés de se concentrer sur des tâches de plus grande valeur qui nécessitent de la créativité et des compétences en résolution de problèmes. Mais l’intégration de l’IA est également susceptible de créer des disparités parmi les salariés. Ceux-ci vont en effet devoir acquérir de nouvelles compétences pour travailler efficacement avec les systèmes d’IA, et les entreprises devront investir dans des programmes de formation, de reconversion et de perfectionnement pour suivre les progrès technologiques.
Dans ce contexte, les représentants du personnel doivent jouer un grand rôle dans le déploiement de l’IA.
Des négociations avec les syndicats pourraient également être menées au niveau sectoriel, notamment par la conclusion d'un accord interprofessionnel national.
En France par exemple, la branche des journalistes a récemment conclu l'un des premiers accords de secteur tenant compte de l'évolution de la profession due à l'intelligence artificielle (Accord du 17 janvier 2024 relatif à la gestion des emplois et des parcours professionnels (GEPP) pour l'ensemble des salariés (ouvriers, employés, cadres et journalistes).
Selon Terra Nova, le déploiement de l’IA devrait être un thème central dans le dialogue social, devenant potentiellement un sujet obligatoire à discuter avec les représentants du personnel.
Pour protéger les droits des salariés et atténuer les risques pour les employeurs, les entreprises sont clairement encouragées à mettre en œuvre dès maintenant des politiques internes d’IA pour réglementer l’utilisation de l’IA sur le lieu de travail, comme elles l’ont fait lorsque la messagerie électronique et l’accès à Internet ont fait leur entrée dans le monde du travail et ont exigé le déploiement de chartes informatiques.