Dérive de l’IA: Les systèmes d’IA évoluent au fil du temps, pouvant modifier les décisions sans changement de code ni autorisation.
Risques juridiques: De récentes affaires mettent en avant les risques importants pour les fournisseurs et employeurs utilisant l’IA dans le recrutement.
Échecs de gouvernance: La majorité des organisations manquent de suivi suffisant pour gouverner efficacement les systèmes décisionnels d’IA.
Défis réglementaires: Les nouvelles lois imposent une documentation et une surveillance strictes des systèmes d’IA sous peine de sanctions.
Gouvernance actionnable: Mettez en place un suivi continu et des mesures correctives documentées pour prévenir la dérive et limiter la responsabilité.
Personne n’a autorisé ce changement. Vos ingénieurs n’ont pas déployé de nouveau code. Pourtant, le système d’IA qui formule des recommandations en matière de recrutement pour votre organisation ne se comporte plus aujourd’hui comme au moment où vous l’aviez approuvé.
Le vivier de candidats a évolué et le marché du travail a changé, tandis que le modèle continuait de fonctionner sur la base d’hypothèses périmées depuis des mois. C’est ce qu’on appelle la dérive de l’IA, déjà présente dans les systèmes RH, aussi bien de startups que de grandes entreprises, non pas comme un risque hypothétique, mais comme une réalité actuelle.
Qu’est-ce que la dérive de l’IA ?
La dérive de l’IA désigne la divergence progressive entre la manière dont un système d’IA a été conçu pour fonctionner et la façon dont il fonctionne réellement au fil du temps. Pour les équipes techniques, le terrain est familier. Elles connaissent déjà le déplacement des distributions de données, la dérive de concept et la dégradation des modèles.
Pour les dirigeants d’entreprises, la définition doit être plus large, et plus directe : la dérive de l’IA désigne le processus lent et cumulatif par lequel vos outils d’IA cessent insidieusement de faire ce que vous pensez qu’ils font.
Dans les systèmes de gestion des effectifs, tels que les plateformes de recrutement, les outils d’évaluation de la performance, les moteurs de rémunération et les algorithmes de planification, la dérive se manifeste de manières qui importent bien plus à une DRH ou à un PDG qu’à un data scientist devant un graphique de distribution.
- Dérive des résultats : c’est la plus visible. Les décisions du système s’écartent des schémas de référence. Les recommandations d’embauche commencent à privilégier certains profils de candidats. Les scores de performance se mettent à se concentrer différemment selon les équipes. Les plannings changent d’une façon que personne n’a autorisée. Aucun changement de code n’est nécessaire pour que cela se produise. Le modèle réagit à de nouvelles données, ou à d’anciennes données qui ne reflètent plus la réalité dans laquelle il opère.
- Dérive d’équité : elle est plus subtile et plus dangereuse. Les résultats concernant les classes protégées divergent progressivement, même si le système était validé contre les biais lors du déploiement. Un outil de recrutement qui triait équitablement en 2022 ne le fera peut-être plus en 2026 si le vivier de candidats a changé, si les exigences de poste ont évolué ou si les données sous-jacentes reflètent des situations jamais rencontrées lors de la phase d’entraînement du modèle.
- Dérive du périmètre de décision : c’est la forme que la plupart des dirigeants manquent totalement. Le champ d’action de l’autonomie décisionnelle de l’IA s’étend discrètement au-delà du mandat initial. Un outil déployé pour classer des candidats commence à en écarter certains. Un système de notation des performances influence des décisions de rémunération qu’il n’aurait jamais dû toucher. Personne n’a autorisé cette expansion. Elle s’est produite par petites étapes, via l’intégration aux processus de travail et le comportement des utilisateurs – et nul ne l’a remarquée, parce que personne n’était vigilant à ce sujet.
- Dérive de la gouvernance : elle désigne l’écart entre ce que vos politiques disent que fait l’IA, et ce qu’elle fait réellement. C’est là que les risques juridiques se concentrent. Votre charte d’IA responsable décrit un système validé au lancement. Le système en fonctionnement aujourd’hui ressemble peu à cette description. La politique n’a pas dérivé, mais le système, si.
L’essentiel à comprendre à propos de la dérive, c’est qu’il ne s’agit pas d’un événement soudain, mais d’un lent processus de dégradation. Un système d’IA conforme lors de son déploiement peut devenir une source de risque sans qu’aucune ligne de code n’ait changé, simplement parce que le monde autour a changé.
Lorsque les symptômes apparaissent enfin – plainte pour discrimination, résultats d’audit, ou constats d’écarts par rapport aux attentes – l’exposition aux risques se sera déjà accumulée depuis des mois.
Pourquoi la dérive de l’IA exige une vigilance immédiate
La plupart des organisations ont intégré l’IA dans leurs systèmes RH, puis cessé de s’en soucier. Elles ont effectué des tests lors du lancement. Elles ont rédigé la documentation initiale, puis plus rien. Depuis, la réglementation a rattrapé la technologie.
Le paysage des contentieux
Mobley c. Workday fait désormais jurisprudence. Cinq plaignants, tous âgés de plus de 40 ans, ont allégué que les outils de présélection basés sur l’IA de Workday étaient discriminatoires sur la base de l’âge. En mai 2025, un tribunal fédéral du district nord de Californie a certifié l’action en tant qu’action collective nationale au titre de l’Age Discrimination in Employment Act.
La portée du jugement concerne potentiellement chaque candidat de plus de 40 ans ayant fait l’objet d’une présélection sur la plateforme Workday depuis septembre 2020. Workday a même déclaré dans ses actes de procédure que 1,1 milliard de candidatures avaient été rejetées via ses outils pendant cette période.
Le raisonnement du tribunal a été très clair. La juge Rita Lin a estimé que l’implication de Workday dans le processus d’embauche était suffisante pour considérer la société comme un agent des employeurs utilisant ses outils.
Distinguer les décisions prises par des logiciels de celles prises par des humains, a averti le tribunal, reviendrait à vider la loi anti-discrimination de sa substance à l’ère moderne.
En juillet 2025, le champ d’application a été étendu pour inclure également les personnes traitées par HiredScore, une plateforme d’IA acquise par Workday après le dépôt de la plainte initiale.
La suite est venue avec Eightfold AI. En janvier 2026, une action collective a affirmé qu’Eightfold avait collecté des données sur plus d’un milliard de travailleurs, attribuait une note de zéro à cinq aux candidats, et rejetait des candidatures sans qu’aucun humain n’ait jamais examiné leur dossier, le tout sans fournir les informations obligatoires selon le Fair Credit Reporting Act.
Cette affaire diffère de l'affaire Mobley sur un point essentiel : elle n’allègue pas de partialité. Elle dénonce le secret. L’algorithme existait, fonctionnait et écartait des personnes d’opportunités sans que personne en dehors de l’entreprise ne sache ce qui se passait. L’action a été intentée par l’ancienne présidente de l’EEOC, Jenny R. Yang, ce qui témoigne du niveau d’attention juridique désormais accordé à l’IA dans la gestion des effectifs.
Lues ensemble, ces affaires forment une tenaille. Mobley attaque les résultats. Eightfold attaque le processus. Toutes deux vont dans la même direction : les fournisseurs d’IA qui prennent ou influencent matériellement des décisions d’emploi seront tenus responsables de ces décisions.
L’étau de la responsabilité du fournisseur
C’est ici que les calculs deviennent inconfortables pour les employeurs. Des études menées par des plateformes de legal tech montrent que 88 % des fournisseurs d’IA plafonnent leur propre responsabilité, limitant souvent les dommages aux frais d’abonnement mensuels. Seuls 17 % garantissent la conformité réglementaire. Des clauses d’indemnisation étendues exigent systématiquement des clients qu’ils dégagent les fournisseurs de toute responsabilité en cas d’issue discriminatoire.
Autrement dit, les employeurs sont légalement responsables de résultats qu’ils ne contrôlent pas, issus de données qu’ils ne peuvent auditer, traitées par une logique qu’ils ne peuvent examiner. Lorsqu’un recours collectif survient, le contrat de fourniture plafonne la responsabilité, décline toute garantie de conformité et restreint les audits algorithmiques. L’employeur supporte seul la charge.
Le problème du « humain dans la boucle »
La présence d’une personne, symboliquement, dans la chaîne d’examen n’est plus une défense valable.
Aaron Pease, avocat au sein du cabinet Highbridge Law Firm, qui conseille sur la gouvernance de l’IA et la conformité dans la gestion des effectifs, l’a exprimé sans détour lors d’une récente présentation sur les risques de l’automatisation des effectifs.
Supervision without visibility is theater, and it collapses under legal discovery.
Les organisations sont incapables de démontrer ce que l’humain a réellement examiné, ce qu’il a modifié, ou selon quels critères il a statué. Les tribunaux et les régulateurs évoluent vers l’exigence d’une surveillance documentée et démontrable, plutôt que vers une simple déclaration qu’un individu, quelque part, a vu quelque chose avant validation.
L’application réglementaire devient concrète
L’AI Act du Colorado, promulguée en mai 2024, est la première loi d’État globale réglementant les systèmes d’IA utilisés pour des décisions à forts enjeux, y compris en matière d’emploi. La loi impose des évaluations d’impact obligatoires, des programmes de gestion des risques, des obligations de transparence, et prévoit des sanctions de 20 000 $ par infraction.
Son entrée en vigueur a été mouvementée, puisque plus de 150 lobbyistes ont envahi une session législative spéciale en août 2025, et que quatre projets de loi concurrents ont tenté de l’affaiblir ou de l’abroger. Aucun n’a réussi. Le législateur s’est contenté de repousser l’application au 30 juin 2026, tout en conservant toutes les exigences de fond intactes.
Début 2026, la session législative du Colorado n’a abouti à aucun accord sur de nouveaux changements.
Pendant ce temps, la Californie a finalisé une réglementation sur l’utilisation de l’IA par les employeurs dans les litiges pour discrimination, et l’Illinois a adopté des exigences de divulgation sur l’IA. La tendance est la même dans tous les États : les retards sont possibles, mais aucun retour en arrière sur la régulation n’est observé.
Le coût d’une gouvernance passive
La dépréciation de 569 millions $ enregistrée par Zillow en novembre 2021 demeure l’un des exemples les plus parlants de ce qu’il advient lorsqu’une dérive algorithmique n’est pas surveillée. La plateforme iBuying de l’entreprise utilisait un modèle de tarification pour évaluer des biens et faire des offres d’achat. Alors que les conditions du marché ont changé après la pandémie, l’algorithme a continué à supposer un marché en plein essor alors que la réalité était tout autre.
Pendant des mois, Zillow a racheté des habitations à des prix gonflés avant que quiconque ne s’en rende compte. Lorsque le couperet est tombé, l’entreprise a mis fin à toute l’activité iBuying, licencié 25 % de ses effectifs et absorbé plus de 900 millions $ de pertes. L’action a perdu environ 7,8 milliards $ de capitalisation en quelques jours.
La dépréciation n’a pas été causée par une défaillance soudaine. Elle résulte d’une dérive graduelle, qui s’est aggravée faute d’observation des signaux. Remplacez « tarification immobilière » par « décisions d’embauche » ou « évaluations de performance », et la mécanique est identique. La dérive est silencieuse. L’exposition s’accumule. Le jour du jugement, lui, ne l’est pas.
Pour les dirigeants qui supervisent l’IA dans la gestion des effectifs, les postes de coût sont bien réels.
- L'exposition financière provient de décisions erronées de l’IA qui s’accumulent avec le temps sous la forme de mauvais recrutements, de licenciements abusifs, de talents mal attribués
- L'exposition aux litiges résulte du fait que des mois de décisions de sélection biaisées, toutes consignées dans les journaux systèmes, offrent exactement le type de preuves systématiques que recherchent les avocats lors des recours collectifs
- Les amendes réglementaires ne sont plus théoriques à mesure que les cadres d’application se mettent en place
- Les atteintes à la réputation nuisent à la marque employeur dans un marché du talent concurrentiel
- Les perturbations au niveau du conseil d’administration entrent en jeu lorsque les défaillances de gouvernance dans la prise de décision de l’IA relèvent du devoir fiduciaire. Les administrateurs se demandent si l’organisation peut démontrer un contrôle effectif, et « nous avons une politique » n’est pas une réponse suffisante. C’est un sujet sur lequel l’IA dans la gestion des conseils d’administration peut être précieuse.
Pourquoi la plupart des cadres de gouvernance échouent
La plupart des organisations ont adopté le langage de l’IA responsable. Elles ont des politiques. Elles ont des principes. Certaines font référence au NIST. Mais elles n’ont jamais mis en place de dispositif de surveillance interne permettant de vérifier le respect de ces engagements. Elles peuvent décrire leur posture de gouvernance de l’IA. Elles sont incapables de la mesurer.
C’est ce qu’on appelle le déficit d’instrumentation, et c’est là que le vrai risque se trouve.
La Dre Fern Halper, Vice-présidente et Directrice principale de la recherche en analytique avancée chez TDWI, cite une enquête de fin 2025 menée par l’entreprise auprès de plusieurs centaines d’organisations. Seul un tiers environ d’entre elles décrivent leur gouvernance de l’IA comme mature en termes d’adhésion organisationnelle, de processus définis, de responsabilité, d’outils et de capacité à mesurer les résultats.
Les capacités de surveillance sont encore moins répandues. Moins de 25 % déclaraient utiliser quelque type d’outils de surveillance d’IA que ce soit, aptes à détecter des dérives.
Dans de nombreuses organisations, la rupture ne survient pas entre la politique et la mesure, elle intervient plus tôt. Beaucoup développent encore les structures de gouvernance de base, telles que politiques, modèles de responsabilité et inventaires de modèles. Elles n’ont pas encore atteint le stade où la surveillance continue des modèles en production est opérationnalisée.
Ce constat change la perspective du problème de gouvernance pour beaucoup de dirigeants. Les discussions dans les conseils supposent souvent que la gouvernance existe déjà, et la question serait de savoir si elle est suffisamment robuste. Pour la plupart des organisations, l’infrastructure permettant de gouverner les décisions d’IA de manière mesurable n’a tout simplement pas encore été mise en place.
Le NIST AI Risk Management Framework, publié en janvier 2023, définit quatre fonctions clés : Gouverner, Cartographier, Mesurer et Gérer. La plupart des organisations savent que ce cadre existe. Peu l’ont mis en œuvre au-delà des deux premières étapes.
- Gouverner est le fondement transversal — culture de gestion des risques, structures de responsabilité, engagement des dirigeants, rôles et responsabilités. Le NIST a conçu ce pilier pour imprégner les trois autres fonctions, et non comme une simple formalité. Sans Gouverner, Cartographier, Mesurer et Gérer restent des exercices sur le papier.
- Cartographier identifie les domaines où l’IA prend les décisions, quelles données l’alimentent, qui est concerné et quels sont les enjeux. Il s’agit de la phase d’inventaire, celle où la plupart des organisations s’arrêtent. L’évaluation du paysage est menée. Les systèmes et les décisions sont répertoriés. Puis elles passent à autre chose.
- Mesurer marque le passage à la gouvernance concrète. Cela demande des outils quantitatifs, qualitatifs ou mixtes pour analyser, établir des références et surveiller le risque lié à l’IA selon des critères définis. Le NIST l’indique explicitement : les systèmes d’IA doivent être testés avant le déploiement, puis régulièrement pendant leur utilisation. Régulièrement. Pas une seule fois.
- Gérer consiste en la remédiation — prioriser et traiter les risques identifiés, enregistrer les actions correctives, relier les signaux de détection à des réponses documentées.
Le problème, c’est que la plupart des organisations s’arrêtent à Cartographier, ou plus exactement, à une cartographie partielle qui manque du socle Gouverner pour permettre une mise en action. Elles quantifient rarement la dérive, suivent peu les signaux de risque ou consignent les actions correctives.
D’après Pease, elles ne relient pas les signaux aux remédiations documentées. Cartographier sans mesurer n’est qu’un catalogue. Mesurer sans gouverner n’est qu’une collecte de données. Rien de tout cela ne vous protège lors d’une enquête si ce n’est pas relié à une action documentée.
Bon à savoir : L'alignement sur le NIST devient plus qu'une bonne pratique. La loi sur l’IA du Colorado cite explicitement le NIST AI RMF comme référence pour la conformité. Les déployeurs qui s’y alignent bénéficient d’une présomption réfutable selon laquelle ils ont fait preuve de « prudence raisonnable ». Cela signifie que le NIST devient la norme sur laquelle la responsabilité juridique est évaluée, et non plus seulement une recommandation volontaire.
Comment détecter et quantifier la dérive de l'IA
Le changement fondamental que les organisations doivent opérer est d’abord conceptuel avant d’être technique. Il faut cesser de considérer la supervision de l’IA comme une fonction d’audit annuelle ou trimestrielle, planifiée à l’avance, rapportée a posteriori, et commencer à la traiter comme une fonction opérationnelle. Il s’agit de mettre en place un suivi continu des signaux avec des seuils définis, fonctionnant en parallèle des systèmes surveillés.
Ce qu'il faut surveiller
Dans les systèmes d’IA appliqués aux ressources humaines, cinq catégories de signaux sont importantes.
- Modèles de sortie : les recommandations d'embauche, les scores de performance ou les décisions concernant la rémunération s'écartent-elles des bases de référence initiales ?
- Métriques d’équité : les résultats pour les groupes protégés divergent-ils, même progressivement ?
- Données d’entrée : la composition des données alimentant le système a-t-elle changé de façon inattendue pour le modèle ?
- Périmètre des décisions : l’autorité effective de l’IA s’est-elle étendue au-delà de son mandat initial ?
- Alignement réglementaire : les exigences évoluent-elles plus vite que votre documentation de gouvernance ?
Aucun de ces points n’est un indicateur de données exotique. Ce sont des mesures opérationnelles qui devraient déjà exister dans tout système prenant des décisions ayant des conséquences humaines. La plupart des organisations n'ont jamais mis en place l'infrastructure nécessaire pour les suivre en continu, ni défini les bases de référence pour mesurer les écarts.
De la description à la quantification
L’écart que la plupart des organisations doivent combler réside entre la gouvernance qualitative et la gouvernance quantitative. Entre « nous avons une politique d’IA responsable » et « nous pouvons présenter des métriques de dérive mensuelles avec des seuils documentés et des actions correctives. »
Quantifier signifie mesurer :
- Ampleur de la dérive : jusqu’où les résultats se sont-ils écartés de la base de référence et dans quelle direction ?
- Évaluation de l’exposition financière : traduit les métriques techniques en langage métier, en termes de coût estimé de la dérive non corrigée par mois.
- Indexation du risque légal : basée sur l’évolution des résultats pour les groupes protégés au fil du temps
- Mesure de l'écart de conformité : distance entre le comportement actuel du système et les exigences réglementaires applicables.
Considérez cela comme un moteur de sensibilité au risque : un mécanisme de suivi continu qui traduit les signaux de dérive en métriques d’exposition financière et juridique, mois après mois.
C’est ce qui transforme la gouvernance d’un simple document en un véritable tableau de bord. C’est ce qui offre à la direction la visibilité nécessaire pour agir avant que les risques n’aboutissent à une responsabilité juridique.
De la détection à l’action : télémétrie de gouvernance
« La gouvernance sans télémétrie, c’est un procès en attente d’avoir lieu », dit Pease. « La délégation requiert une supervision. »
Le cadre qu’il propose trace une frontière claire entre la gouvernance comme document et la gouvernance comme capacité opérationnelle. Les standards décrivent l’apparence souhaitée de la gouvernance. La télémétrie la rend opératoire. La différence, c’est la même qu’entre un manuel de procédures et un système d’exploitation.
La télémétrie, dans ce contexte, consiste en une capture continue des signaux, couplée à une évaluation des seuils et à une traçabilité documentaire des actions. Cinq composantes permettent de la mettre en œuvre.
- Capture de signaux est la collecte continue d'indicateurs de dérive à chaque point de décision délégué à l’IA. Pas d'échantillonnage. Pas d'audits trimestriels. Continu. Si le système prend des décisions chaque jour, la surveillance doit fonctionner chaque jour.
- Logique de seuil définit des limites prédéfinies qui distinguent une variation acceptable d'une dérive nécessitant une action. Ces seuils doivent être calibrés selon la tolérance au risque de l’organisation et les exigences réglementaires. Un changement de 2% dans les recommandations d'embauche n'a pas la même signification chez un prestataire fédéral que dans une startup. Les seuils doivent être définis à l’avance, et non reconstitués après la détection d’un problème.
- Routage de l’escalade dirige les signaux signalés vers le bon décideur au bon niveau par des chemins automatisés. Tous les signaux de dérive ne requièrent pas l'attention du DRH. Certains oui. La logique d’escalade transforme la dérive d’un simple indicateur de données ignoré en risque géré. Sans elle, les signaux s’accumulent dans des tableaux de bord que personne ne consulte avant qu’il ne soit trop tard.
- Journal d’audit fournit une documentation immuable indiquant ce qui a été détecté, quand cela a été détecté, quelle action a été entreprise, et par qui. C’est l’artefact qui subsiste lors d’une découverte juridique. C’est ce qui prouve que la gouvernance a eu lieu et qu’elle va au-delà de simples intentions.
- Boucle d’action corrective ferme la boucle. Détection mène à l’évaluation. L’évaluation mène à l’action. L’action est consignée. Sans cela, vous faites de la surveillance. Avec cela, vous avez une gouvernance.
Ces cinq composants correspondent directement au NIST AI RMF. La gouvernance fournit la structure de responsabilité qui garantit l’existence de la télémétrie, son approvisionnement et sa visibilité par la direction. Identifier permet de savoir où les points de télémétrie doivent exister — à chaque point de décision délégué à l’IA. Mesurer correspond à ce que la télémétrie détecte : l’ampleur de la dérive, les signaux d’exposition, les dépassements de seuil, les indicateurs d’équité. Gérer correspond à ce que déclenche la télémétrie : escalade, action corrective, documentation de la remédiation, traçabilité boucle fermée.
Cette cartographie est importante car elle relie la pratique opérationnelle au standard de conformité que la Loi sur l’IA du Colorado — et probablement les futures lois d’autres États — utiliseront pour évaluer si une organisation a exercé une diligence raisonnable.
Trois questions auxquelles chaque dirigeant doit répondre maintenant
Pease résume la posture minimale de gouvernance autour de trois questions. Si la direction ne peut pas répondre aux trois, la gouvernance de l’organisation est réactive et gère le risque de réputation plutôt que le risque opérationnel.
- Où l’IA s’est-elle vu déléguer un pouvoir de décision dans vos systèmes RH ? Pas là où l’IA est « utilisée ». Là où elle a reçu une autorité pour prendre ou influencer significativement des décisions concernant des personnes, telles que l’embauche, le filtrage, l’évaluation, la rémunération, la planification, l’analyse du risque de licenciement. Si vous ne pouvez pas produire cette cartographie, vous ne pouvez pas gouverner ce que vous ne voyez pas.
- Pouvez-vous quantifier la dérive de gouvernance de mois en mois ? Pas « avons-nous une politique ». Êtes-vous capable de produire un indicateur montrant si vos systèmes IA fonctionnent dans les paramètres définis et si cela a changé depuis le mois dernier ? Si la gouvernance n’est pas mesurable, elle n’est pas gérable.
- Pouvez-vous prouver qu’une action corrective a été documentée ? Lorsqu’une dérive a été détectée, que s’est-il passé ? Qui a été informé ? Quelle a été la décision ? Qu’est-ce qui a changé ? Si vous ne pouvez pas montrer la traçabilité de la détection à la réaction, au mieux vous faites de la surveillance. Vous n’assurez pas la gouvernance.
Par où commencer
Pour beaucoup d’entreprises, les priorités de mise en œuvre sont pratiques.
- Commencez par les systèmes RH. Ce sont ceux qui comportent le plus grand risque d’exposition car ils affectent directement les personnes et sont soumis au contrôle réglementaire le plus poussé.
- Bâtissez d’abord la piste d’audit. C’est ce que les régulateurs et tribunaux demanderont. La capacité à démontrer que la gouvernance a eu lieu offre une protection immédiate, plus que la perfection du suivi lui-même.
- Équipez avant de déployer à grande échelle. Ajouter la télémétrie après le déploiement est exponentiellement plus difficile et coûteux que de l’intégrer dès le début. Chaque nouveau déploiement IA sans instrumentation de gouvernance, c’est une nouvelle exposition non surveillée.
Les organisations qui conçoivent une télémétrie de gouvernance pour l’IA dans la gestion des opérations construisent l’infrastructure indispensable pour déployer l’IA en toute confiance, accélérer l’adoption, et démontrer aux régulateurs, aux conseils d’administration et aux employés que les personnes impactées par ces systèmes sont protégées. Pas simplement traitées. Protégées.
La fenêtre de mise en application se réduit. La question est de savoir si vous aurez la preuve que vous avez effectivement été attentif.
