Skip to main content

Seuls 2 % des DRH du Fortune 500 estiment fortement que leur système d’évaluation des performances actuel favorise réellement l’amélioration.

Ce chiffre est devenu une référence dans les conférences RH et les arguments commerciaux des fournisseurs, généralement suivi de la promesse que le feedback continu alimenté par l’IA résoudra le problème. Le discours est convaincant. Les résultats, pour l’instant, ne le sont pas.

La célèbre étude de l’initiative NANDA du MIT a montré qu’environ 95 % des programmes pilotes d'IA générative n’aboutissent pas à une mise en production. Une autre analyse réalisée par la RAND Corporation fixe le taux d’échec global des projets d’IA à 80 %, avec en moyenne 4,2 millions de dollars engloutis dans des projets abandonnés. 

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Gartner classe désormais l’IA d’entreprise au cœur du « creux de la désillusion » pour 2026, une désignation en phase avec ce que vivent les DRH sur le terrain : des outils qui montrent de belles démos, des pilotes acceptables, mais qui se heurtent au mur lors de l’adoption à l’échelle de l’entreprise.

Le secteur de la gestion de la performance est particulièrement vulnérable à ce schéma, car le processus qu’il cherche à améliorer, l’entretien annuel, est lui-même profondément ancré. Acheter un outil promettant de transformer le feedback en coaching continu et assisté par l’IA semble séduisant dans une présentation fournisseur. 

Opérationnellement, cela nécessite une refonte complète de la façon dont les managers organisent leur temps, de la manière dont sont prises les décisions sur la rémunération et la promotion, et de la façon dont les collaborateurs vivent la notion de responsabilité. La plupart des organisations font l’impasse sur cette réorganisation et attendent du logiciel qu’il fasse tout le travail.

Ce qui suit présente un cadre de migration pratique, structuré autour des points où les mises en œuvre échouent réellement :

  • L’audit pré-migration que la plupart des organisations négligent
  • À quoi doit ressembler le flux de travail du manager après la migration
  • L’architecture de transfert évitant que les outils de coaching ne deviennent des outils de surveillance
  • Les cinq modes d’échec récurrents et un calendrier réaliste pour la transition.

L'audit

Avant toute configuration d'un outil d’IA, trois questions nécessitent des réponses honnêtes.

Données

La première porte sur les données. Un coaching continu assisté par l’IA dépend d’un flux régulier d’entrées structurées comprenant :

  • Notes documentées en tête-à-tête
  • Jalons de projet
  • Retours des pairs
  • Mises à jour du suivi des objectifs.

Si les managers ne produisent pas déjà ces données de façon régulière, l’IA n’a rien de pertinent à analyser. Garbage in, noise out.

Capacité managériale

La deuxième question concerne la capacité managériale. Un système d’IA qui signale une perte d’engagement et suggère une action de coaching n’est utile que si le manager qui reçoit cette alerte sait comment agir dessus.

Si vos managers éprouvent déjà des difficultés à mener des entretiens de feedback direct, ajouter une suggestion générée par une machine n’y changera rien. Cela mettra en lumière le problème plus vite, ce qui peut être utile, mais seulement si l’organisation prévoit un plan pour le résoudre.

Processus

La troisième question porte sur l’architecture des processus. Votre système de gestion de la performance actuel a-t-il des voies d’escalade clairement définies ? Quand un schéma de contre-performance passe-t-il de la responsabilité du manager à celle de la RH ? Qui décide qu’une action de coaching doit se transformer en plan d’amélioration de la performance ?

Ces points de transfert doivent exister avant que l’IA commence à signaler les problèmes à grande échelle, car le volume d’alertes révélera toutes les zones d’ambiguïté de votre processus actuel en quelques semaines.

La plupart des organisations procèdent à l’envers. Elles mettent d’abord en place l’outil, puis se demandent pourquoi l’adoption est difficile. La voie la plus intelligente commence par une définition. À quoi ressemble un excellent comportement managérial dans une culture de feedback continu ? Ce n’est qu’alors qu’il faut se demander si l’outil le soutient réellement. Si vous sautez cette étape, vous n’avez pas changé le métier de manager. Vous lui avez simplement donné un nouveau tableau de bord à ignorer.

Matt Poepsel-55239
Matt Poepsel, PhDOpens new window

VP de l’optimisation des talents chez The Predictive Index

Un cadre utile provient de recherches plus larges sur la mise en œuvre de l'IA. Un rapport du Forum économique mondial publié plus tôt cette année a révélé que moins d'une organisation sur cinq déclarait une grande maturité dans n'importe quel aspect de la préparation des données, et 72 % des dirigeants d'entreprise ont indiqué que les bases et les pipelines de données seraient leur domaine d'investissement en IA à la croissance la plus rapide.

En termes de gestion de la performance, les travaux de fond sont l'audit : cartographier votre paysage de données, évaluer vos managers et documenter l'architecture de vos processus avant la mise en marche de l'outil.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

À quoi ressemble la semaine d'un manager après migration

L'échec le plus courant des contenus sur le feedback continu est qu'ils restent conceptuels.

« Passer à des conversations de coaching continues » est une directive qui ne dit rien à un manager pour le mardi. Le cadre de migration doit être suffisamment précis pour qu'un DRH puisse décrire, dans des termes qu’un manager de première ligne reconnaîtrait, ce qui change dans leur rythme hebdomadaire.

Dans une implémentation mature, la plateforme IA génère un résumé évolutif de l'activité de chaque collaborateur direct, en s'appuyant sur les données de gestion de projet, les saisies de feedback des pairs et les notes de 1:1 documentées.

Lundi

Le lundi du manager commence généralement par un triage de 15 à 20 minutes de ces résumés. Le système a identifié une courte liste de moments de coaching, peut-être cinq à sept pour une équipe de huit à dix collaborateurs, classés par degré d'urgence et force du motif.

Le rôle du manager est de filtrer cette liste. Certains signaux sont du bruit. Une baisse des indicateurs de collaboration peut refléter une phase de projet nécessitant un travail en concentration, pas un désengagement. L'IA ne le sait pas. Le manager si.

C'est à cette étape de filtrage que le jugement humain reste essentiel, et que les mises en œuvre qui présentent l’IA comme un substitut du discernement managérial (et non comme un support) ont tendance à s'effondrer.

Mardi - Vendredi

Tout au long de la semaine, le manager mène des entretiens individuels. Dans l’ancien modèle, ces réunions sont souvent des points non structurés dictés par l’actualité ou l’humeur du moment.

Dans le modèle migré, l’IA a pré-rempli un agenda de coaching pour chaque collaborateur direct, mettant en avant des tendances que le manager n’aurait peut-être pas remarquées : un membre de l’équipe reconnu trois fois ce mois-ci par ses pairs mais n’ayant reçu aucun retour sur ses axes de progression, ou une personne dont le taux d’atteinte des objectifs a chuté nettement lors des deux derniers sprints.

La différence critique avec l'ancien modèle ne réside pas dans la fréquence des discussions. De nombreux managers faisaient déjà des 1:1 hebdomadaires. La différence est la qualité de la préparation. L’IA fait l’agrégation et la détection de motifs que le manager réalisait mal, car le volume de données dépassait ce qu’un humain peut suivre pour une équipe complète, ou qu'il ne faisait tout simplement pas.

Mais l’adoption de ce nouveau rythme est inégale d'une manière que la plupart des organisations n’anticipent pas. Selon Poepsel, les managers qui s’engagent réellement avec les insights générés par l’IA sont souvent ceux qui avaient déjà des habitudes de coaching avant l’arrivée de l’outil.

L’IA n’a fait qu’amplifier ce qui existait déjà, dit-il. Pour les autres, l’outil est tombé dans un vide comportemental.

Il a cité le profil comportemental comme un facteur souvent négligé : les managers orientés résultats ont tendance à considérer l'outil comme un bruit, tandis que les managers orientés personnes l'intègrent plus facilement à leur approche existante.

« Si vous ne tenez pas compte du profil comportemental dans votre stratégie d’adoption, vous concevez pour un type de manager et vous vous demandez pourquoi les autres ne suivent pas », ajoute-t-il.

Les données de Happily.ai, qui a analysé 633 managers dans 60 organisations, suggèrent que le phénomène dépasse le style de coaching. L’entreprise a constaté que l’ancienneté n’a quasiment aucune corrélation avec l’engagement de l’équipe, ce qui signifie qu’un manager embauché il y a trois mois et assidu dépassera un vétéran de dix ans qui ne s’investit pas.

Le quartile inférieur des managers dans leur ensemble de données n’a pas simplement sous-performé petit à petit. Les scores d’engagement de leurs équipes étaient nuls. Ce que cela implique pour une migration vers un feedback continu, c’est que la technologie peut être prête dès le premier jour, mais la variation des comportements des managers déterminera si le système produit des informations utiles ou un silence total.

Cela dit, l’investissement en temps se déplace plutôt qu’il ne disparaît. Les managers passent moins de temps sur les bousculades des revues de fin d’année. Un objectif fréquemment cité par les premiers adopteurs est une réduction de 20 % du temps total consacré aux tâches administratives liées à l’évaluation, réparti sur l’année en des moments de coaching plus courts et ciblés.

Le nombre total d’heures ne baisse pas nécessairement. Les heures deviennent plus productives.

La transmission à trois niveaux

L’une des façons les plus rapides de faire échouer une mise en place de coaching assisté par l’IA est de faire disparaître la distinction entre information et supervision.

Des employés qui découvrent que l’IA suit, sans explication, leurs schémas de collaboration, leurs temps de réponse aux emails ou leur présence en réunion, verront le système comme une forme de surveillance. Et ils n’auront pas tort, à moins que l’organisation ait défini des limites claires sur ce qui est suivi, qui voit quoi et à quel moment un signal d’alerte dépasse le manager.

Les organisations où ça fonctionne tendent à opérer selon un modèle à trois niveaux.

Niveau manager

Le premier niveau est celui du manager. L’IA propose directement au manager des suggestions de coaching, des synthèses de schémas et des recommandations de développement. Ces données sont à l’usage du manager pour ses conversations de coaching. Elles ne sont pas partagées automatiquement vers le haut.

Niveau HRBP

Quand un schéma persiste sur une période définie, par exemple 60 à 90 jours de dégradation des indicateurs ou de signaux répétés auxquels le manager n’a pas réagi, le système fait remonter le cas au HRBP. L’escalade déclenche une discussion entre le HRBP et le manager, et non un examen des données des employés par les RH sans contexte managérial.

Niveau organisationnel

Des données globales et anonymisées remontent pour la planification des effectifs. La direction observe les tendances au sein des équipes et des départements, les schémas de risque de rétention, les trajectoires d’engagement. Ils ne voient pas les tableaux de bord individuels des employés.

L’aspect transparence compte autant que l’architecture. Les employés doivent savoir ce qui est suivi, comment c’est utilisé et ce qu’ils peuvent voir d’eux-mêmes. Les implémentations qui éviteront le rejet donneront accès aux employés à leurs propres synthèses générées par l’IA, ce qui crée une base de référence partagée pour les échanges de coaching, plutôt qu’un outil de surveillance à sens unique.

La raison pour laquelle des difficultés d’adoption apparaissent dans tous les secteurs, c’est que l’échec de l’adoption est souvent provoqué par l’anxiété des employés concernant leur pertinence, leur identité et leur sécurité d’emploi, pas par des limitations techniques.

En gestion de la performance, ces peurs sont amplifiées parce que les données traitées par l’IA sont personnelles. Comment on s’investit dans le travail, comment on collabore, comment on performe. Si les employés ont le sentiment que les données sont utilisées contre eux plutôt que pour eux, l’adoption échoue, quels que soient les atouts techniques de l’outil.

Cinq modes d’échec et à quoi ils ressemblent vraiment

Les recherches sur les échecs de projets IA, combinées à l’expérience des premiers utilisateurs en gestion de la performance, pointent cinq schémas récurrents de défaillance. Ils méritent d’être détaillés car la majorité des contenus sponsorisés par les éditeurs à propos du feedback continu ne les évoquent jamais, alors qu’ils sont les véritables sources d’apprentissage opérationnel.

Le problème du « rajouté »

L’organisation achète l’outil IA mais ne supprime pas l’entretien annuel. Les deux systèmes tournent en parallèle. Les managers se rabattent sur la version familière.

La plateforme IA finit au placard, et au moment du renouvellement, les données révèlent une adoption faible et un ROI peu clair.

Si vous migrez vers du coaching continu, le processus annuel d’évaluation doit être démantelé, pas complété. Les organisations qui tentent de faire tourner les deux verront à chaque fois le cycle annuel l’emporter, parce qu’il bénéficie d’un ancrage institutionnel et qu’il reste lié aux décisions de rémunération d’une manière que le nouveau système n’a pas encore gagné la légitimité de remplacer.

Le problème du bruit

L’IA signale tout. Les managers reçoivent 10 à 15 alertes par jour, ne distinguent plus le signal du bruit et finissent par ignorer totalement le système. La cause principale est généralement une mauvaise configuration des seuils lors du paramétrage.

La plateforme doit être réglée pour que les managers voient trois à cinq opportunités de coaching actionnables par semaine, pas par jour.

Le bruit érode la confiance

Le bruit érode la confiance

“Cette confiance s’acquiert lentement, au fil de quelques réussites de qualité. Elle se perd rapidement, après un échec important. La plupart des plateformes inondent les managers d’insights bien avant d’avoir établi cette confiance. Les mises en œuvre qui commencent avec des filtres peu restrictifs et prévoient de les resserrer plus tard se remettent rarement, car le dommage sur la confiance causé par la surcharge de signaux erronés est difficile à réparer.”

L’écart de confiance

Les managers reçoivent une suggestion de coaching générée par l’IA mais n’y croient pas. Peut-être que le système a signalé un désengagement pour un employé considéré comme un haut potentiel par le manager.

Au lieu d’approfondir le décalage, le manager écarte l’avis de l’IA. Poepsel décrit une version courante de cela : l’IA détecte un désengagement via des signaux comportementaux comme la fréquence de communication ou la participation aux réunions, mais passe complètement à côté du contexte.

Quelqu’un est silencieux parce qu’il réalise un travail de fond. Ou il traverse une période personnelle difficile," explique-t-il. "Le manager agit sur le signal par devoir, engage une conversation inconfortable, et l’employé se sent surveillé plutôt que soutenu. Ce moment de désalignement ne nuit pas seulement à leur relation. Il entame la confiance du manager envers l’outil.

La solution réside dans la transparence : expliquer comment l’IA procède à ses évaluations, sur quelles données elle s’appuie et quel est son taux d’erreur connu. Partager ouvertement les taux de faux positifs avec les managers, plutôt que de promouvir la précision de l’outil, permet d’instaurer une confiance calibrée qui soutient l’adoption.

La réaction à la surveillance

Ce point a été abordé dans la section sur la passation, mais il mérite d’être identifié comme un mode d’échec distinct. Cela peut survenir même si l’organisation agit avec de bonnes intentions et dispose d’une architecture de données raisonnable, si la communication envers les employés est défaillante.

Le déclencheur est presque toujours la découverte, et non la divulgation : les employés découvrent ce qui est suivi au lieu qu’on leur explique de manière proactive.

Le problème de qualité des données

L’IA analyse des données incomplètes. La moitié des managers consigne leurs 1:1, l’autre moitié non. Les feedbacks entre pairs sont sporadiques. Le suivi des objectifs varie selon les équipes. L’IA produit alors des analyses d’une qualité très inégale, ce qui érode la confiance dans la production du système, à l’échelle de l’organisation.

C’est là la problématique d’audit évoquée en première partie, déclinée à grande échelle, et c’est pourquoi l’étape d’assainissement des données pré-migration est indispensable.

Prendre des décisions de rémunération et de promotion sans évaluations annuelles

Voilà la question qui inquiète les DAF et les comités de rémunération, et celle que la plupart des contenus sur le feedback continu évitent soigneusement. Si vous supprimez l’entretien annuel, comment prenez-vous les décisions sur la promotion et la rémunération ?

La version courte : vous remplacez un unique jugement à fort enjeu par une série d’évaluations documentées, de moindre intensité, accumulées dans le temps.

Dans un système migré, l’IA entretient un dossier de performance évolutif qui agrège les entretiens de coaching, les données sur la réalisation des objectifs, la reconnaissance par les pairs et les évaluations saisies par les managers tout au long de l’année.

Lorsque survient un point de décision trimestriel ou semestriel, le manager et le HRBP disposent d’une base de preuves plus large, plus récente et plus détaillée que ce qu’un bilan annuel rétrospectif pourrait fournir.

La version longue exige une refonte fondamentale du processus de calibration. Les séances annuelles de calibration, où les managers défendent les notes de leur équipe selon une courbe de distribution forcée, sont conçues pour un monde où les données de performance sont rares et subjectives.

Dans le modèle continu, la discussion de calibration ne porte plus sur la note mais sur l’évolution des trajectoires : La personne progresse-t-elle ? Sa dynamique de croissance a-t-elle changé ? Où se situent les écarts entre la performance documentée et la fourchette de rémunération ?

Poepsel considère que c’est là la tension non résolue au cœur du débat sur le feedback continu.

La plupart des organisations n’ont pas supprimé l’entretien annuel. Elles ont ajouté du feedback continu par-dessus. Elles font cohabiter deux systèmes tout en se disant en transformation," explique-t-il. "L’IA devrait éclairer le jugement humain, en faisant remonter des tendances, en identifiant les trajectoires de croissance et en soulignant les incohérences entre évaluations managériales. Mais c’est encore l’humain qui doit trancher. Quand les organisations prétendent le contraire, elles n’éliminent pas le biais. Elles diluent la responsabilité.

La célèbre statistique de Gallup, qui affirme que les salariés recevant un feedback hebdomadaire ont 2,7 fois plus de chances d’être engagés, est souvent citée pour justifier le feedback continu. Mais l’engagement ne règle pas à lui seul la question de la rémunération.

La vraie question opérationnelle est de savoir si les données continues conduisent effectivement à de meilleures décisions d’avancement et de rémunération. Les premiers retours des organisations ayant franchi le pas tendent à confirmer que oui, mais avec une réserve : la qualité des données dépend entièrement de la régularité d’utilisation du système par les managers tout au long de l’année.

Dans les organisations où l’adoption est inégale, la donnée continue est en réalité pire que l’ancien système, car elle crée l’illusion d’une rigueur soutenue par des informations incomplètes.

Un calendrier réaliste de migration

Sur la base des schémas d’échec documentés ci-dessus et de l’expérience des organisations ayant traversé cette migration, le déroulé se présente globalement ainsi.

Mois 1 à 3 : il s’agit de la phase d’audit. Cartographiez votre paysage de données. Évaluez la préparation des managers. Documentez votre architecture actuelle d’escalade et de prise de décision.

Cette phase est peu valorisée et ne génère aucune sortie visible, ce qui explique pourquoi elle est souvent omise. Les organisations qui la sautent se retrouvent généralement à ce stade neuf mois plus tard, ayant consommé leur crédibilité et leur première période de renouvellement par la même occasion.

Mois 4 à 6 : il s’agit de la refonte des processus. C’est là que le flux de travail des managers est reconstruit. À quoi ressemble le rythme hebdomadaire ? Quels sont les protocoles de transmission ? Comment fonctionnera la calibration ? Qui accède à quelles données ?

Ces questions obtiennent des réponses avant tout choix de fournisseur, car ce sont les réponses qui déterminent les exigences.

Mois 7 à 9 : c’est la phase pilote. Un groupe de managers teste le nouveau processus avec la plateforme sélectionnée. L’objectif du pilote n’est pas de prouver que le système fonctionne, mais de documenter ses points de rupture.

Chaque mode d’échec, chaque solution de contournement, chaque point de confusion est catalogué. Les mises en œuvre qui exploitent le pilote comme une vitrine de réussite, et non comme un répertoire d’échecs, optimisent pour une finalité erronée.

Mois 10 à 12 : il s’agit de l’ajustement et du déploiement à plus grande échelle. Les protocoles sont révisés sur la base des enseignements du pilote. Le déploiement s’élargit, avec des attentes réalistes définies pour l’organisation.

La plupart des mises en œuvre atteignent 60 à 70 % de leur objectif d’utilisation d’ici la fin de la première année. La pleine maturité, où le système devient le principal mécanisme de gestion de la performance (et non un simple complément aux anciens processus), demande 18 à 24 mois.

Une analyse honnête de ceux à qui je parle révèle que la plupart des organisations atteindront environ 60% de la valeur escomptée de cette migration. Cela reste rentable, à condition de caler le cadre de mesure sur la réalité.

Le temps consacré par les managers aux tâches administratives d’examen diminue. La qualité des feedbacks, mesurée par leur précision et leur rapidité, augmente. L’employé gagne en clarté sur sa situation. Mais rien de tout cela n’arrive en 90 jours, et rien ne se produit simplement en ajoutant un outil à un processus qui n’a pas été conçu pour l’accueillir.

John-David Lovelock de Gartner a déclaré plus tôt cette année que l’intelligence artificielle sera le plus souvent vendue aux entreprises par leur fournisseur de logiciels historique plutôt qu’acquise dans le cadre d’un nouveau projet, car la prévisibilité du retour sur investissement doit s’améliorer avant que les organisations n’osent miser sur des cas d’usage transformationnels.

La gestion de la performance constitue un test pour cette thèse. L’outil n’est pas la transformation. C’est la refonte du processus qui l’est. L’outil permet seulement la montée en échelle du nouveau processus. Et les organisations qui persistent à traiter cela comme une décision d’achat posent les mêmes bases qui ont abouti à un système dans lequel presque plus personne ne croit.