Adoption de l’IA: Moins de 30 % des organisations utilisant l’IA obtiennent des résultats probants. La refonte de la prise de décision est cruciale.
Théâtre de la productivité: L’IA améliore la rapidité mais pas la prise de décision. Les organisations tombent souvent dans le piège des « humains dans la boucle ».
Conception organisationnelle: L’IA exige de revoir la structure des décisions, pas seulement l’implémentation d’outils, pour améliorer processus et résultats.
Approche comportementale: La réponse humaine et l’intégrité du processus sont essentielles pour l’adoption de l’IA, au-delà du simple déploiement technologique.
Mutation du leadership: L’IA demande un leadership adaptatif dépassant les cadres traditionnels, misant sur l’orientation plutôt que le contrôle.
Moins de 30 % des organisations qui tentent de mettre en œuvre l’IA obtiennent des résultats significatifs, un chiffre qui reste obstinément stable même si l’adoption des outils s’accélère.
Paul Gibbons, consultant et auteur de « Adopter l’IA : l’approche centrée sur l’humain », a passé trois décennies à observer les échecs des implémentations technologiques pour la même raison sous-jacente.
Les obstacles sont organisationnels. Silos, culture, état d’esprit, compétences.
Ce qui n’apparaît généralement pas dans les rapports d’échec est le suivant : l’organisation n’a jamais repensé sa manière de prendre des décisions.
Cette observation semble abstraite jusqu’à ce que l’on regarde à quoi ressemble réellement l’échec de l’intérieur. Jurgen Appelo, auteur de « Human Robot Agent » et fondateur de la newsletter Solo Chief, appelle le schéma le plus courant le théâtre de la productivité.
Les dirigeants imposent le déploiement d’outils IA. Les équipes apprennent à les utiliser, les résumés se multiplient et des preneurs de notes peuplent chaque réunion. Puis, presque imperceptiblement, l’organisation se rend compte que tout va plus vite mais que rien n’a fondamentalement changé.
Les entreprises saupoudrent de l’IA sur des processus défaillants et cela se voit.
Les flux de décisions sous-jacents à ces processus, qui est responsable d’un choix, quelles données l’informent, où le jugement humain est requis et où il ne s’agit que d’habitude, sont restés totalement inchangés.
Appelo appelle cela le piège des « humains-dans-la-boucle » : toute interaction IA commence et se termine encore par un humain, les systèmes ne communiquent jamais entre eux, et tout progresse à la vitesse du plus lent des goulets d’étranglement. En d’autres termes, les outils sont devenus plus intelligents, mais l’architecture n’a pas changé.
À quoi cela ressemble-t-il lorsqu’elle change vraiment ?
Quand l’outil fonctionne mais pas l’organisation
Carla Catelan dirige des opérations de recrutement à grande échelle depuis plus de vingt ans, menant des équipes à travers des centaines d’embauches chaque année dans des entreprises telles que Thoughtworks, Cognizant et Hewlett-Packard. Quand elle parle de l’IA dans le recrutement, elle n’en parle pas comme d’un outil. Elle l’aborde comme un problème de conception.
Le leadership à l’ère de l’IA, c’est la conception d’architectures décisionnelles, la création de systèmes où personnes, données et IA collaborent pour produire de meilleurs résultats.
Cette perspective vient d’une observation difficilement acquise.
Lorsque Thoughtworks a commencé à appliquer l’analytique prédictive à son processus de recrutement, l’équipe de Catelan a découvert quelque chose d’inattendu. Le temps de cycle, c’est-à-dire le nombre de jours entre l’ouverture d’un poste et sa pourvue, était déjà bon, constamment dans la fourchette des 30 à 35 jours. La rapidité n’était donc pas le problème. L’équipe a alors cherché la véritable cause.
Ce qu’ils ont découvert, c’est que la variabilité des définitions de poste produisait des résultats de recrutement moins bons de façon plus fiable que la qualité des candidats. Des descriptions de poste ambiguës, trop ambitieuses ou inconsistantes perturbaient le comportement d’apprentissage de l’IA en amont, produisant de plus faibles taux de conversion, davantage de refus en fin de parcours et de moins bonnes performances initiales, quel que soit le vivier de candidats.
La solution n’était pas un nouveau modèle. Thoughtworks a reconstruit ses descriptions de poste en ce que Catelan nomme des « artefacts prédictifs », éliminant les exigences qui généraient plus de bruit que de succès réel, et concentrant le signal envoyé au modèle. L’IA s’est améliorée parce que les éléments d'entrée pour la décision se sont améliorés.
Cette logique en amont — la qualité de ce qui entre dans l’architecture de décision détermine la qualité de ce qui en sort — traverse toute application conçue par Catelan.
L’IA sert à faire émerger des tendances, agréger des données longitudinales et structurer des signaux quantitatifs. Les humains conservent la propriété du jugement qualitatif et la décision finale. La frontière entre les deux est explicite, pas présumée.
Les projets pilotes ne passent pas à l’échelle. L’architecture, oui.
L’erreur la plus fréquente que Catelan constate dans les organisations qui essaient de reproduire cela, c’est de considérer l’IA comme une série de pilotes plutôt que comme un changement fondamental dans la façon de décider du travail.
La plupart des entreprises investissent massivement dans les outils d’IA et espèrent des améliorations," dit-elle. "Mais elles conservent les mêmes incitatifs, les mêmes structures hiérarchiques, et la même faible culture data au sein des équipes dirigeantes. Résultat : l’IA est sous-utilisée ou mal utilisée. Des modèles puissants produisent des analyses qui ne sont ni comprises, ni exploitées, ni considérées comme dignes de confiance.
Thoughtworks a répondu à ce problème en instaurant un groupe de travail interdisciplinaire dédié spécifiquement à la conception de prise de décision assistée par IA dans l’acquisition de talents.
Le groupe opère sur la base d’objectifs chiffrés au niveau de l’entreprise :
- Augmenter de 50 % le taux de conversion tout au long de l’entonnoir de recrutement grâce à la segmentation prédictive
- Réduire de 30 % le temps passé en entretiens en éliminant plus tôt dans le processus les candidat·es à faible probabilité.
Ces chiffres ne sont pas des ambitions. C’est le mandat.
La séquence compte autant que les objectifs. Avant d’introduire toute automatisation, le groupe cartographie où sont prises les décisions essentielles, qui en est responsable, quelles données sont requises, et où le jugement humain reste central.
Ce n’est qu’une fois cette architecture établie que l’IA intervient, pour renforcer des étapes précises au lieu de se superposer à des processus non interrogés.
« Nous repensons les circuits de décision avant d'introduire l’automatisation, » explique Catelan. « Jamais après. »
Les 90 % que la plupart des déploiements négligent
Yannick Fouagou, directeur des opérations et solutions RH chez GreenShield, est arrivé à une conclusion similaire à partir d’une autre expérience. Son parcours est l’ingénierie électronique et les systèmes qualité dans le pétrole et le gaz, des environnements où l’intégrité des processus est incontournable et où l’échec a des conséquences physiques. Lorsqu’il a rejoint les ressources humaines, il a apporté cette même rigueur du côté humain de l’adoption de l’IA.
Ce qui l’a surpris, c’est à quel point la technologie compte peu face à la réaction humaine qui l’accompagne.
L’adoption de l’IA, c’est 10 % de technologie et 90 % de psychologie humaine. J’ai d’abord cru que tout le monde serait aussi enthousiaste que moi pour adopter ces outils, mais j’ai vite compris que l’IA requiert la même gestion du changement que ce que nous pratiquons depuis des décennies. Si on fait l’impasse sur le travail humain autour de la peur, de la résistance et de la courbe du changement, même la technologie la plus avancée échouera encore.
Pour Fouagou, l’architecture de décision n’est pas seulement une question de design organisationnel. C’est une question de comportement. Sa démarche segmente les parties prenantes selon leur position sur la courbe d’adoption, les accompagne, puis formalise la nouvelle méthode de travail dans des processus et documents officiels pour que le changement soit structurel, pas seulement un engouement temporaire.
« Nous ne faisons pas que déployer des outils, » dit-il. « Nous inscrivons la nouvelle manière de travailler dans les SOP et les politiques pour garantir la responsabilité. »
Cette codification crée une boucle de rétroaction. Le système surveille ce que demandent les employés, identifie où la documentation est manquante et génère des recommandations pour combler les lacunes. La base de connaissances s'adapte aux schémas générés par les utilisateurs. C’est à cela que ressemble l’architecture de décision lorsque la couche comportementale est intégrée dès le départ plutôt qu’ajoutée a posteriori.
La boucle dont les dirigeants doivent sortir
Les praticiens qui travaillent sur ces sujets au niveau fonctionnel ont la latitude nécessaire pour repenser les processus. Le problème est bien plus difficile pour ceux qui occupent les plus hauts niveaux.
Gibbons a animé des programmes d'acculturation à l’IA auprès de comités de direction et a constaté que les résultats étaient inquiétants. Lorsqu’il a demandé à un groupe de douze dirigeants combien de jours de formation ils avaient suivi l’année précédente, le total était de trois jours pour l’ensemble du groupe.
« Cela ne suffira pas », affirme-t-il.
Le problème est davantage structurel qu’individuel. Selon Gibbons, le succès a rendu la plupart des cadres supérieurs résistants au type d'apprentissage que l’adoption de l’IA exige. Leur autorité repose sur leur savoir. L’IA ébranle ce fondement.
Appelo formule le défi du leadership différemment mais aboutit à la même conclusion. Lorsque l’IA dépasse les humains sur la majorité des tâches analytiques, le leadership cesse d’être la capacité d’apporter les réponses.
La plupart des dirigeants ont été formés à des cadres de gestion conçus pour des conditions relativement prévisibles. Appelo cite en particulier le Leadership Transformationnel, un modèle né dans les années 1970 et qui suppose un leader contrôlant l’information, validant les décisions et se trouvant au centre de la boucle.
C’est précisément ce modèle que l’adoption de l’IA exige de déconstruire. Les managers présents dans la boucle deviennent des goulets d’étranglement. Les managers qui se placent au-dessus de la boucle, en orientant, ajustant et tranchant sur les choix véritablement difficiles, incarnent ce que requiert la nouvelle architecture.
Gibbons appelle ce mouvement Leadership Adaptatif. Ce type de leadership est conçu pour le rythme, l’émergence et pour fonctionner en avançant sans connaître à l’avance l’objectif final.
Nous ne savons pas à quoi ressembleront les pilotes ni dans quelle mesure ils seront faciles à généraliser, affirme Gibbons. Les anciens paradigmes de leadership étaient fondés sur une prévisibilité qui n’existe plus.
Concevoir une architecture de décision pour l’IA
Les praticiens mentionnés ci-dessus n’appliquent pas une méthode commune mais leurs démarches suivent une logique cohérente. Voici comment procéder.
Commencez par la décision, pas par l’outil
Avant de choisir une application d’IA, cartographiez chaque décision importante du processus ciblé. Qui est responsable de chaque décision ? Quelles données l’alimentent ? Où le jugement humain est-il vraiment essentiel et où n’est-ce qu’une habitude ?
L’équipe de Catelan a réalisé ce travail dans l’acquisition de talents avant d’introduire des modèles prédictifs. La cartographie a révélé que la principale source d’erreur ultérieure n’était pas la sélection elle-même, mais la rédaction des descriptions de poste en amont du processus.
Auditez les données en entrée
L’IA apprend de ce qu’on lui donne. Si les données injectées dans un modèle sont incohérentes, gonflées ou mal structurées, les résultats les reflèteront. La refonte des descriptions de poste opérée par Catelan a permis d’améliorer les performances du modèle sans même intervenir sur ses paramètres.
Avant de déployer l’IA sur un processus, examinez la qualité et la cohérence des entrées sur lesquelles il repose. Les données médiocres ont désormais un impact démultiplié.
Fixez des objectifs métier, pas de simples indicateurs de processus
Des objectifs vagues produisent des résultats flous. Le groupe de travail de Catelan s’appuie sur des chiffres précis : une augmentation de 50 % du taux de conversion dans l’entonnoir, une réduction de 30 % du temps passé en entretien.
Ces objectifs mettent la pression sur la performance globale du système, plutôt que de multiplier les expérimentations ponctuelles. Si vous n’êtes pas en mesure d’exprimer ce qu’une refonte de workflow IA réussie apporte en termes business, alors la conception n’est pas prête.
Définissez clairement la frontière humain-IA
Toute refonte implique de répondre clairement à deux questions : que gère l’IA et que gèrent les humains ? Le principe de Catelan consiste à laisser l’IA structurer les signaux quantitatifs et faire remonter des insights, tandis que les humains gardent le jugement qualitatif et la décision finale.
Cette frontière doit être documentée, partagée et revue au fur et à mesure que le système évolue. Sans cela, la responsabilité se dilue et on ne peut plus retracer l’origine des erreurs.
Intégrez la gouvernance avant de passer à l’échelle
Intégrez dès le départ dans l’architecture la capacité de reprise de contrôle humain, la surveillance des biais et de la dérive, ainsi qu’une responsabilité claire pour les résultats des modèles. Fouagou formalise les changements sous forme de politiques plutôt que de les laisser dans la pratique informelle.
La gouvernance ajoutée a posteriori tend à arriver une fois qu’un problème s’est déjà produit.
Considérez l’adoption comme un problème comportemental
L’observation 10/90 de Fouagou est l’étape que la plupart des organisations sautent complètement. Le déploiement technique et l’adoption humaine ne sont pas le même événement.
Séparez vos parties prenantes en segments. Identifiez où la résistance est probable et traitez-la avant le déploiement, pas pendant. Mesurez non seulement les gains d’efficacité mais aussi si le temps récupéré est réellement réinvesti dans du travail à plus forte valeur ajoutée.
Il existe un écart que la plupart des organisations n’ont pas encore envisagé. Il se situe entre les outils déployés et la logique décisionnelle laissée inchangée.
L’approche de Catelan concernant la préparation à l’IA mérite réflexion.
« Cela signifie se poser en permanence de meilleures questions », dit-elle. « Quels signaux sont importants, où l’incertitude existe-t-elle, et comment les données peuvent-elles éclairer le jugement humain. »
Les outils ont fait émerger la question. C’est le travail de conception qui lui apporte une réponse.
