Si vous cherchez un guide rapide sur la mise en place de l’IA dans votre organisation et sur la véritable adoption — pas seulement des projets pilotes tape-à-l’œil — alors ne manquez pas l’épisode d’aujourd’hui. Glen Cathey nous rejoint pour évoquer ce qu’il faut vraiment pour passer du « on a lancé un chatbot » à une équipe qui adopte l’IA comme réflexe, et pourquoi la plupart des entreprises se mettent elles-mêmes des bâtons dans les roues dès le départ.
Nous écartons le traditionnel « formons tout le monde » et préférons nous demander : que se passe-t-il lorsque les dirigeants ne vivent pas ce qu’ils prêchent ? Comment instaurer de vraies habitudes, pas seulement accumuler des certifications ? Et comment faire pour que tout le monde (oui, y compris les collaborateurs chevronnés) considère l’IA comme un véritable coéquipier, et non un simple gadget ? Attendez-vous à un mélange de vérités difficiles, de cadres pratiques, et de quelques critiques de notre complaisance collective.
Ce que vous allez apprendre
- Pourquoi le leadership n’est pas seulement « un atout » mais le levier qui permet une vraie maîtrise de l’IA dans les organisations.
- Pourquoi la formation seule échoue, et à quoi ressemble réellement le changement de comportement lorsque l’IA fait partie du flux de travail.
- Pourquoi « gérer l’IA comme un humain » n’est pas un gadget — c’est une métaphore pour concevoir l’exécution, les boucles de rétroaction et la responsabilisation.
- Ce que la crainte du remplacement révèle sur la culture d’entreprise, et comment négliger cet aspect humain sabote votre déploiement technologique.
- Où les rôles et les processus sont mis à nu à l’ère de l’IA (par exemple, dans le recrutement), et comment décider ce qui doit être automatisé ou rester humain.
À retenir
- Le leadership montre l’exemple. Si la direction déclare « l’IA est stratégique » mais ne l’utilise pas elle-même, vous continuerez à voir des projets pilotes occuper le rayon au lieu d’intégrer les workflows.
- Formation ≠ maîtrise. Pensez à la différence entre regarder une vidéo de sport et vraiment aller à la salle. Il faut de la répétition, de la pertinence pour le rôle, et de la consolidation.
- Prompts & workflows > liberté totale. Donnez aux équipes « cinq points clés où utiliser l’IA dans leur activité » + des exemples d’instructions. Enseignez-leur aussi à repérer leurs propres occasions d’utilisation.
- La sécurité psychologique est essentielle. Prendre le temps d’expérimenter, c’est inconfortable quand on a des objectifs à tenir ; mais sans espace sécurisé, on retombe dans les vieilles habitudes.
- Les employés expérimentés peuvent être figés. Leur « compétence inconsciente » (performer sans y réfléchir) devient un frein si le paradigme change. Il faut leur demander de « régresser » à l’incompétence consciente — et réapprendre leur métier.
- Gérer l’IA, c’est du management. Si vous donnez des instructions floues à un humain en attendant un résultat parfait… vous ne l’aurez pas ! Pour l’IA, c’est pareil. Du contexte, des objectifs et des retours pour un bien meilleur résultat.
- La gouvernance ne relève pas que de l’informatique. En déployant l’IA auprès de milliers de salariés, vous doublez presque votre effectif. Qui pilote cette ressource ? Qui vérifie ses livrables ?
- L’automatisation révèle la redondance. Dans le recrutement par exemple, des outils d’IA peuvent déjà sourcer, contacter et présélectionner. Alors, quelle valeur humaine reste dans le métier de recruteur ?
- La maîtrise s’incarne dans les habitudes, pas les événements. Une organisation est jugée « fluide » quand ses membres revisitent leurs process, partent naturellement de l’IA, et discutent de « notre utilisation de l’IA » comme ils parlent d’email.
- La discussion est humaine, pas que technique. 64 % des cadres affirment que la peur du remplacement par l’IA freine l’adoption, mais seuls 24 % voient la résistance des salariés comme un obstacle majeur. Ignorer la peur, c’est ignorer les personnes.
Chapitres
- 00:00 – Aller au-delà du mode pilote
- 00:40 – Enseigner les compétences de leadership en IA
- 01:10 – Combler l’écart entre la formation et les compétences
- 02:42 – Intégrer l’IA dans le travail quotidien
- 06:01 – L’expérience comme un bagage opérationnel
- 10:51 – Développer les compétences en gestion de la main-d’œuvre
- 13:47 – Renforcer les boucles de rétroaction avec l’IA
- 15:33 – Le coût caché de la généralisation de l’IA
- 19:26 – Peur, adoption et réalité organisationnelle
- 29:06 – Sortir de la paralysie du pilote
- 31:44 – Définir l’aisance avec l’IA en pratique
- 35:29 – Repenser les rôles traditionnels
Rencontrez notre invité

Glen Cathey occupe actuellement le poste de Vice-Président Senior et Consultant Principal en Conseil sur les Talents et Stratégie Numérique chez Randstad Enterprise, apportant plus de 25 ans d’expérience en recrutement international, RPO et innovation dans le recrutement numérique. Il est reconnu mondialement comme leader d’opinion dans la recherche et le recrutement, connu pour son expertise dans l’engagement des talents passifs, les technologies de recherche et de correspondance, ainsi que pour l’application éthique de l’IA dans le recrutement. Glen a commencé sa carrière comme recruteur IT et a depuis construit et dirigé de grandes équipes de recherche, développé des contenus de formation de pointe et pris la parole lors de nombreux événements internationaux sur les talents — démontrant son engagement à faire évoluer le futur du travail et de l’acquisition des talents.
Liens utiles :
- Rejoignez la communauté People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Connectez-vous avec Glen sur LinkedIn
- Découvrez Randstad Enterprise
Articles et podcasts associés :
David Rice : Il y a de nombreuses entreprises qui restent bloquées au stade du pilote. Elles déploient des modèles de formation et s’en tiennent là. Quel est le levier le plus important qui permet vraiment à une organisation d’aller vers la maîtrise de l’IA ?
Glen Cathey : Le levier unique le plus important, c’est le leadership. Si vous souhaitez créer une culture orientée par défaut vers l’IA, ce sont les dirigeants qui montrent l’exemple, d’abord et avant tout ; ils fixent la vision. Ils la vivent et la démontrent, ce qui leur permet de servir d’exemples. Vous pouvez proposer toutes les formations du monde, si vous n’avez pas un leadership pleinement aligné, vous ne créerez pas de culture où davantage de personnes adoptent l’IA et explorent toutes ses possibilités pour améliorer leur travail.
David Rice : La plupart des gens n’ont jamais été managers. Comment apprend-on à 80 % des collaborateurs à devenir soudainement des leaders dans l’IA ?
Glen Cathey : Nous n’avons jamais vraiment considéré le management comme une compétence. Ce n’est pas non plus quelque chose qu’on apprend lors d’un simple cours pour être magiquement un excellent manager de personnes, ou d’IA. Les gens doivent en faire une habitude, pour commencer à réfléchir à ces étapes.
Que suis-je en train d’essayer de résoudre ? De quelles ressources je dispose ? Quelles sont les capacités ? Comment donner suffisamment d’instructions pour qu’ils puissent bien faire leur travail pour moi ? Et comment donner du feedback ensuite ?
David Rice : Penses-tu que l’on s’accroche à certains rôles davantage par tradition que par nécessité ?
Glen Cathey : Regardons quelques solutions relativement récentes comme l’assistant de recrutement de LinkedIn. Il dispose d’un modèle distinct pour la recherche, la prise de contact, la présélection. On peut saisir des informations en langage naturel. On parle ici de l’automatisation des tâches dans le recrutement. Comprendre un poste, traduire ce poste en besoins de recherche et de matching. Il existe aujourd'hui des solutions sur le marché capables de le faire. Alors je me demande : en quoi le rôle de recruteur est-il nécessaire aujourd’hui ?
David Rice : Bienvenue sur le podcast « People Managing People » — l’émission qui aide les leaders à garder l’humain au cœur du travail à l’ère de l’IA. Je suis David Rice, votre hôte. Aujourd’hui, je reçois Glen Cathey. Il est SVP Talent Advisory chez Randstad Enterprise. Nous allons parler du chemin vers la maîtrise de l’IA et comment acquérir de vraies compétences pour y arriver.
Glen, bienvenue !
Glen Cathey : Merci beaucoup. Heureux d’être là. Hâte d’échanger avec vous.
David Rice : Absolument. J’aimerais commencer par aborder la formation en ligne. C’est évidemment un sujet pour tous, car il nous faut acquérir des compétences que nous n’avons pas encore — ou parfois même nous ne savons pas lesquelles sont nécessaires.
Quand nous nous sommes parlés avant cette émission, tu m’as dit « La formation en ligne crée de la connaissance, pas nécessairement des compétences ». Ma question : que doivent faire les entreprises pour vraiment combler cet écart et comment arrêter de considérer l’IA comme un simple cours à réussir alors qu’il faudrait plutôt l’envisager comme une culture à adopter ?
Glen Cathey : J’adore cette approche. Il est logique qu’une entreprise mise beaucoup sur la formation en ligne, car c’est le plus facile à déployer à grande échelle. Vous créez un cours et vous pouvez ensuite le diffuser à des centaines de milliers de personnes. Mais comme tu l’as dit, je pense que l’apprentissage en ligne transmet avant tout de la connaissance — ce qu’il nous faut transmettre, ce n’est pas seulement la connaissance, mais la capacité réelle, le changement de comportement est crucial dans cette démarche.
Je pense donc qu’il n’est pas judicieux de traiter l’IA générative comme un déploiement purement technique. C’est plutôt un exercice de gestion du changement, car il s’agit d’amener les gens à repenser leur manière de travailler. Il faut qu’ils changent leurs habitudes et que cela devienne un automatisme.
Cela passe surtout par l’expérimentation, l’apprentissage pratique. Ce que je recommande généralement — en interne comme en externe — c’est de développer des ateliers pratiques et expérientiels où les participants retroussent leurs manches, se lancent, font des répétitions, pour manipuler l’outil à travers des exercices adaptés à leur rôle.
Ce n’est donc plus une idée ou une notion abstraite. Ça devient concret, même si cela reste un défi car la formation est un événement ponctuel. En ligne ou en atelier, il faut vraiment se concentrer sur le renforcement, c’est ainsi que l’on façonne d’abord l’état d’esprit, puis le changement comportemental, et enfin l’installation de la nouvelle habitude.
David Rice : Oui, c’est intéressant. Regarder une vidéo de fitness ne vous rend pas en forme, n’est-ce pas ? Il faut pratiquer. Je me demande pourquoi on ne pense pas pareil ici, mais on devrait. Il s’agit de rythmer l’IA dans la pratique quotidienne, pas de forcer via les RH. Il faut intégrer l’IA dans les pratiques, par exemple intégrer des prompts IA dans les modèles de projet, le rendre naturel dans l’expérience journalière en entreprise, et encourager l’expérimentation. Tout cela est fondamental, selon moi.
Glen Cathey : Je fais partie de la table ronde World 50 AI qui se réunit chaque mois. Ça fait presque deux ans que je participe, et il y avait une citation qui m’a marqué — je ne pourrais pas la redire textuellement, mais l’idée est : la magie de l’IA générative surgit quand on l’intègre intelligemment dans les flux de travail.
Le terme que j’utilise souvent c’est « prescriptif ». Il m’est parfois difficile d’expliquer la complexité du fait que lorsqu’on déploie un ensemble d’outils IA (Copilot, Gemini ou ChatGPT) auprès des collaborateurs, ces outils sont capables de presque tout dans les tâches cognitives et la gestion de l’information.
Cela peut sembler enthousiasmant, mais c’est aussi un défi : par où commencer ? Comme tu l’évoquais avec les bibliothèques de prompt, c’est utile que les gens aient accès à des idées, à des exemples pour déclencher la réflexion. Mais il est aussi tout aussi important que chacun s’autorise à identifier de lui-même les opportunités d’avoir recours à l’IA.
Donc, il est utile d’être très prescriptif : pour ce flux de travail, pour ce rôle particulier, voici cinq moments où nous attendons que tu utilises l’IA, et voici quelques prompts. C’est important, mais il faut aussi que chacun développe la compétence d’identifier lui-même les opportunités d’utiliser l’IA.
Ce n’est pas l’un ou l’autre — c’est les deux.
David Rice : Oui, tout à fait. Il faut créer la sécurité psychologique, le sentiment que j’ai le droit d’essayer, de rater, ce n’est pas grave — c’est comme cela qu’on transforme la connaissance en compétence.
Glen Cathey : Oui, on apprend en faisant, et il existe un livre intéressant qui montre qu’on apprend le plus, y compris sur le plan cérébral, quand il y a de la difficulté, une forme de lutte. C’est fascinant. Le livre, je crois, s’intitule « The Talent Code », il explique que l’on bâtit des compétences par essais et erreurs, en commettant des erreurs puis en les surmontant.
C’est vraiment fascinant. Merci d’avoir mis en avant la sécurité psychologique. Ce qu’on constate, c’est qu’il existe déjà une pression pour atteindre ses objectifs actuels, et ralentir, prendre le temps de tester l’IA et d’expérimenter, cela freine. Beaucoup s’inquiètent : si je ralentis et expérimente, je ne serai pas expert tout de suite, ce n’est pas rassurant, surtout quand on cherche la productivité.
Il est donc crucial pour les entreprises de comprendre qu’un changement demande de ralentir pour accélérer. Comme tu le disais, il faut accepter l’expérimentation, et personne ne devient expert en un jour. Il faut offrir du temps et de l’espace à vos équipes, que cela ralentisse initialement la productivité, c’est normal, c’est attendu.
Et j’ai l’impression que les entreprises n’insistent pas assez là-dessus : donner à chacun le temps et l’autorisation d’essayer, même si cela ralentit dans un premier temps.
David Rice : C’est intéressant, on en a parlé avec d’autres invités : les gens sont très attachés aux tâches parce qu’on leur a inculqué que c’était la clé de leur valeur. On entre dans une ère où ce qui compte c’est l’apprentissage, et le potentiel de ce qu’on peut devenir, pas ce qu’on est. Le défi ici, c’est le « désapprentissage » : tout le monde a des habitudes à déconstruire puis à reconstruire différemment avec l’IA.
Penses-tu, selon toi, que l’expérience soit un « bagage » ? Comment convaincre les collaborateurs expérimentés que leurs habitudes chèrement acquises pourraient maintenant leur nuire ?
Glen Cathey : J’adore cette image du bagage. Pour moi, c’est un bagage inconscient.
Je ne me souviens pas si on en a parlé avant, tu connais sans doute les quatre niveaux de compétence. Au sommet, quand on occupe un poste depuis longtemps, on est compétent sans même y penser (compétence inconsciente). C’est le mode automatique.
C’est le cas de la plupart tant que l’on n’est pas débutant. Quand on implémente un outil comme l’IA générative, il faut se ramener au premier niveau du modèle : d’abord l’incompétence inconsciente (je ne sais pas ce que je ne sais pas), puis l’incompétence consciente (je sais que l’IA existe, mais je me rends compte que je ne sais pas l’utiliser). Ensuite, on devient compétent consciemment (je sais m’en servir, mais il faut que je fasse attention à comment je l’utilise).
L’objectif est de passer de l’automatisme à la conscience de ses processus de travail, ce qui est en effet un bagage à déposer : il faut repenser sa façon de travailler.
On dispose désormais d’une ressource disponible 24/7, prête à aider sur n’importe quelle tâche cognitive. C’est un énorme bond mental à faire, reconnaître qu’il faut ralentir, analyser ses procédures, se demander comment on peut utiliser l’IA pour améliorer la qualité, pas seulement l’efficacité du travail, mais aussi les décisions, les résultats, même l’expérience client.
Il y a donc plein de variables, bien au-delà du gain de temps ou de la réduction des tâches ingrates.
David Rice : Il faut aussi changer la perception de l’apprentissage. On n’abandonne pas son expertise — c’est plutôt comme une mise à jour logicielle, pas une perte de son expérience, mais l’ajout de nouveaux réflexes. Les études montrent que les personnes compétentes qui intègrent l’IA dans leur pratique voient leur impact progresser.
Donc il s’agit de mieux faire comprendre ce que signifie désapprendre et réapprendre. Collaborer avec une IA, c’est parfois comme manager une personne : déléguer des tâches, fixer des objectifs, donner du feedback. Si la plupart n’a jamais géré quelqu’un, comment former 80% de l’entreprise à devenir des « leaders de l’IA » ?
Glen Cathey : C’est le sujet qui m’occupe ces derniers mois. En fait, la bonne façon d’appréhender le travail avec l’IA est de la considérer comme une ressource à manager et avec qui collaborer.
C’est difficile pour la majorité qui n’a jamais managé. Les gens collaborent bien sûr avec d’autres, mais rarement instantanément — il faut organiser des réunions. Donc il faut revoir sa façon de travailler et former aux compétences managériales.
Première étape : identifier/décomposer le problème. Cela sonne sophistiqué, mais c’est juste « Que dois-je faire exactement ? » Comme on l’a dit, la plupart sont en mode pilotage automatique. Il faut ralentir, se demander « Que dois-je résoudre ? » puis « De quelles ressources je dispose ? » Avec l’IA désormais comme atout, il faut fournir des instructions de niveau expert, assez de contexte, qui je suis, ce que je veux, pourquoi etc.
Et une fois le travail effectué, il faut donner du feedback comme un manager le ferait.
Tout cela, c’est rarement enseigné à des contributeurs individuels. Le management ne s’acquiert ni par miracle ni par une simple formation. Il faut en faire une habitude, une routine : identifier le problème, recenser les ressources, comprendre les capacités, transmettre de l’instruction, fournir du feedback et continuellement améliorer la qualité de la production.
David Rice : Exactement. Pour former à cela, il y a de vraies opportunités, par exemple via des simulations où les employés coachent une IA pour améliorer ses résultats, un peu comme un manager qui donne du feedback, et on peut aussi juger la qualité de leur coaching, la clarté, la boucle de feedback… Les compétences managériales sont là et c’est paradoxalement l’IA qui pourrait nous apprendre à les développer.
Glen Cathey : Je suis d’accord. Et l’idée que tu viens de donner m’a fait penser qu’on peut très bien créer un prompt ou utiliser Gemini, Gem, ChatGPT, un GPT personnalisé, où on indique à l’IA de poser des questions pour vous coacher tout au long du processus. Donc elle ne se contente pas d’attendre vos instructions, elle vous guide par des questions. C’est tout à fait faisable aujourd’hui avec n’importe quel outil commercial.
Cela permet de l’entraîner à mieux se manager, et il est ironique de penser que l’IA pourrait nous aider à progresser aussi sur les soft skills, comme l’empathie ou l’intelligence émotionnelle. De nombreuses études ont montré que, dans des tests à l’aveugle, des personnes jugent la sortie de l’IA plus empathique, plus sensible que l’humain. C’est stupéfiant ; cela signifie que si vous travaillez avec cet agent, il ne sera pas seulement fort sur le plan technique, logique ou de calcul, mais pourra aussi vous aider à progresser sur des aspects humains et relationnels qu’on n’aurait jamais imaginé déléguer à l’IA.
David Rice : C’est une époque fascinante à vivre ! Jamais je n’aurais pensé voir cela. On a parlé aussi du fait que le déploiement d’IA à grande échelle, c’est comme doubler vos équipes du jour au lendemain. Mais quel en est le coût caché ou le risque, d’un point de vue organisationnel, d’avoir soudain deux fois plus de collaborateurs, dont la moitié ne dort jamais, mais qui n’agira jamais sans consigne, ni en autonomie ?
Glen Cathey : C’est une comparaison utile pour éveiller les consciences dans les entreprises. Ce n’est pas simplement déployer des licences que les gens utiliseront ou non. Si on le voit comme un doublement de la main d’œuvre, il y a une prise de conscience, et une pression pour s’assurer que ces « ressources » travaillent vraiment, sinon elles sont gaspillées. Si vous recrutiez réellement deux fois plus de collaborateurs, il y aurait une véritable anxiété pour veiller à leur productivité.
Mais rares sont les dirigeants qui se posent cette question avec l’IA générative. Or, cela implique de former les contributeurs individuels à gérer ces ressources, ce qui manque aujourd’hui : vous avez embauché ces ressources IA, capables de travailler, d’automatiser ou d’augmenter les capacités humaines, mais qui va les manager, comment les accompagner ? Pour moi, l’enjeu est de réaliser que si vous doublez votre workforce, vous êtes responsable de leur montée en compétence — et cela devrait générer une saine « anxiété » sur leur bonne utilisation, même si cela coûte moins cher qu’un humain !
De plus en plus d’entreprises déploient l’IA à grande échelle et l’accès aux outils n’est plus un avantage compétitif. Votre différenciation repose sur la capacité à accompagner vos équipes vers l’usage optimal, ce qui ramène à tout notre propos et devrait renforcer la pression à s’assurer que l’investissement soit valorisé.
David Rice : Oui, je ne pourrais pas mieux dire — l’avantage concurrentiel ne vient plus seulement de la technologie, ça devient la norme. Le vrai enjeu, c’est de penser ces nouveaux outils comme une charge managériale : chaque nouvel agent ou outil requiert briefing, contrôle, confiance. On doit intégrer ces dimensions dans l’opérationnel, adopter la même rigueur en gouvernance IA.
Glen Cathey : Tout à fait. Il existe une gouvernance centrale et aussi une gouvernance « décentralisée » jusqu’à l’utilisateur terrain. On revient à la formation, à la transmission des bonnes pratiques et des pièges à éviter. Oui, il y a des hallucinations, ou ce que certains appellent « AI slop », mais à mes yeux ce n’est pas un problème technologique, c’est un problème humain.
Si de mauvais résultats sont produits, c’est à nous de les filtrer ! Ce que l’humain apporte, c’est la pensée critique, la vérification, la revue, exactement comme un manager vérifiant le travail d’un collaborateur avant diffusion. Donc à grande échelle, il faut former en continu, rappeler sans cesse l’importance de la qualité et de la vérification, le fait checking, mais aussi le ton, la conformité de l’output.
Aujourd’hui, il est simple de générer des résultats moyens, mais pour de l’excellence, il faut investir du temps et de l’exigence dans l’élaboration du prompt et la vérification. Ce n’est pas la faute de l’IA, mais bien la nôtre si quelque chose de médiocre est publié !
David Rice : Voici la rubrique Data Bite de la semaine. Le chiffre à retenir : 64 %. Selon le dernier rapport « AI Pulse » d’EY, 64 % des cadres supérieurs disent que la peur d’être remplacé par l’IA freine l’adoption en interne. Pourtant, seuls 24 % considèrent la résistance des employés comme un obstacle majeur. Arrêtons-nous sur cette contradiction. Cela signifie que les dirigeants voient cette peur… mais ne la nomment pas comme un vrai problème. Ils citent la préparation des données, la cybersécurité, la conformité réglementaire. Ce que j’observe réellement, c’est que le coût humain est recodé en problème technique.
Deux tiers des dirigeants savent que leurs personnels craignent l’obsolescence, mais cette peur n’est pas traitée comme la crise qu’elle est. La véritable question n’est pas « comment surmonter la résistance à l’IA », mais : « Que révèle notre organisation, si nos équipes sont terrifiées à l’idée d’être remplacées et que l’on fonce quand même ? » Car voici une vérité inconfortable : quand 64 % des dirigeants voient la peur, mais seulement 24 % l’abordent comme une barrière, on ne résout pas la question du bien-être humain, on l’esquive. Ce n’est pas un problème de management du changement, c’est une question fondamentale sur la place humaine dans un monde qui cherche à se passer de l’humain.
On n’a pas encore ce débat honnêtement. Allez, retour à l’émission.
Je dis toujours : ce n’est jamais la technologie, c’est le choix d’usage. Si nous l’utilisons paresseusement, on aura des résultats paresseux : de la médiocrité, quel que soit le poste concerné, cela ne change rien. Il faut donc apprendre à la challenger, à s’assurer qu’elle donne le résultat souhaité.
Glen Cathey : Merci d’utiliser le mot « paresse », car c’est ce que j’essaie d’inculquer : je reste très transparent, je suis au même niveau d’apprentissage que tout le monde avec ces outils, et il m’arrive d’être agacé du temps requis pour détailler suffisamment un prompt.
Je dois sans cesse me rappeler qu’un effort de quelques minutes supplémentaires pour ajouter du contexte produira des résultats bien meilleurs. Vous devez donc, en tant que manager de ces outils, ne pas être un manager paresseux. Les bons managers, quand ils délèguent, vérifient toujours que la consigne a été bien comprise, donnent des exemples ; ils laissent l’employé poser des questions. Eh bien, avec l’IA, c’est pareil.
Petite astuce en formation : terminez toujours vos prompts par « pose-moi quelques questions, une par une, pour mieux réussir ta tâche ». On traite alors l’IA comme une personne. Si vous managez, faites-le aussi sérieusement que pour un être humain.
Beaucoup formulent des requêtes minimales à l’IA (une phrase) — comme à un humain, ce ne sera jamais un bon résultat. Donc il faut le même niveau d’exigence vis-à-vis de l’IA que de vos collaborateurs humains.
David Rice : Beaucoup réagissent mal quand on dit « traitez l’IA comme un humain » — mais ça ne veut pas dire lui confier ses soucis ! Il faut juste lui donner le même contexte, car ce n’est pas un génie naturel, cela reste un outil très rapide, très puissant, mais sans contexte, ça peut donner tout et n’importe quoi.
Glen Cathey : Cela me fascine toujours. On dit souvent « garbage in, garbage out » — ce n’est même plus la réalité, car même avec un prompt basique aujourd’hui, l’IA générera quelque chose de bon. Mais ce ne sera pas tout son potentiel ! Le minimum d’entrée produit du raisonnable, mais jamais l’excellence. Et comme tu le disais : plus on apporte d’informations, plus le résultat sera à la hauteur. Petite astuce aussi : demandez toujours à l’IA de vous interroger sur ce qu’elle a encore besoin de savoir pour faire au mieux. Vous serez surpris par l’intelligence de ces questions, auxquelles vous n’auriez pas pensé, mais qui sont essentielles. Dès que le résultat est moyen, je dis aux gens de se remettre en question — si la sortie est banale, vous êtes probablement responsable à au moins 50 %. Il faut se sentir responsable de fournir un input adéquat !
On vit une période incroyable où on peut parler en langage naturel à la machine. Avant, c’était impossible — même si on pouvait dicter un texte, cela n’avait rien à voir avec l’IA générative actuelle. Beaucoup se montrent paresseux sur les instructions, sans réaliser qu’en quelques minutes de plus, l’outil rend un bien meilleur service ; et si vous trouvez la saisie lente, utilisez le micro et dictez !
David Rice : C’est une capacité incroyable !
Glen Cathey : Absolument. Nous tenons cela pour acquis, mais il y a encore peu c’était impensable. On se souvient des téléphones à fil cloués au mur…
David Rice : Les téléphones de voiture !
Glen Cathey : Oui, et aujourd’hui tout est mobile, la musique est digitale… Un jour, on rira du fait qu’on devait taper sur des touches pour communiquer avec la machine. Taper sur un clavier était une barrière, qui n’existe plus : il suffit de parler.
David Rice : L’IA accepte vos longs messages vocaux sans s’agacer !
Glen Cathey : Exactement, elle ne s’énerve jamais, même si vous êtes bavard !
Et elle comprend super bien même les notes rapides, quasiment incompréhensibles d’une prise de note, et refait un texte clair, là où personne n’y arriverait. L’IA y parvient, c’est fascinant.
David Rice : Beaucoup d’entreprises s’arrêtent à la littératie IA, et restent en mode pilote : elles forment un peu, et puis c’est tout. Mais comment, selon toi, permet-on réellement de passer à la maîtrise ?
Glen Cathey : Le levier numéro un, c’est le leadership : vous pouvez avoir la meilleure formation, ce sont les leaders qui doivent montrer l’exemple, vivre la vision, et s’assurer que tout le monde, à tous les niveaux de management, soit tenu responsable, pour encourager la réalité quotidienne du changement. Sans alignement du leadership, du sommet aux managers de terrain, impossible d’installer une culture du réflexe IA.
David Rice : Il faut aussi que les leaders incarnent la maîtrise, pour que les salariés soient prêts à reconfigurer un workflow sans y être poussés, et déplacer le curseur mental du taux d’exécution vers le gain de capacités, surveiller qui l’utilise, à quoi, et ce qui change dans les résultats. Ces changements de mentalité ne se feront pas sans pratique et sans leaders qui montrent la voie.
Glen Cathey : Les employés voient ce qui se passe, et dans toute grande organisation c’est la distribution classique : des early adopters naturellement moteurs, des sceptiques ou prudents, et la masse centrale. Pour faire avancer, il faut former et responsabiliser à chaque niveau. Parfois, il suffit que l’utilisation de l’IA soit abordée à chaque réunion d’équipe, recenser les cas d’usage, les partager, voire intégrer la maîtrise IA dans la revue de performance — pas comme une sanction, mais comme une opportunité positive. Rien que de le savoir, les salariés s’y mettront. Parfois ce sont ces petites actions du leadership qui tirent un collectif vers les bons comportements… et l’inertie sera vite perçue comme absurde, comme si aujourd’hui on refusait Internet. C’est l’avenir, il faut s’y mettre !
David Rice : Oui, surtout dans les postes informatisés : refuser l’IA, c’est comme refuser Internet, c’est impensable. On va y arriver !
Glen Cathey : Je pense aussi. C’est comme avec n’importe quelle technologie, prenons Excel : la plupart ne connaissent qu’une infime partie de ses fonctions. Il existe des métiers dédiés à former sur Excel ! C’est pareil pour l’IA : tout le monde n’utilisera pas 100% de sa puissance, mais il faut s’orienter vers la mentalité IA, ne pas rester coincé dans la peur d’être dépassé ; c’est comme avoir refusé MS Office à sa sortie, vous êtes vite dépassé. L’IA, ce sera pareil — tôt ou tard, il faudra s’y mettre, sous peine de se marginaliser.
David Rice : En recrutement, par exemple : l’IA peut gérer tout, du sourcing à la sélection, même les messages. Où se situe la frontière entre l’augmentation et le remplacement ? Cette peur, est-elle légitime ? Est-ce qu’on s’accroche à certains rôles plus par tradition ?
Glen Cathey : Beaucoup se posent la question. Prenons l’assistant de recrutement LinkedIn : c’est un modèle multi-agent, avec un agent pour la recherche, un autre pour la prise de contact, un autre pour le screening. Vous pouvez saisir les critères en langage naturel, comme dans d’autres outils. L’automatisation va donc loin : comprendre le poste, formuler les critères, trouver, engager, présélectionner… tout ça est faisable aujourd’hui. Alors pourquoi le recruteur existe-t-il ?
Dans les petites structures, c’est le manager qui recrute. Mais plus l’entreprise grandit, plus il faut déléguer. Quand la technologie réalise tout cela, pourquoi ne pas imaginer, pour certains contextes, que le manager soit l’utilisateur final de l’assistant IA ? Ce n’est pas encore généralisé, mais la capacité technique existe dès aujourd’hui. Certains managers préféreront toujours déléguer à un recruteur humain ; ce sera donc une configuration au cas par cas.
Dans ce contexte, la valeur humaine c’est la construction de la relation, la persuasion, la capacité à comprendre un candidat inactif, à l’écouter, à matcher ses aspirations. C’est le conseil, l’accompagnement. Il y aura toujours une place pour l’humain. Mais le choix, entreprise par entreprise, sera stratégique.
Là où vous mettez de l’humain, cela peut aussi être un différenciateur positif, et là où vous mettez de l’IA aussi — par exemple, fournir du feedback automatisé à tous les candidats, ce qu’aucun humain ne peut assurer. L’IA pourra combler ce manque, au bénéfice de l’expérience. Donc, tout est affaire d’arbitrage et la technologie rebat les cartes.
David Rice : Je pense que l’on sous-estime la part mécanique du travail. L’IA y excelle, mais la vraie valeur humaine reste dans le jugement, l’histoire, l’empathie ; d’ailleurs le rôle peut subsister plus par identité que par utilité. Le feedback systématique aux candidats via l’IA pourrait redéfinir l’expérience, il faut repenser : ce n’est pas « est-ce que l’IA va me remplacer ? », mais « Qu’est-ce qui mérite mon attention, et comment l’IA va-t-elle m’y aider ? »
Expérience personnelle : je me rends compte aujourd’hui que des tâches anciennes, auxquelles je tenais, peuvent être automatisées, pour me concentrer sur des sujets à valeur ajoutée ou que je voulais déjà traiter.
Glen Cathey : C’est exactement cela : ne pas simplement regarder le cycle classique du talent management, mais imaginer de nouveaux processus, du fait des capacités radicalement nouvelles permises par l’IA. Ce n’est pas juste « insérer » une technologie dans un process existant, mais redessiner l’expérience de fond en comble. C’est ça, la vraie promesse… et il y a déjà des entreprises qui le font. Le déblocage ne sera pas complet sans une refonte totale, sinon on n’atteindra jamais tout le potentiel.
David Rice : Oui, il faut parfois tout déconstruire. Glen, merci infiniment d’avoir été avec nous aujourd’hui, merci pour ta disponibilité et tes partages.
Glen Cathey : Merci à vous, c’était passionnant !
David Rice : Chers auditeurs, suivez Glen sur LinkedIn. Si ce n’est pas déjà fait, rendez-vous sur People Managing People, créez un compte gratuit dans la communauté, abonnez-vous à la newsletter — à la prochaine !
