L’IA est censée libérer les gens pour des « tâches à plus forte valeur ajoutée ». Très bien. Mais en quoi consistent exactement ces tâches ? Dans cet épisode, David Rice s’entretient avec la chercheuse en cyberpsychologie et psychothérapeute, la Dre Rachel Wood, au sujet d’un aspect de l’adoption de l’IA que la plupart des organisations survolent : le coût humain d’une automatisation trop rapide et trop massive, sans réelle réflexion sur ce qui doit rester profondément, farouchement humain.
Leur conversation va droit au but et dépasse l’optimisme habituel autour de l’IA pour révéler une vérité plus inconfortable. Oui, certaines frictions doivent disparaître. Personne n’a besoin de passer une heure à copier-coller des données dans un tableur. Mais d’autres frictions font partie du travail : le désaccord, le discernement, les discussions difficiles, apprendre en se trompant, et découvrir qui l’on est lorsque son expertise devient soudain facile à imiter. C’est vraiment de cette distinction dont il est question dans cet épisode, et pourquoi les dirigeants doivent cesser de voir l’IA comme un simple déploiement logiciel, et la considérer comme un défi de développement humain.
Ce que vous allez apprendre
- Pourquoi « être plus stratégique » et « être plus collaboratif » sont des résultats, pas des consignes à appliquer
- La différence entre la friction administrative et la friction relationnelle
- Comment l’usage excessif de l’IA peut éroder les habitudes fondamentales de communication et de réflexion
- Pourquoi l’adoption de l’IA est souvent freinée par l’ambivalence plutôt que par un manque de formation
- Comment l’automatisation peut entraîner une perte d’identité, du chagrin et une incertitude professionnelle
- Pourquoi les dirigeants ont besoin d’une philosophie de l’IA, et pas seulement d’une politique d’IA
- Comment utiliser l’IA comme outil de répétition pour renforcer le jugement et la communication humains
Points clés à retenir
- Toute friction n’est pas mauvaise. La corvée administrative peut tout à fait être automatisée. La friction relationnelle, non. Si les gens perdent leur tolérance au désaccord, à la nuance et à l’inconfort, ils ne deviennent pas plus humains au travail. Ils deviennent moins capables d’effectuer la part humaine du travail correctement.
- Les compétences de base s’étiolent quand on ne les pratique plus. Déléguer chaque courriel simple ou tâche de communication à faible enjeu peut sembler anodin, jusqu’à ce qu’au bout de six mois, les gens deviennent moins clairs, moins réfléchis et moins capables d’exprimer le fond de leur pensée.
- La formation seule ne résoudra pas la résistance à l’IA. Rachel affirme que de nombreuses équipes ne manquent pas d’informations. Elles éprouvent des sentiments mitigés : peur, excitation, incertitude, bouleversement identitaire. Il faut nommer cette ambivalence avant de faciliter l’adoption.
- Les « petits boulots » apportaient plus qu’une perte de temps. Ils apprenaient aussi le contexte, le jugement et le fonctionnement réel des organisations. Il n’est pas nécessaire d’être nostalgique de l’inefficacité pour reconnaître que traverser ces étapes répétitives renforçait les capacités de leadership.
- Il s’agit aussi d’un processus de deuil. Lorsque l’IA commence à reproduire ce que quelqu’un a mis des années à maîtriser, ce n’est pas juste un changement de flux de travail. Cela peut être vécu comme une perte personnelle et professionnelle. Prétendre le contraire ne fait pas disparaître ce sentiment.
- Les dirigeants doivent montrer l’exemple. Avant de demander aux équipes de s’adapter, les dirigeants doivent confronter leurs propres questions nocturnes sur l’IA. L’anxiété a tendance à s’insinuer dans la culture si elle n’est pas exprimée.
- Utilisez l’IA comme répétition, pas comme remplacement. L’une des idées les plus concrètes de l’épisode : utilisez un chatbot pour simuler des conversations difficiles, des appels de vente ou des situations interpersonnelles. Laissez-le révéler vos angles morts, entraînez-vous… puis faites le vrai travail humain vous-même.
- Une politique, c’est utile, mais une philosophie est plus importante. Les personnes ont besoin de clarté sur les usages acceptables de l’IA. Mais au-delà, les organisations doivent définir quels comportements encourager, quel jugement préserver, et ce qui doit rester profondément humain à leurs yeux.
Chapitres
- 00:00 – IA et déclin de la communication
- 02:26 – Définir le travail à plus forte valeur ajoutée
- 04:59 – Soutenir l’adoption de l’IA
- 06:05 – Quand ne pas utiliser l’IA
- 09:09 – Bonne vs. mauvaise friction
- 12:14 – La barrière de l’ambivalence
- 14:24 – La valeur des tâches ingrates
- 16:50 – Perturbation de l’identité au travail
- 21:47 – Nommer le deuil au travail
- 25:47 – Difficulté productive
- 29:02 – L’IA comme répétition
- 32:42 – Politique vs. philosophie
- 34:32 – Rythme du changement
- 35:36 – Protéger le développement humain
Rencontrez notre invitée

Dre Rachel Wood est la fondatrice du AI Mental Health Collective, une communauté interdisciplinaire qui fait progresser les conversations et les collaborations responsables à l’intersection de l’intelligence artificielle et de la santé mentale. Titulaire d’un doctorat en cyberpsychologie et forte de son expérience en tant que conseillère accréditée, elle intervient en tant que conférencière, conseillère et consultante spécialisée sur l’influence des technologies émergentes dans la transformation du lien humain, de la prise de décision et du bien-être émotionnel. Reconnue pour sa vision équilibrée et nuancée, Rachel rassemble cliniciens, technologues et chercheurs afin d’explorer à la fois les opportunités et les complexités éthiques de l’IA dans la santé mentale et l’avenir des relations humaines.
Liens connexes :
- Rejoignez la communauté People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Contactez Rachel :
- AI Mental Health Collective
- Site web de Rachel : cliquez ici
Articles et podcasts connexes :
David Rice : Votre équipe utilise l’IA pour rédiger des e-mails depuis six mois. Des messages simples, des réponses rapides, rien de compliqué. Et vous commencez à remarquer un déclin de qualité. Les messages semblent génériques. Il y a moins de personnalité. Moins de clarté sur ce qui compte vraiment. Ils ne perdent pas leur capacité à communiquer, mais ils perdent la pratique de réfléchir à ce qu’ils veulent réellement dire.
L’invitée d’aujourd’hui est la Dre Rachel Wood, chercheuse en cyberpsychologie et psychothérapeute, qui se trouve à l’intersection entre l’IA et la santé mentale. Et elle va aborder un sujet que beaucoup d'entre nous ressentent, même si on ne le nomme pas toujours. Nous abaissons notre tolérance à la friction, toute friction. Même celle qui est bénéfique.
Il existe deux types de friction au travail. La friction administrative, copier-coller des tableaux Excel pendant une heure. Ce genre de tâche, l’IA devrait l’éliminer. Mais il existe aussi une friction relationnelle. La tension lorsqu’un collègue pense différemment de vous. La négociation nécessaire lorsque vous n’êtes pas d’accord. L’inconfort des conversations difficiles.
C’est problématique. Parce que si nous automatisons tout désagrément, nous ne serons pas libérés pour faire le travail le plus humain par nature. Le travail humain comporte de la friction. Cela implique de tolérer que votre collègue voie le projet autrement. Cela demande d’apprendre à mieux travailler ensemble, ce qui est une compétence qui ne s’improvise pas. Mais personne ne remet aux gens un mode d’emploi pour s’améliorer sur le volet humain de leur travail.
Les dirigeants ne cessent de dire : soyez plus stratégiques, soyez créatifs, soyez collaboratifs. Mais ce sont des résultats, pas des instructions. Et pendant ce temps, les adultes perdent patience pour apprendre de nouveaux outils, les enfants peinent à se concentrer sur la lecture. Quelque chose change structurellement dans notre façon de gérer la difficulté. Aujourd’hui, nous allons donc parler de comment utiliser l’IA pour devenir plus humain, pas pour remplacer notre humanité.
Les compétences en communication reculent lorsque l’on cesse de les pratiquer. Quand vous avez besoin d’une philosophie de l’IA, et pas seulement d’une politique. Si la vitesse du changement dépasse la capacité d’adaptation du psychisme humain. Et comment distinguer la friction à supprimer de la friction à préserver.
Je suis David Rice. Voici People Managing People. Et si vous traitez l’IA comme un simple déploiement d’outil et non comme un défi de développement humain, j’espère que cette conversation va tout reposer à plat pour vous. Allons-y.
Très bien. Rachel, bienvenue dans l’émission. Heureux de t’accueillir.
Rachel Wood : Merci beaucoup. J’attendais cela avec impatience. Ravie d’être là.
David Rice : Là où je voulais commencer cette conversation, c’est que je pense souvent que les dirigeants passent l’essentiel des deux dernières années à dire à leurs équipes que l’IA va leur libérer du temps pour des tâches à plus forte valeur ajoutée. Et je l’entends encore parfois, alors que je pensais que ce serait devenu un cliché.
Mais c’est encore répété. Mais je dirais que la plupart n’ont jamais défini ce que sont ces tâches de plus grande valeur. Tu as une position assez claire sur ce que ça devrait être. Raconte-nous ce que c’est et pourquoi.
Rachel Wood : Je l’entends aussi souvent, David, et je pense effectivement que cela dépend du contexte. Il n’existe pas de solution universelle, car différents secteurs et équipes vont se concentrer sur des sujets spécifiques, mais ce travail peut vraiment consister à favoriser la créativité et l’innovation.
En supprimant une partie de la charge administrative, il y a plus d’espace cognitif pour vraiment imaginer. Créer, essayer de nouvelles choses, réfléchir à comment innover sur le lieu de travail. Et on est aussi libérés pour apprendre à mieux travailler ensemble, créer une cohésion au sein des équipes, quelque chose qui auparavant manquait peut-être d’espace cognitif, mais que l’on peut vraiment développer maintenant.
Comment bien travailler en équipe ? Eh bien, c’est une compétence. Cela ne se produit pas simplement parce qu’on a réuni les bonnes personnes, il faut aussi apprendre à collaborer. On peut donc l’apprendre, l’enseigner, et c’est un autre aspect sur lequel il y a désormais plus de temps à consacrer, je pense.
David Rice : Oui, je suis d’accord, et tout ça... C’est marrant car tout cela me parle beaucoup. Je l’ai entendu moi-même. Et je remarque ce schéma où les entreprises déploient l’IA, puis demandent aux gens d’être plus stratégiques, créatifs ou collaboratifs, et tout cela ce sont des résultats.
Ce ne sont pas vraiment des instructions. Personne ne vous remet un manuel pour s’améliorer sur la dimension humaine ou maximiser sa contribution unique en utilisant l’IA pour pallier ses faiblesses. Ce qui est intéressant, c’est que tu dis que l’outil lui-même pourrait constituer une partie du mode d’emploi, ce à quoi beaucoup ne pensent même pas.
Rachel Wood : Je suis totalement d’accord. Et je pense qu’un point vraiment important, c’est que lorsque vous attribuez une ligne budgétaire à votre initiative IA, peu importe laquelle, il faudrait qu’il y ait aussi un budget pour accompagner les gens dans son utilisation.
Vous payez X pour la technologie, très bien. Mais elle n’est vraiment consolidée que si vous formez les gens à interagir avec, à savoir quoi faire et ne pas faire. Et comme tu l’as dit, cette idée d’utiliser l’IA pour progresser soi-même. Ce serait intéressant, David, juste de brancher votre chatbot et lui dire : Salut, tu m’aides à me décharger de mon administratif...
Que devrais-je faire en tant qu’humain pour m’améliorer, dans mon poste, et que toi chatbot tu ne peux pas faire, mais que moi l’humain je peux réaliser. Donc, c’est intéressant de se dire : utilisons l’IA pour mieux faire ce que nous faisons.
David Rice : Absolument. C’est marrant aussi car j’étais à une conférence cette semaine et tout le monde parlait d’être agacé par les collègues ou subalternes qui s’en servent pour écrire des e-mails.
Et je me dis : oui, c’est un peu exaspérant. On ne peut pas écrire un e-mail soi-même ? Et si tu demandes à l’IA "Dois-je écrire un e-mail ? Dois-je utiliser l’IA pour ça ?" Je pense que Claude te répondrait que ce n’est pas une tâche nécessaire pour lui. On doit donc réfléchir différemment.
Maintenant, Claude dirait sans doute : si tu as une réponse dense à clarifier, ou s’il y a beaucoup de nuances et de contexte à reformuler, c’est différent. Et là, on serait d’accord pour dire que c’est un cas d’usage légitime. Tu veux transmettre quelque chose de complexe et l’IA peut t’aider à mieux formuler.
Surtout si c’est un message important pour l’entreprise. Ok, parfait. Mais si c’est juste : tu réponds sur un retard de rapport... Non, il faut raisonner un peu !
Rachel Wood : Il y a un énorme besoin de discernement pour savoir quand l’utiliser ou non.
Si on ne fait aucune discrimination et qu’on l’utilise pour tout, à la longue, certaines tâches simples, en fait, on ne saura plus les faire. Notre capacité à les exécuter va s’éroder au fil du temps. Donc ton exemple, David, de demander à un chatbot pour un e-mail simple, ça ne paraît pas grave de déléguer ça, mais reviens me voir dans six mois pour me dire comment tu abordes ce même e-mail seul.
Il faut se demander : que sommes-nous prêts à ne plus savoir faire après six mois ou un an sans pratiquer, et à collaborer avec l’IA de façon à ce qu’elle renforce notre pensée sans la remplacer.
David Rice : Je pense que le problème est plus grave que beaucoup ne l’imaginent. Ce dont on parle là, même pour un simple e-mail, c’est de la communication, apprendre à communiquer avec ses collègues et à dire les choses comme il faut.
C’est une compétence humaine, que l’on acquiert souvent par essai-erreur, en lisant le langage corporel, en sondant le contexte. Les dirigeants observent des phénomènes étranges, et on le constate nous-mêmes.
Même avec des collègues, dans tous les secteurs, j’ai l’impression que les adultes n’ont plus la patience d’apprendre de nouveaux outils. Au bout de deux minutes, on abandonne, on passe à autre chose. Le zapping est fou. Les enfants peinent à lire. On le voit tout le temps.
Alors, d’un point de vue psychologique : est-ce un simple changement de préférence ou bien y a-t-il autre chose, un changement structurel dans la gestion des difficultés ?
Rachel Wood : Je pense qu’il faut regarder l’historique qui nous a menés jusque-là. Il y a eu les réseaux sociaux. Même en remontant à l’invention d’Internet puis son extension via les réseaux sociaux, tout ça a contribué à la situation actuelle.
Donc l’IA en elle-même, on ne peut pas en faire le seul responsable, mais on voit qu’elle amplifie certaines structures existantes, comme la faible capacité à rester concentré. Je pense aussi qu’un aspect de ce que tu dis, David, c’est la friction.
Tu dis que les gens ont moins de tolérance pour la friction. Et je veux différencier deux frictions ici. La première c’est la friction administrative, par exemple, pour corriger un tableur il faut copier-coller, c’est une heure de travail, c’est du temps. C’est de la friction qu’on veut supprimer parce que l’IA peut s’en charger.
Cette friction administrative, on souhaite la diminuer, voire la supprimer. Mais il existe aussi une friction bénéfique, qui est plutôt relationnelle : tolérer que tu penses différemment de moi, David, et que tu as une autre vision du projet.
Il va donc falloir négocier, trouver un compromis, communiquer. Or, je n’ai jamais connu aucune relation sans friction, qu’il s’agisse d’un collègue, d’un partenaire, d’un ami, d’un membre de la famille. Il y a toujours un peu de friction.
Donc la réalité, c’est que si l’on continue de réduire notre tolérance à la friction, nous ne serons plus capables de réaliser les tâches humaines, car les choses humaines comportent de la friction, des conversations difficiles, des points de vue divergents. Il faut donc muscler notre capacité à gérer les difficultés ensemble au travail.
David Rice : Oui, cette distinction sur la friction est clé. Je repense à certaines conversations récentes, à d’autres entendues autour de moi. Je crois que les dirigeants supposent un peu que si des gens ont du mal avec un nouvel outil, c’est essentiellement un problème de processus ou de formation à régler par l’éducation.
Mais si on raisonne en termes de friction, il ne s’agit pas d’un manque d’informations mais de la capacité à persévérer, à supporter l’effort long et difficile. Sinon cette capacité va finir par s’éroder, et cela m’amène à penser à ce qui arrive à ceux qui montent dans des organisations aujourd'hui.
Ceux qui n’ont jamais vraiment dû faire les choses à la dure.
Rachel Wood : Oui. Avant de te répondre, David, parce que ce point était important. Ce que tu dis, c’est qu’on ne peut pas tout régler par la formation. Parfois ça aide, mais ce n’est pas toujours la réponse.
En fait, une solution — et c’est ce que j’étudie et applique auprès des organisations — est d’apprendre à gérer l’ambivalence ressentie envers l’IA. Par ambivalence, j’entends des sentiments partagés, des pensées conflictuelles : je suis à la fois enthousiaste et nerveux, j’ai des inquiétudes.
La plupart des gens ressentent une forme d’ambivalence à l’égard de l’IA et cela ne se résout pas par une formation technique. Mais il existe des façons d’aborder cette ambivalence qui peuvent réellement augmenter l’adoption de l’IA. Car si vos équipes sont ambivalentes, ce qui est courant, cela bloque l’adoption et la formation ne suffit pas.
Mais si l’on se concentre sur l’ambivalence et qu’on anime la discussion autour de l’évolution de l’identité professionnelle, là on fait tomber les barrières et on permet une adoption bien plus large de l’IA.
David Rice : Il existe un contre-argument selon lequel les années de labeur du début de carrière étaient inefficaces. C’est le type de raisonnement de Sam Altman quand il dit qu’il faut 20 ans à un humain pour manger et que cela consomme autant d’énergie qu’un prompt IA.
Selon cette logique, ce travail pénible était inefficient, et l’IA permet d’aller plus vite vers les vraies responsabilités. Mais psychologiquement, pourquoi le fait de galérer sur une tâche difficile forge-t-il une confiance en soi qu’on ne peut pas obtenir autrement qu’en la vivant ?
Rachel Wood : Oui. Pensons-y comme à une échelle de carrière. Imaginons : sortie de l’université, premier emploi, que fait-on ? On va chercher du café, on envoie des fax, on va acheter des donuts au coin de la rue. Ça n’a apparemment rien à voir avec le métier, mais en même temps, on absorbe l’ambiance, la façon dont le secteur fonctionne.
On entend les conversations, on observe les dirigeants, on apprend les ficelles du métier, tout en faisant le travail de base de l’entreprise. Si ce travail disparaît et que l’IA le remplace, ceux qui arrivent dans le secteur passent à côté d’étapes cruciales pour devenir de bons leaders plus tard.
Il est important de faire ses propres armes, car cela rend plus compétent, plus reconnaissant, permet de mieux comprendre comment gérer quand on devient dirigeant. Sauter cette étape, c’est rater beaucoup.
David Rice : C’est le point que l'on perd dans le discours sur l’efficacité. Personne ne plaide pour l’inefficacité par principe. Mais les dirigeants honnêtes diront que s’ils ont confiance dans leur jugement, c’est parce qu’ils se sont suffisamment trompés par le passé pour savoir ce que signifie avoir raison.
On ne peut pas court-circuiter ça, on ne peut pas le télécharger ! J’aimerais aller plus loin : il ne s’agit pas juste de compétences ou de confiance. Beaucoup disent que ça touche à quelque chose de très personnel, une question d’identité.
Ce challenge de l’IA est avant tout une question d’état d’esprit. Ceux qui s’en sortent le mieux, quels sont les traits que tu observes chez eux qui les aident à s’adapter ?
Rachel Wood : Oui. Et pour compléter ce que tu viens de dire — tu as très bien résumé : avoir eu tort assez souvent pour savoir ce que c’est d’avoir raison. Cela signifie avoir la connaissance plus l’expérience. L’IA a la connaissance sans l’expérience.
Si l’IA fait une erreur, elle n’en subit pas vraiment les conséquences, juste l’adaptation à l’utilisateur. Mais nous, quand nous nous trompons, nous apprenons sur nous-mêmes, on doit parfois s’excuser, on est humilié, gêné… On grandit. Le savoir couplé à l’expérience est capital pour former des leaders sur le long terme, ce que l’IA ne possède pas.
Revenons à l’identité. Notre identité professionnelle, je suis sûre que tu es d’accord David, qui nous sommes dans le monde du travail constitue une grosse part de notre identité globale.
On passe beaucoup de temps au boulot. Beaucoup aiment leur métier, ils s'y investissent, se forment, investissent. Une grosse part de la “camembert” identitaire repose sur la dimension professionnelle.
Tout cela est aujourd’hui bouleversé de multiples façons. Ce n’est pas seulement une mutation professionnelle, c’est une remise en cause de notre sens, notre but, qui sont au cœur de l’humain. Trouver un sens, un but, c’est précieux.
Alors, quand tout ça est remis en question ou secoué par l’irruption de l’IA, on n’apprend pas un simple nouvel outil, on apprend à être quelqu’un d’autre dans notre rapport au monde et à notre identité.
David Rice : J’ai discuté avec une dirigeante récemment, qui évoquait les ingénieurs seniors et leur réaction face aux plus jeunes s'appuyant sur l’IA pour exécuter une bonne partie de leur travail.
Elle pointait que ce n’était pas un problème de compétences, mais d’identité : ce qu’ils avaient mis des années à maîtriser devenait soudain contournable. Je cherche un terme pour ça, je ne crois pas qu’il en existe un.
Mais ça génère une sorte de crise existentielle. Tu évoques l’embarras comme moteur — et c’est vrai ! Chacun a déjà fait une bourde, s’est senti coupable car cela a nui à l’équipe.
L’IA n’a pas cela. Pas plus que ce sentiment d’angoisse existentielle qui nous habite. Il y a là un levier d’émotion unique qui nourrit notre valeur ajoutée, ce que l’IA ne saura jamais produire ainsi.
Rachel Wood : C’est tout à fait vrai. Nos échecs sont des moteurs, c’est positif, on apprend, on progresse grâce à eux. Autre exemple, imaginons un chargé de prêts bancaires : du jour au lendemain, l’IA attribue qui a droit à un prêt. Son métier, sa raison d’être, s’évapore. Crise identitaire : pourquoi suis-je là ? Dois-je me réinventer ? Or, se réinventer, c’est parfois difficile.
Même si on aime progresser, évoluer, cela demande beaucoup. On doit donc voir de près l’impact psychologique de l’automatisation de l’expertise.
David Rice : Votre expertise peut être automatisée, votre expérience, non.
C’est là qu’il faut trouver comment faire de son expérience une valeur ajoutée. Si on trouve cela, on pourra choisir ses futurs métiers et expériences. Et actuellement, les entreprises traitent ça comme une problématique de requalification.
Mais il y a là-dedans aussi une part de deuil. C’est ce dont tu parlais — le deuil d’un ancien soi professionnel qui n’existera peut-être plus.
Rachel Wood : Oui, tout à fait, David. D’où l’importance d’inviter à la table des experts en psychologie pour accompagner les chantiers IA. Car il ne s’agit pas juste d’apprendre une nouvelle compétence. Il y a un deuil, une perte, lorsque ce qui faisait notre champ d’expertise n’existe plus ou s’est transformé.
C’est pourquoi, en apprenant à travailler avec l’IA, il faut aussi réimaginer notre futur professionnel. Cela implique de développer une collaboration avec l’IA qui ne nous dépossède pas de nos compétences, mais nous fait évoluer vers la future version de notre identité professionnelle.
David Rice : C’est intéressant parce que, pour un directeur des ressources humaines ou un PDG, au début il n’a peut-être pas conscience de ce qui se passe sous la surface avec l’arrivée de l’outil. Mais il voit les signaux, réalise que l’équipe ne résiste pas au changement, elle vit ce deuil identitaire.
Quelles actions entreprendre, alors ? On ne peut pas simplement préserver la difficulté pour la difficulté.
Rachel Wood : Ce qui est essentiel, et je pense souvent négligé, c’est que certains dirigeants ne veulent pas creuser ces sujets par peur qu’en ouvrant la boîte de Pandore, tout parte en vrille.
Si on commence à parler des deuils professionnels ressentis au travail, il y a la crainte que tout se bloque, que l’on s’enlise dans les émotions. Mais je veux être claire : c’est en fait l’inverse qui se produit quand on cadre une discussion pour nommer le deuil, l’ambivalence, les bouleversements ressentis.
Une vague de soulagement traverse l’équipe : “Ok, c’est donc normal, tout le monde le ressent, c’est admis”. Plutôt que de garder ce deuil et cette ambivalence comme barrière, une fois que c’est nommé, cela chute fortement.
Pas que cela disparaisse totalement, mais l’énergie retenue autour du deuil et de l’ambivalence, une fois reconnue, libère les équipes pour avancer sur l’initiative. Le coût de ne pas le nommer est plus grand que de l’affronter.
David Rice : Je pense aussi que l’on ne peut pas éliminer la struggle productive, la difficulté constructive. Le travail doit encore ressembler à… du travail. Si la sensation c’est de s’auto-automatiser, naît l’anxiété et même la dépression sur l’avenir.
Car on ne voit plus de perspective — questions profondes sans réponse, c’est dur à gérer, surtout pour qui a durement bâti sa trajectoire. Les entreprises auraient intérêt à préserver ce struggle productif, sans durcir le travail artificiellement, mais en étant intentionnelles sur les expériences qui forgent le jugement. Alors, comment distinguer ce qui fait grandir et ce qui écrase ?
Rachel Wood : Oui. Aujourd’hui, il y a une forte attente envers les dirigeants pour aider leurs équipes à vivre ce basculement identitaire tout en acceptant la difficulté productive. Si ce travail est fait (et c’est un processus itératif), cela ouvre ensuite la voie à de nouvelles strates de productivité, d’autres struggles créateurs.
Je crois que beaucoup de dirigeants cherchent à contourner la discussion difficile sur la douleur, le struggle de leurs équipes. Mais cela reviendra toujours. Affrontez-le.
Faites venir un expert pour animer une vraie conversation et voyez à quelle vitesse vous pourrez avancer par la suite.
David Rice : Je pense qu’il est important de le dire. J’imagine déjà un dirigeant qui écoute tout ça et se dit : "Donc je dois rendre le travail plus difficile exprès, tout en veillant à ce que personne ne s’épuise ?" Cela paraît impossible.
Mais ce qu’on dit vraiment, c’est que tout est question d’intention. Savoir quelle expérience on veut préserver (et pourquoi), et l’impact global sur les personnes. Ce n’est pas ajouter de la friction sans raison. Bob Sutton, reçu sur le podcast il y a quelques années pour son livre "The Friction Project", montre qu'il existe une bonne friction utile à conserver dans certains contextes.
C’est là que ça se concrétise : on peut alors réfléchir à comment intégrer l’IA dans la solution.
Rachel Wood : Concrètement, quelles sont les prochaines étapes ?
Pour le dirigeant qui écoute : commencez par vous-même. Sur l’IA, qu’est-ce qui vous préoccupe à 2h du matin ? Personnellement, redoutez-vous d’automatiser trop de tâches, de devoir changer votre organisation ? Hésitez-vous à l’intégrer à votre flux de travail ? Commencez par vos propres questionnements, vos inquiétudes, votre enthousiasme, et examinez-les.
Vous serez alors mieux armé pour comprendre que vos équipes ont (aussi) leurs questions nocturnes. Vous ne pourrez pas les aider avant d’avoir exploré les vôtres.
David Rice : Vous avez un cadre qui dit que l’IA est plus une répétition des relations qu’un remplacement. Nous avons discuté de nombreux risques, mais concrètement, expliquez à quoi cela ressemble pour un manager d’utiliser l’IA dans cette optique : il a une conversation difficile à mener avec un collaborateur, que fait-il ?
Rachel Wood : Oui, très bien. C’est ce qui m’enthousiasme ! Car c’est un usage concret de l’IA pour aider nos équipes. On sait que l’intelligence émotionnelle et la communication interpersonnelle sont vitales pour l’entreprise. Ce ne sont pas de simples soft skills.
Les équipes qui réussissent savent réellement communiquer et disposent d’une intelligence émotionnelle qui rend les relations efficaces. Comment former cela ? Voici une astuce avec l’IA : vous avez une conversation difficile à tenir avec un collègue, un collaborateur, vous souhaitez qu’elle soit constructive et réussie.
Deux façons d’utiliser l’IA ici : premièrement, l’employer comme substitut à la relation, en vous plaignant juste à un chatbot de vos soucis, impasse.
Mais : en l’utilisant comme terrain d’entraînement, vous décrivez à l’IA votre situation, vous lui demandez de jouer le rôle de votre interlocuteur, de pointer vos angles morts, de vous coacher à écouter l’autre et à maximiser la réussite de l’échange.
Vous jouez la scène avec le chatbot, puis vous appliquez en réel. Vous aurez gagné en confiance, récolté des enseignements, mieux réussi sans doute.
Bref : faire de l’IA un terrain de répétition, pas un remplaçant. Un terrain de formation interpersonnel pour l’équipe.
David Rice : Tout à fait. J’observe que cela émerge davantage, c’est positif. Les collaborateurs ont besoin de permission pour utiliser ces outils ainsi.
Aujourd’hui, on leur demande principalement de résumer, de rédiger, d’automatiser des tâches. Mais ce que tu décris, c’est une autre relation à la technologie : elle ne fait plus à notre place, elle nous rend meilleurs.
C’est cela le vrai déclic à atteindre dans les organisations. J’aimerais rendre cette approche plus personnelle : "Aide-moi à rendre ceci plus humain, plus juste, sans dépasser la limite." Cela fonctionne même pour des échanges conceptuels ou de développement relationnel.
Rachel Wood : Oui, pensez à cela dans une équipe commerciale ! Laissez vos chatbots jouer le rôle de clients difficiles. On peut échouer 20 fois devant le chatbot, c’est sans conséquence.
Les cas d’usage de la répétition de scénarios avec un chatbot sont multiples.
David Rice : Nous avons récemment échangé avec Taylor Blake, il travaille chez Degree et développe ces pratiques en interne, faisant traverser aux salariés des scénarios improbables, ce qui est excellent.
C’était d’ailleurs la promesse initiale de l’IA : nous aider à imaginer l’inédit, à penser différemment.
Rachel Wood : Oui, exactement. Tu as évoqué la nécessité d’autoriser l’usage de l’IA. La recherche montre que la première chose à avoir dans son organisation, c’est une politique IA.
Peu importe qu’elle ne soit pas sophistiquée : simplement le fait d’avoir une politique rend les collaborateurs plus enclins à utiliser l’IA. Sinon, ils hésitent, s’autocensurent ou utilisent l’IA en secret. Un pas très concret est d’en instituer une.
David Rice : Absolument, une politique IA. J’y pensais à cette conférence — tout le monde a une philosophie rémunération, où est votre philosophie IA ?
Quels comportements voulez-vous encourager ? Comment allez-vous les valoriser ? Quelle mentalité attendez-vous vis-à-vis de la technologie ? Voilà des sujets à clarifier pour exploiter tout le potentiel des outils, parfois au-delà de ce qu’on pouvait imaginer.
Rachel Wood : Exactement. Et c’est là tout l’enthousiasme du moment. On sent l’excitation monter : il y a de belles choses à construire si l’on surmonte nos réserves.
David Rice : Voyons le verre à moitié plein, non ?
Rachel Wood : Et expérimentons ! N’ayons pas peur de tester, d’innover, pour voir ce qui fonctionne.
David Rice : Toi qui es à la croisée de l’IA et de la santé mentale, le rythme du changement actuel dépasse-t-il la capacité d’adaptation saine du psychisme humain ou sommes-nous résilients ? Car une notion qui revient sans cesse, c’est "l’épuisement du changement".
Rachel Wood : Oui. David, moi aussi je vis là-dedans tous les jours et je peux à peine suivre. C’est tellement rapide que c’est parfois étourdissant, d’où l’importance d’identifier quelques axes d’expérimentation, point.
Impossible de tout suivre : il faut penser en jours, semaines, mois, l’IA évolue trop vite pour raisonner en années.
David Rice : Je pense que c’est un bon point de chute pour cette conversation. Parfois, j’ai l’impression de passer pour anti-IA.
Mais ce n’est pas ça : ce qui me gêne, c’est notre manière actuelle de l’intégrer. Il faut protéger le développement humain, réfléchir aux usages sociaux — est-ce la bonne finalité, quel impact sur les humains, sur la planète ? Il faut rappeler aussi qu’à chaque requête, on consomme une énergie considérable.
Donc, si des dirigeants nous écoutent, j’espère qu’ils retiendront que la difficulté n’est pas un obstacle. Les discussions philosophiques comme celle-ci non plus. C’est ici, dans la lutte actuelle, que la croissance s’opère.
Votre rôle, c’est que vos collaborateurs y aient accès, et progressent à vos côtés. C’est dans ce sens que j’adore ces sujets.
Rachel Wood : Je suis tellement d’accord, David. C’est la voie à suivre. Ensuite, nous pourrons expérimenter toutes sortes d’usages et de déploiements.
Et tu l’as dit, il est crucial de veiller à utiliser l’IA sans perdre notre pensée critique, notre autonomie ni notre pouvoir d’agir. En parler, c’est déjà avancer vers un déploiement pertinent.
David Rice : Rachel, j’ai adoré t’accueillir sur ce podcast.
Rachel Wood : Ce fut un vrai plaisir, David. Merci beaucoup pour cet échange.
David Rice : Absolument.
Chers auditeurs, si ce n’est pas déjà fait, rendez-vous sur peoplemanagingpeople.com/subscribe. Abonnez-vous à la newsletter : vous recevrez ce podcast et tous nos contenus en continu, directement dans votre boîte mail.
Et d’ici là, lancez-vous ! Réfléchissez philosophiquement, amusez-vous avec l’IA, posez-vous les vraies questions.
