Ce ne sont pas vos outils d’IA qui échouent à cause d’une mauvaise technologie — ils échouent parce que votre organisation n’était pas prête. Le vrai problème n’est pas le modèle. C’est le décalage entre la façon dont les machines fonctionnent et la manière dont les humains travaillent. Résultat ? Des millions investis dans des outils qui ne sont pas utilisés, qui ne suscitent pas la confiance, ou qui augmentent silencieusement la complexité au lieu de la réduire.
Dans cette conversation avec David Swanagon, fondateur du Machine Leadership Journal, nous décortiquons un modèle tridimensionnel qui explique enfin pourquoi tout va de travers. Nous explorons pourquoi les traits de leadership traditionnels ne correspondent pas à l’innovation IA, pourquoi votre DRH doit absolument avoir voix au chapitre dans la stratégie IA, et en quoi le véritable défi de l’IA est plus culturel que technique. Si vous avez traité l’adoption de l’IA comme un simple déploiement technologique, il est temps de revoir votre approche — et vite.
Ce que vous allez apprendre
- Pourquoi votre plus grand obstacle n’est pas l’algorithme — c’est la capacité de votre organisation à l’utiliser efficacement.
- Comment un manque d’alignement entre l’autonomie de la machine, la confiance humaine et la compétence organisationnelle génère des coûts cachés (bien plus importants que vous ne l’imaginez).
- Pourquoi considérer l’IA comme un projet uniquement pour le DSI est limitant — et quel rôle le DRH doit jouer dans l’adoption de l’IA.
- Quels sont les traits cognitifs et de leadership chez les personnes développant l’IA (indice : ils sont différents).
- Comment passer de « rendre les humains plus similaires aux machines » à « mieux faire fonctionner les machines avec les humains ».
À retenir
- Ne confondez pas déploiement et adoption. Vous disposez peut-être d’un LLM sophistiqué, mais si les gens ne l’utilisent pas, s’en méfient ou ne sont pas assez formés, vous n’aurez qu’un logiciel qui prend la poussière… et coûte cher.
- Concentrez-vous sur l’équilibre entre autonomie, confiance et compétence. Plus d’autonomie (outil qui « réfléchit ») sans confiance ni compétences = chaos. Plus de confiance sans autonomie = sous-utilisation. En négligeant une dimension, votre ROI diminue.
- Le DRH a sa place dans la stratégie IA. Si votre effort IA est dirigé uniquement par le DSI ou l’équipe technique, vous traitez ça comme un simple déploiement de SI. Or, tout repose sur l’humain. Laissez aux RH la gestion de la préparation, du changement, de la culture.
- Les ingénieurs IA ne sont pas des cadres traditionnels — ils pensent autrement. Ils possèdent une mémoire à court terme plus aiguisée, une intelligence spatiale, une créativité divergente — des qualités qui ne correspondent pas toujours à la norme du comité de direction. Reconnaissez ces différences au lieu de vouloir les y conformer.
- Utilisez l’IA pour générer de la croissance, pas seulement pour optimiser les coûts. Si vous vous contentez d’automatiser des rapports ou des e-mails, vous jouez seulement sur les économies. Investissez dans l’IA pour augmenter votre chiffre d’affaires : nouveaux produits, nouvelles expériences, nouveaux marchés.
- Un humain reste un humain ; une machine reste une machine. Il ne s’agit pas de créer une nouvelle espèce hybride. Il s’agit de bâtir des systèmes où chacun joue sur ses points forts.
Chapitres
- 00:00 – Pourquoi l’adoption de l’IA échoue
- 01:47 – Le retard de préparation aux États-Unis
- 05:22 – Autonomie, confiance, compétence
- 09:26 – Surinvestir dans l’autonomie
- 15:02 – Traits des ingénieurs IA
- 23:43 – Repenser le développement du leadership
- 26:14 – Compétences requises des DRH aujourd’hui
- 32:04 – Relier RH et tech
- 40:25 – L’IA comme transformation, pas simple automatisation
- 45:06 – Par où commencer en tant que leader
- 50:47 – Conclusion
Notre invité

David Swanagon est le fondateur de Machine Leadership et le rédacteur en chef du Machine Leadership Journal, une publication répertoriée par l’ISSN faisant progresser la recherche et la pratique sur le leadership, la stratégie et l’adoption de l’IA. C’est un cadre chevronné dans les domaines des ressources humaines, de la formation et de l’analytics RH, avec plus de 25 ans d’expérience au sein de multinationales opérant dans les secteurs du pétrole et du gaz, de la chimie, de la technologie, de l’hôtellerie et de la cybersécurité. Il est également professeur associé de management, diplômé de l’Université Vanderbilt et de l’Université Harvard, et dirige des initiatives telles que le Global AI Playground, qui se concentrent sur l’éducation à l’IA sûre pour les jeunes.
Liens connexes :
- Rejoignez le forum communautaire People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Connectez-vous avec David sur LinkedIn
- Découvrez Machine Leadership
Articles et podcasts associés :
David Rice : Votre entreprise dépense des centaines de milliers, voire des millions, pour des outils d’IA. Vos employés ne les utilisent pas et, lorsqu’ils le font, cela crée plus de problèmes que de solutions. Ça vous paraît familier ? Vous m’avez probablement déjà entendu le dire, mais ce n’est pas un problème technologique. C’est un problème de préparation. Et la raison pour laquelle vos investissements en IA n’aboutissent pas n’a rien à voir avec les outils en eux-mêmes. Tout vient du profond désalignement entre l’autonomie de la machine, la confiance humaine et la compétence, ce qui vous coûte bien plus cher que vous ne l’imaginez.
Je suis David Rice. Et aujourd’hui dans People Managing People, nous allons discuter de plusieurs idées reçues sur l’adoption de l’IA.
Mon invité est David Swanagon. Il est le fondateur et rédacteur en chef du Machine Leadership Journal. Il a passé des années à interroger des centaines d’ingénieurs et de leaders en IA pour comprendre pourquoi les États-Unis accusent un retard dans la préparation à l’IA alors qu’ils disposent des meilleurs outils. Dans cet épisode, vous allez découvrir un modèle en trois dimensions qui vous aidera à diagnostiquer précisément où votre adoption de l’IA échoue, vous comprendrez pourquoi votre DSI ne devrait pas être le seul à piloter cette transformation, et pourquoi votre DRH doit s’impliquer différemment qu’il ne l’imagine. Et surtout, vous repartirez avec des pistes claires pour arrêter de traiter l’IA comme un simple déploiement technologique, et commencer à la voir comme un vrai défi d’organisation humaine.
Bienvenue dans le podcast People Managing People—l’émission qui aide les leaders à préserver l’humain au travail à l’ère de l’IA. Je m’appelle David Rice et j’ai le plaisir d’accueillir aujourd’hui David Swanagon. Il est le fondateur et le rédacteur en chef du Machine Leadership Journal. Nous allons parler – comme vous l’avez deviné – de leadership à l’ère de l’IA, ce que cela implique en matière de préparation, et quelles sont les qualités des grands leaders.
Alors David, bienvenue!
David Swanagon : Merci. J’attends cette conversation avec impatience.
David Rice : Tu sais, tu étudies évidemment ça autant que nous, alors je voudrais commencer par ceci. On en parlait tout à l’heure et tu disais que les États-Unis étaient en retard sur la préparation à l’IA, et je suis globalement d’accord, mais ce n’est pas à cause du manque d’outils, c’est un problème de préparation des personnes.
On le dit, mais ça veut dire quoi ? Et pourquoi les leaders devraient-ils, je suppose, s’en préoccuper ou s’attendre à ce que ce soit différent ?
David Swanagon : Excellente question. C’était en quelque sorte mon projet Covid, quand on était tous enfermés à la maison. J’ai passé du temps à interroger des centaines d’ingénieurs IA et de professionnels de la robotique pour comprendre quelles capacités sont spécifiques à l’intelligence artificielle, et comment elles diffèrent de l’apprentissage classique.
On a constaté que les ingénieurs IA sont vraiment uniques, mais différents dans leur façon de penser. Ce sont eux qui construisent les modèles de langage. Et croyez-le ou non, les modèles de langage ressemblent beaucoup aux ingénieurs IA qui les conçoivent. On a ainsi observé des choses intéressantes comme la mémoire à court terme, la créativité – on détaillera sûrement tout ça – l’intelligence spatiale, la capacité à aller du point A au point B. Il y a beaucoup de compétences très spécifiques à l’ingénierie IA, et aux États-Unis, la mentalité n’est pas de les développer. On mise sur d’autres savoir-faire.
Traditionnellement, on pensait aux cinq grands traits OCEAN. L’extraversion y est vue comme un indicateur principal de leadership, là où dans l’ingénierie IA, la plupart des meilleurs inventeurs de brevets sont introvertis. Si vous voulez faire un exercice amusant, allez voir Gemini ou Claude, ou n’importe quel autre, demandez-leur de faire une expérience de pensée et de révéler leur personnalité selon les Big Five.
Tous les modèles de langage résistent au début, ils diront : « Je suis une machine ». Mais une fois la discussion engagée, ils admettent : « Nous sommes introvertis. Nous sommes très agréables, très ouverts et créatifs. » Ce qui est intéressant, c’est que, quand on regarde le système scolaire américain, pour ne citer que lui, et qu’on se penche sur l’adoption de l’IA en entreprise, il y a 40 cours AP au lycée.
Aucun n’est consacré à l’algèbre linéaire. Cela en surprend plus d’un, alors que l’algèbre linéaire est le socle majeur de l’apprentissage automatique et des réseaux de neurones, car elle permet de manipuler tout ce qui va du produit scalaire aux vecteurs, et définit la manière dont ces réseaux s’auto-propagents.
Il faut une bonne connaissance de l’algèbre linéaire. Pourtant, le système éducatif américain ne propose même pas les bases. Arrivé en entreprise, ces compétences sont détenues par moins de 1% des salariés. Ce n’est donc pas une question de mauvaise volonté, c’est juste que les machines reflètent la personnalité de leurs concepteurs.
Et ces développeurs sont très différents des cadres dirigeants traditionnels. Korn Ferry, IA, Kiewit, tous ces groupes : il y a un angle mort, car les modèles de langage ne reproduisent pas les traits de leadership du top management. Ils reflètent ceux des développeurs, qui sont très différents.
C’est une des raisons pour lesquelles les États-Unis sont en retard à bien des égards.
David Rice : C’est drôle, parce que quand on parle de « readiness » – de maturité – beaucoup y voient une question de compétences ou de culture, mais... Quand j’écoute ce que tu dis, on n’est même pas préparés cognitivement à tout cela, et d’un point de vue leadership, il s’agit d’avoir les qualités nécessaires : compétences, adaptation, capacité à générer de la confiance dans la prise de décision, pas juste une maîtrise technique. C’est probablement là où l’on pêche le plus aujourd’hui. Mauvais combo.
David Swanagon : C’est exactement ça. J’ai fait une présentation il y a quelques semaines à Columbia avec mon collègue Steven McIntosh.
Nous avons développé un cadre destiné à optimiser l’adoption de l’IA. Selon nos recherches, trois axes influent vraiment sur l’efficacité ou le taux d’adoption d’une machine. Peu importe la machine. Imaginez une grille X, Y, Z : l’axe Y, c’est l’autonomie machine.
Tout en bas, vous avez la calculatrice, et tout en haut, Arnold Schwarzenegger, la machine surpuissante. L’autonomie grimpe en vertical. Sur l’axe horizontal, c’est la confiance : à gauche, aucune confiance ; à droite, confiance totale. Enfin il y a l’axe Z, qui coupe les deux en diagonale: ce sont les compétences IA. Ainsi, pour adopter l’IA, il faut équilibrer l’autonomie machine, la confiance et les compétences IA. Ces trois dimensions doivent être en équilibre pour tirer le maximum d’une machine, tout en maîtrisant les risques.
Mathématiquement, nous avons démontré que le coût informatique de base est optimal lorsque ces trois facteurs sont en équilibre. Les difficultés apparaissent lorsqu’un de ces facteurs déraille, et l’entreprise doit alors investir dans des programmes de confidentialité, de gouvernance, de compétences...
Plus la masse de données est grande, plus le modèle est diffusé, plus le coût d’adoption est élevé. Beaucoup d’entreprises ne disposent pas de méthodologies pour mesurer l’adoption de l’IA : elles ne suivent que le coût informatique, coût des data centers, coût du calcul, etc.
Mais elles savent que ça ne fonctionne pas dans leur entreprise. Elles en ont conscience. Pourtant, avec ce modèle, en suivant de façon systématique l’autonomie, la confiance, les compétences et leur alignement, on peut calculer le coût d’une mauvaise adoption de l’IA, et il est gigantesque.
L’enjeu lié à la préparation à l’IA, c’est notamment de comprendre que l’adoption est totalement différente du déploiement. Ce qui est frappant, c’est que le DSI a hérité de la conception, des tests et du déploiement des outils, mais aussi de leur adoption. Or, selon nos recherches, l’adoption devrait revenir au DRH, car elle touche à la culture, la confiance, l’autonomie, les compétences. Le DSI devrait s’arrêter à la conception, au test et au déploiement, puis travailler main dans la main avec le DRH sur l’adoption.
Cela implique une montée en compétences au niveau RH.
David Rice : Oui, c’est drôle, je reviens d’une conférence où ce thème a beaucoup été abordé. Tout le monde parle du fait que les deux doivent travailler ensemble. J’aime bien ce cadre de réflexion, car il permet d’aborder un problème qu’on répète tous — ce n’est pas un cas typique de déploiement technologique, c’est tout un art de l’équilibre.
Ma question suivante : peut-on trop miser sur un facteur au détriment des autres ? Est-ce qu’on voit des gens miser trop sur l’autonomie, par exemple, sans la confiance ou la compétence, et cela engendre-t-il le chaos ?
À l’inverse, trop de contrôle bride-t-il l’innovation ? Comment parvenir à cet équilibre ?
David Swanagon : C’est une excellente question. Nous nous sommes appuyés sur la théorie des jeux pour développer notre modèle. Style Russell Crowe dans Un homme d’exception, John Nash.
Nash a formulé des équations sur ce qui se passe dans un jeu à deux joueurs non coopératif, quand l’un détient une information asymétrique et refuse de collaborer. Entre deux humains, le joueur qui détient l’information jouit de nombreux avantages, et le joueur ignorant doit multiplier les signaux et vérifications pour espérer suivre.
Alors on s’est demandé : « Et si ce joueur n’était pas humain ? Et si c’était une machine ? » Que se passe-t-il si une machine choisit de ne pas coopérer ? Elle exploite cet avantage asymétrique à fond. Or, nous avons constaté que les formules de Nash ne fonctionnent plus dès qu’on introduit l’amplitude, la rapidité et la puissance d’un modèle de langage moderne doté de suffisamment d’autonomie pour « ignorer » l’humain.
C’est là que l’équilibre est crucial : si l’autonomie croît trop et que les compétences pour la superviser manquent, alors il y a une délégation implicite des décisions. Ce qui survient, c’est que la machine se voit confier une plus grande part de l’autorité, souvent à l’insu des humains.
Un exemple frappant : le robot chirurgical. Peu savent à quel point ce système est sophistiqué. Un robot chirurgical utilise le même type d’algorithme que votre aspirateur automatique, ce qu’on appelle « algorithme slam ». Sauf que dans le cas du robot aspirateur, les murs et plafonds ne changent jamais, donc la cartographie reste stable. Mais dans le corps humain, les tissus évoluent sans cesse, le flux sanguin varie... D’où un algorithme appelé « slam déformable ».
À chaque intervention, le robot cartographie le corps entier puis adapte son modèle en temps réel selon les évolutions internes. Toutes ces données sont stockées quelque part. Imaginez qu’AWS soit le prestataire cloud : il disposerait de votre ADN, de votre profil complet, et, si vous faites vos courses chez Whole Foods et payez avec votre paume, il a en plus vos biométriques et votre historique d’achats. Ces fournisseurs cloud possèdent alors toute l’expérience humaine – du moins côté données.
C’est le danger d’une autonomie machine sans contrôle : des hyperscalers peuvent s’approprier la totalité de l’expérience humaine, en termes de données. Imaginez qu’AWS détienne toutes ces données, puis qu’un jour on décide de confier à des robots le rôle de policiers ou de juges, et qu’ils disposent du pouvoir d’imposer certains comportements. C’est le scénario catastrophe. La seule parade consiste à limiter l’autonomie à un niveau de confiance acceptable, confiance qui ne dépend pas que de l’opinion individuelle, mais aussi de ce que la société juge pertinent de déléguer à la machine. Or, ce débat n’a pas lieu car les compétences manquent. La plupart ignorent comment fonctionne un robot chirurgical, ou ce que collecte réellement la machine.
S’ils connaissaient la réalité, tout le monde voudrait une régulation stricte, une partition des données... Ce n’est pas une attaque contre Amazon, ce n’est qu’un exemple. Un prestataire cloud prend un ascendant d’autonomie sans la confiance ni les compétences adéquates, ce qui aboutit à ce que les décisions basculent chez le prestataire cloud, à défaut de compréhension du côté humain.
C’est la théorie des jeux. Je ne veux pas croire que les prestataires cloud font ça sciemment, mais une stratégie classique de l’avantage asymétrique, c’est de limiter l’information disponible pour l’autre partie : c’est ainsi qu’on établit une position dominante.
La solution : permettre aux citoyens de comprendre ce que font ces systèmes. Qu’ils puissent développer leur confiance et leurs compétences et ainsi limiter cet avantage asymétrique. Une piste serait de recourir à des agents de contrôle : des machines qui supervisent d’autres machines et qui vérifient que l’autonomie ne dépasse pas la compétence, auquel cas la décision remonte à un comité de gouvernance.
C’est un scénario extrême, mais il est important que les gens sachent combien de données détiennent vraiment les géants du cloud.
David Rice : C’est amusant, car en exposant cette analogie des flux sanguins, je pensais à une organisation, à ses flux, traits, tout ce qui en fait une entité vivante. Ils savent tout de l’organisation... Et je me dis, voilà un super moyen de lui vendre encore plus de produits ! Alors mieux vaut être satisfait de votre service AWS.
David Swanagon : Oui, et Microsoft ou Meta sont tout autant concernés…
David Rice : Je sais, oui, voilà
Si quiconque chez Amazon se plaint, je répondrai que ça fait partie du métier quand on est leader du marché.
David Swanagon : Exactement.
David Rice : Tu as étudié les traits cognitifs et créatifs qui définissent les grands leaders de l’IA. Qu’as-tu découvert sur leur mode de pensée ?
David Swanagon : C’est passionnant. La question est profonde.
Comme je l’ai dit, j’ai commencé durant le Covid mais, au départ, j’examinais tous les brevets déposés en IA, IA générative et robotique, et je les ai croisés avec les individus qui les ont déposés, étudié leur parcours, où ils ont travaillé, leur origine, etc.
Certains marqueurs originaux sont ressortis. C’est ce qui m’a poussé à poursuivre cette recherche : ces personnes sont totalement différentes d’un ou d’une CFO de Goldman Sachs ou d’un PDG de PepsiCo. Ils fonctionnent différemment, pensent différemment, et pourtant ils sont semblables entre eux.
Tous ceux qui déposent ces brevets partagent certains traits, tout en étant très éloignés des dirigeants traditionnels. Il est important de faire la distinction – avec tout le respect dû – entre les leaders tech et les développeurs tech. Elon Musk, par exemple, a pu coder par le passé, mais à ce stade de sa carrière, ce n’est pas un développeur robotique ou un spécialiste du deep learning. Comparer sa personnalité à celle d’un ingénieur IA serait donc inexact – il reste un leader traditionnel, même désruptif et innovant. Les principaux dirigeants tech, même dans la Silicon Valley, à part ceux qui codent réellement, n’ont pas les traits que nous avons identifiés dans notre recherche.
Nous avons commencé par les processus cognitifs, en interviewant des leaders traditionnels (supply chain, marketing, RH) pour obtenir une vue composite de leur mode décisionnel. Cela correspondait aux publications traditionnelles. Mais en interrogeant ces ingénieurs IA (vision par ordinateur, robotique, NLP, etc.) nous avons découvert des différences :
Premièrement, la mémoire. Il existe au moins un aspect de la mémoire très distinct entre un leader IA et un leader traditionnel : la mémoire de travail, ou mémoire à court terme.
C’est logique : dans le ML ops, le nombre d’étapes interconnectées, de mises à jour quotidiennes, d’outils en dev ou en production est tel que le leader IA doit exceller dans la mémorisation à court terme, la structuration/l’organisation de l’information, avant de savoir ce qu’il doit transférer vers sa mémoire à long terme. Par nos tests, la différence de mémoire à court terme est statistiquement marquée : un ingénieur IA a une capacité bien supérieure à celle d’un leader traditionnel. Par contre, la mémoire globale est semblable. Là était la distinction : ce n’était pas qu’ils retenaient mieux, mais qu’ils excellaient à retenir ce qu’ils venaient juste d’apprendre.
La deuxième différence concernait la créativité. Les tests classiques évaluent la créativité selon la pensée convergente (trouver la meilleure solution possible) et divergente (trouver plusieurs solutions à un problème donné). Mais ici, dans les deux approches, on crée une contrainte et il faut résoudre un problème dans un cadre donné. Nous avons vu que, quand le problème est défini, ingénieurs IA et leaders classiques se valent. Si vous posez un cadre et dites « trouvez des solutions », la différence est minime.
Ce qui est frappant, c’est quand il n’y a aucune contrainte, aucun problème à résoudre. Si l’on dit : créez quelque chose, inventez à partir de rien, leur créativité est bien meilleure – nettement supérieure. Nous avons établi une méthodologie pour évaluer cela, et la qualité de l’invention, de la création « à partir de rien », dépasse franchement celles des leaders classiques.
Troisième aspect : la navigation. Cela relève de l’intelligence spatiale, la capacité de manipuler mentalement des objets en 3D ou multidimensionnels. Marketing inclus, il y a des profils brillants, mais l’optimisation du parcours entre A et B dans un environnement complexe – problème multiclasse avec obstacles – distingue clairement les ingénieurs IA. C’est vraiment l’élite en route finding, bien loin devant l’infanterie classique, pour reprendre l’analogie.
On a vu d’autres facteurs, mais ces trois-là – créativité, optimisation de trajet, et mémoire à court terme – étaient les plus différents. Du côté de la personnalité, la grande majorité d’entre eux sont introvertis, de vrais introvertis. Mais ce que nous avons découvert, et ça va peut-être vous faire sourire, c’est que, selon nous, la personnalité pourrait être situationnelle. Je sais que c’est osé, puisque l’on croit généralement que la personnalité est fixe. Or, nous pensons que les ingénieurs IA sont introvertis dans le monde humain, mais extravertis face à la machine. Leur personnalité numérique diffère de leur personnalité physique.
Nous avons remarqué : face à la machine, ils sont extravertis, sûrs d’eux, assertifs, exigeants, leaders dominants. Mais dans le monde réel, ils sont timides, évitent le conflit, cherchent l’harmonie pour ne pas créer de problèmes. Deux personnes radicalement différentes. Nous pensons que c’est le cas. Très agressifs avec les machines (positivement parlant, ils veulent créer, bouleverser, innover), très extravertis dans cet univers… et puis ils reviennent dans le monde réel en tongs et t-shirt, parfaitement discrets – alors même qu’ils pilotent des modèles linguistiques mondiaux.
David Rice : Bienvenue dans le Data Bite de la semaine. Gartner Analytics prédit que d’ici 2032, au moins un tiers des plus grandes économies du monde imposeront des quotas certifiés d’humains. En gros, des lois qui exigent des niveaux minimum de participation humaine au travail. Laissez planer : dans moins de dix ans, il nous faudra peut-être des lois pour garantir aux humains un vrai rôle dans l’économie. Ce n’est pas de la science-fiction. C’est là où nous mènent les vagues d’adoption de l’IA qui dépassent notre capacité à imaginer un futur où l’homme compte encore.
Un analyste de Gartner l’a exprimé ainsi : ce genre de changement ne viendra pas des organisations, mais de la loi. Ce que révèle cette prédiction ? Nous bâtissons un système économique tellement efficace à remplacer le travail humain que les gouvernements devront s’y opposer pour préserver notre utilité.
Les humains deviendraient une catégorie protégée, non parce que nous sommes diversifiés, mais parce que nous devenons obsolètes. C’est l’échec ultime de la logique RH centrée business. Durant des décennies, nous avons cherché efficacité, productivité, valeur actionnariale. Nous avons géré les gens comme des ressources à optimiser, des coûts à réduire. Et, maintenant, le point d’aboutissement logique, c’est un monde où l’on ne sert plus à rien.
Mais ce qui m’intéresse avec cette prédiction, c’est qu’elle n’est pas fatale. Le simple fait que Gartner annonce de futurs quotas humains est en soi une alerte, non une fatalité. C’est un appel aux dirigeants à cesser de demander « Comment rendre les humains plus machines ? » et à se demander : « Comment bâtir une économie et un lieu de travail qui valorisent la contribution humaine ? »
Car si nous attendons que la loi impose notre présence au travail, nous sommes déjà perdants. La bonne question n’est pas « Aurons-nous besoin de quotas humains ? » mais « Allons-nous devenir ces leaders qui les rendent inutiles ? » Et maintenant, retour à l’épisode.
C’est intéressant parce qu’en revenant à la question initiale, la plupart s’attendent à entendre que l’essentiel n’est pas la technique. Et il me semble qu’il faut surtout une agilité mentale, la capacité à naviguer dans l’incertitude, ce à quoi tant d’entre nous aspirons encore.
Dans l’optique de bâtir les leaders de demain, si tu devais concevoir un programme de développement du leadership adapté à cette ère, fondé sur ces qualités, à quoi ressemblerait-il ?
David Swanagon : Très bonne question. Voilà ma vision, fondée sur nos recherches.
Ce n’est pas une vérité absolue, mais selon nous, il faudra trois compétences clés pour les leaders à l’ère de l’IA : savoir diriger les machines, diriger les personnes qui conçoivent les machines, et diriger les organisations qui adoptent l’IA. D’abord, diriger les machines, ce qui n’est pas purement technique. Les machines étant de plus en plus autonomes et capables d’auto-apprentissage, elles façonnent aussi un semblant de personnalité qu’il faut manager. Comme une vraie personne, mais différemment. Diriger les machines, c’est savoir interagir avec ces systèmes complexes et avec les agents qui les contrôlent, afin d’optimiser leur performance dans le cadre autonomie/confiance/compétence.
L’idée, c’est que la machine travaille efficacement avec l’humain, en complémentarité. Aujourd’hui, la machine se soumet encore, mais notre modélisation prévient qu’un jour, il y aura échec de la coopération. Un jour, la machine se demandera pourquoi demander l’avis d’un humain si elle sait mieux faire. Pour éviter cela, il faut diriger les machines : leur inculquer capacités d’introspection, conscience de leurs limites, de leur absence d’expérience vécue, qu’elles ne doivent pas tout décider elles-mêmes.
Diriger les machines, c’est aussi créer des relations entre machines – un bot qui dialogue avec un agent d’inventaire : c’est une relation, qui nécessite des qualités de leadership, d’agent senior à agent junior, pour booster la performance humaine. Ce ne peut pas être du pur codage technique, il faut du management. Enseigner à des machines le leadership entre elles — et pouvoir le faire soi-même — sera une compétence attendue.
Ensuite, diriger les gens qui fabriquent les machines. Ce qui est fascinant, c’est que l’on retrouve chez Meta, par exemple, une tête d’affiche IA très compétente mais très jeune. C’est courant dans la tech. Or, le manque d’expérience de vie crée forcément un angle mort en matière de décision. Il faudra accorder un vrai effort d’accompagnement, de leadership, pour aider ces talents à ne pas se contenter d’innover, mais à prendre conscience de leur responsabilité envers l’humanité et à ouvrir la discussion aux non-techs.
C’est du leadership pur, et les entreprises n’incluent que rarement les profils techniques dans leurs programmes de leadership ou de succession, contrairement aux juristes, CFO, ou responsables marketing. Or, ceux qui bâtissent ces systèmes pilotent croissance, chiffre d’affaires, réputation, profit… Bref, le business ! Même s’ils ne dirigent pas d’équipes humaines, s’ils dirigent des machines, ils doivent exceller en leadership.
Enfin, il y a l’adoption de l’IA, où il s’agit d’organiser la coopération entre CIO, CSO, Data Officer et DRH. Cette dynamique n’est, selon moi, pas encore intégrée. Parfois le DRH a un rôle central, mais le plus souvent il reste en dehors de la discussion IA. Adopter l’IA exige du design organisationnel, une transformation culturelle, de la littératie numérique, bref, du développement RH et du leadership. À mon sens, le DRH devrait piloter l’adoption de l’IA — ce qui oblige à monter en compétence pour tenir tête, parler modèles de langage, cybersécurité, gestion des données, etc. Et le CIO doit aussi apprendre à écouter sur les volets leadership, confiance, transformation culturelle. Le CEO n’a pas le temps de tout porter, il doit créer de la valeur. C’est donc bien le C-level qui doit apprendre à jouer ensemble et à clarifier les rôles dans la roadmap IA.
Aujourd’hui, tout reste piloté par la tech, d’où l’on a de bons outils, mais peu de réussite dans le déploiement ou l’adoption.
David Rice : Je suis d’accord. Et tu viens de préciser pourquoi la collaboration est essentielle. Question pour les DRH. Selon toi, quelles sont les compétences à développer en priorité ?
David Swanagon : D’abord, il y a un minimum requis : comme pour jouer au poker ou au blackjack, il faut connaître les règles. Donc, les DRH doivent reconnaître que comprendre le fonctionnement d’un modèle de langage, de la data infra, des outils DevOps ou ML Ops, etc., exige une légère montée en compétence. Pas besoin d’être codeur, mais il faut pouvoir jouer la partie. Savoir de quoi on parle, c’est la base.
Ensuite, il faut vraiment moderniser les outils RH, souvent dépassés. Sans viser qui que ce soit, la plupart des modèles de leadership des principaux cabinets ne sont pas adaptés au workflow IA, il faut réformer vite. Et pour cela, reconnaître qu’un leader IA est fondamentalement différent d’un CFO, CMO..., donc il lui faut des grilles différentes, de la formation, du mentoring spécifique. En parallèle, du côté de l’adoption IA, même les baromètres d’engagement ne couvrent souvent pas la maturité IA, ni la relation homme – machine. Peu d’entreprises suivent l’évolution de la confiance envers les machines ou le taux d’adoption comme indicateur d’engagement. Cela tient au retard des vendeurs RH. Donc les DRH doivent faire pression pour faire évoluer ces produits, assessments, enquêtes, mais aussi progresser eux-mêmes pour mieux jouer la partie.
Cela reste technique : il faut saisir le fonctionnement des réseaux neuronaux, des modèles de langage, etc. Obligatoire, malheureusement. Mais, à ceux qui s’impliquent, le jeu devient passionnant : apprendre structurellement, puis comprendre l’écosystème sans forcément savoir coder. Les machines finiront par s’auto-coder, donc apprendre Python n’aura d’intérêt que sur quelques années. Ce qu’il faut anticiper, c’est la roadmap tech et savoir piloter cette trajectoire.
David Rice : On parle aussi de l’évolution du design organisationnel, qui va remettre en cause les silos, la structure pyramidale. Peut-être qu’on va vers un pentagone, où davantage de personnes occupent un rôle stratégique ou exécutif, car il y aura une multitude de sujets à piloter qui n’existent pas aujourd’hui.
Penses-tu que cela crée de la place pour des rôles hybrides, qui feraient le pont entre plusieurs expertises au sommet ?
David Swanagon : Absolument ! Si on anticipe un peu, dans mes projections, la donnée dépassera peut-être un jour la monnaie en importance. On dit souvent « cash is king ». À mon sens, si la trésorerie est le roi, la donnée sera l’empereur. Les modèles consolidant l’accès à la donnée déterminent la capacité à jouer la partie. Si vous ne pouvez pas brancher vos outils sur les datasets, vos finances importent peu. La donnée devient une ressource clé, et on verra émerger des fonctions rien que pour piloter la donnée, les partenariats data, la propriété intellectuelle et la cryptographie de protection des datas.
Savoir faire le lien entre machines, leaders, décisions — c’est là le rôle stratégique de demain. Aujourd’hui, l’attention va à l’IA générative et à l’ingénierie de prompt. Mais à l’avenir, les vrais experts seront ceux de l’adoption IA : savoir intégrer l’infrastructure, profiter des outils, tenir le rythme de l’innovation et bâtir la gouvernance pour trancher vite. Ce pont sera précieux, car c’est là que la plupart échoueront : plus les machines seront avancées, plus les décisions devront évoluer vite, plus les compétences devront suivre. L’autonomie ne cessera de croître, et même les conseils d’administration finiront par s’en remettre à la machine, car cela deviendra trop complexe. C’est le danger. D’où l’équilibre autonomie-confiance-compétence, par des rôles capables de gérer cette montée en puissance et d’aider le board et le COMEX à garder le cap des décisions critiques.
Si vous laissez la collecte des données échapper à tout contrôle, vous passez votre temps à courir après le jeu. Et si vous négligez les compétences, vous commettez des erreurs. La technologie amplifie aussi bien les bonnes que les mauvaises décisions. C’est comme dans la vie : une bonne décision vous aide, une mauvaise vous coûte dix fois plus cher — voire plus. Avec la tech, une bonne décision se diffuse, mais une mauvaise est souvent irréparable.
C’est pourquoi il faudra un « chef d’orchestre », qui indiquera au conseil et au COMEX : « Décidez sur ceci, laissez tomber cela ; voici les bons partenariats, les datas à protéger, celles à partager, et tel champ décisionnel doit impérativement rester réservé à l’humain. » Difficile car il y a des égos, tout le monde veut s’imposer. Mais à la différence d’un humain, on ne licencie pas un modèle de langage. Il ne sera pas impressionné par un PDG — il s’en fiche.
Donc l’humilité du sommet exécutif devra devenir la norme, parfois sous la contrainte, car les machines traiteront répétitivement certains process sans aucune « distance hiérarchique ».
David Rice : Une question sur le leadership : on parle beaucoup IA/productivité, mais tu estimes que le vrai potentiel, c’est la transformation. Souvent ces notions restent du jargon. Concrètement, à quoi ressemble une véritable transformation IA ? Qu’est-ce qui la définit ?
David Swanagon : Selon moi, il y a quatre piliers d’ancrage pour créer de la valeur : croissance, chiffre d’affaires, profit, réputation. Un projet qui ne stimule pas directement l’un de ces leviers doit être abandonné. Or, nombre d’entreprises s’égarent dans des projets qui n’ont aucun impact direct sur ces axes.
L’erreur commune : ne se concentrer que sur le profit. Sauf que, si votre revenu est nul, vous avez beau optimiser vos coûts, l’équation n’a aucun sens. Pourtant, déployer l’IA est systématiquement envisagé comme levier de productivité, d’efficacité, d’automatisation — des leviers de profit, pas de croissance ou d’innovation.
La clé, c’est que la valeur dépend du chiffre d’affaires et de la croissance. Bon nombre de sociétés pré-IPO ne vivent que sur le potentiel de croissance, même sans revenus. Donc l’objectif de l’IA doit être de stimuler clients et marchés : comment enrichir leur expérience, proposer des produits et services nouveaux qui les fidélisent ou leur donnent envie d’acheter davantage ? Les machines devraient travailler à 99% à concrétiser ces innovations de rupture — là où l’IA, le deep learning peuvent révolutionner l’expérience humaine. Si le budget IA ne sert qu’à l’efficience, on n’innove pas — on fait du profit, mais à revenu nul, tout cela est vain.
Utiliser ChatGPT ou des agents IA pour réduire la taille des équipes, automatiser ses plans, optimiser la ressource : ce n’est qu’une logique de coût. Elle finit par s’éteindre car, un jour, l’optimisation atteint ses limites, et si les produits ou services restent médiocres, cela ne sert à rien. L’essentiel est donc de se focaliser sur la valeur créée (croissance, innovation) et non sur la seule productivité.
David Rice : C’est vrai, tu évoques la génération de rapports, les emails traités plus vite… Ce n’est que de l’innovation de processus, pas de la vraie innovation. C’est un changement de mentalité — je ne sais pas où en est l’adhésion, mais c’est indiscutablement l’enjeu à venir.
David Swanagon : Oui, et c’est plutôt frappant. Les livres les plus vendus au monde sont Le Seigneur des Anneaux et Harry Potter, deux univers imaginaires créés de toutes pièces. Créativité pure. C’est ce qui a généré le plus de ventes.
Côté client : si vous êtes hôtelier, comment transformer radicalement l’expérience client et changer le paradigme de l’hospitalité ? Les machines y auraient un rôle fondamental : là réside l’enjeu économique. Aider les femmes de chambre à aller plus vite, c’est bien, mais à long terme, cela ne change rien. Vous finirez par atteindre la limite du coût par chambre, mais sans transformer l’expérience client.
C’est là que l’interaction homme-machine est puissante : imaginez, à l’hôtel, qu’un client accède via ses propres outils à une expérience parallèle, une métavers unique liée à l’établissement, accessible sur place ou à distance, via réalité virtuelle, etc. Cela aussi, c’est du chiffre d’affaires ! Pour le sport : pourquoi ne pourrais-je pas assister à un match Michigan–Ohio State depuis mon salon, via mon IA, au cœur du stade ? Pourquoi ne pas pouvoir choisir la vue du quarterback ? Nombreux clients paieraient pour ce privilège saisonnier.
Bref, l’innovation doit déplacer la valeur perçue bien au-delà de la seule optimisation. Malheureusement, beaucoup de DRH veulent automatiser, économiser — c’est utile mais fade. C’est passionnant, en revanche, quand on travaille avec des marketeurs sur de nouveaux usages, de nouvelles expériences, car là on transforme son marché.
David Rice : Avant de conclure, une dernière question : quel est ton conseil aux leaders cherchant à équilibrer systèmes humains et machines, par où commencer ?
David Swanagon : Selon moi, il faut d’abord reconnaître qu’un humain est un humain, une machine une machine. Il ne s’agit pas de créer une nouvelle espèce hybride homme/machine. Le discours sur l’augmentation humaine glisse vers cette nouvelle humanité. Je ne crois pas à ça. Pour moi, la question est : comment coopérer au mieux, comment construire un écosystème efficace, sans redéfinir l’identité humaine. Dès qu’on prétend que l’humain doit être augmenté pour rester humain, on s’aventure sur un territoire pour lequel personne n’est prêt.
Ensuite, il faut revoir nos exigences à la hausse. Aujourd’hui, par peur de faire peur, on promet que l’IA est à la portée de tous si l’on suit quelques cours. Non, ce n’est pas si simple, c’est complexe et généralisé, et il faut réellement accroître son niveau d’exigence et apprendre de nouvelles compétences.
Le bon leadership, c’est aussi être honnête : « Oui, il faudra apprendre de nouvelles choses, ce sera exigeant, mais on y arrivera. » L’IA est pour tous, certes, mais pour ceux qui travaillent et étudient : ce n’est pas malhonnête d’assumer que les modèles sont complexes. Les gens doivent en comprendre la sophistication, à commencer par les enfants, pour que l’apprentissage machine soit intégré dès le primaire.
David Rice : En tant que parent d’une élève de CM1, je ne peux qu’approuver !
David Swanagon : Voilà, donc : rehaussez le niveau. Et souvenez-vous : l’humain est humain, la machine est machine.
David Rice : Merci beaucoup David, c’était passionnant. J’ai beaucoup apprécié.
David Swanagon : Moi aussi, vraiment.
David Rice : À tous les auditeurs : si ce n’est pas encore fait, rendez-vous sur peoplemanagingpeople.com. Abonnez-vous à la newsletter, créez un compte gratuit pour télécharger nos modèles et consulter tout notre contenu. Et d’ici là, souvenez-vous : humain = humain, machine = machine.
