Priorité à la gouvernance: L’adoption de l’IA nécessite une démarche structurée avec une gouvernance claire pour éviter le chaos et la duplication.
Implication des RH: Les RH doivent s’imposer dans la stratégie IA, en prenant l’initiative sur les aspects liés à la main-d’œuvre et à l’apprentissage aux côtés des responsables techniques.
Rôle du manager: Le management intermédiaire est crucial pour la transformation IA, avec des managers capables de contextualiser le changement et de guider le processus.
Impact de l’ambiguïté: Percevoir la transition vers l’IA comme un développement continu, et non comme une rupture, réduit l’épuisement et la fatigue du changement chez les employés.
Fondation des données: Une infrastructure de données solide et cohérente est essentielle pour un déploiement efficace de l’IA et pour éviter des problèmes systémiques.
Le circuit des conférences est devenu un véritable indicateur. Ce qui se dit dans ces salles et sur ces scènes est une distillation de ce qui se passe, de ce qui est ressenti et de ce qui est prévu pour le lieu de travail moderne.
Transform 2026 à Las Vegas n’a pas fait exception. Au fil de trois jours de sessions, de tables rondes et de conversations de couloir, quelques points sont ressortis de manière très éclairante. Bien sûr, il y avait les habituels discours d’ouverture teintés d’optimisme et les aveux pessimistes, mais il y avait aussi des points de friction honnêtes remontés par des praticiens concernés au quotidien.
Voici ce que cette semaine m’a vraiment révélé.
1. La gouvernance est le travail ingrat qui détermine si tout cela perdurera.
Personne ne vient à une conférence pour parler de documentation des politiques. Et pourtant, ce sujet apparaissait sans cesse comme la base indispensable de l’adoption de l’IA.
Lors d’une session axée sur les compétences le premier jour, Stacy Eng, ancienne Chief Learning Officer chez Chevron, a décrit à quel moment son organisation a réalisé que l’enthousiasme seul allait semer la pagaille. Ils avaient largement ouvert la porte aux idées des employés sur l’utilisation de l’IA, et le résultat fut effectivement un raz-de-marée. Des centaines d’idées les ont rapidement amenés à prendre conscience qu’il leur fallait un cadre pour les hiérarchiser.
La solution fut structurelle : un conseil de l’IA réunissant le CIO, le CFO et d’autres cadres dirigeants pour déterminer les projets à poursuivre, à mettre en attente ou à abandonner.
Cette expérience a trouvé un fort écho lors des sessions. Un professionnel issu d’une entreprise non technologique a raconté avoir volontairement « laissé passer la première vague IA » — « nous voulions laisser les autres faire les erreurs » — avant qu’un mandat du conseil d’administration impose d’avancer.
Amy Reichanadtner, Chief People Officer chez Databricks, a expliqué comment elle organise le travail de son équipe sur l’IA en trois niveaux bien distincts : des initiatives stratégiques portées par la direction, un examen des processus pour chaque fonction, et une zone laboratoire favorisant l’expérimentation ouverte mais encadrée.
Sans cette structure, remarquait-elle, on se retrouve avec des outils dupliqués dans sa pile people qui traitent les mêmes problèmes, sans possibilité de savoir ce qui fonctionne.
Le problème de fond, c’est qu’une documentation de politiques incomplète crée une base fragile pour tout système d’IA qui s’en inspire. Sans parler des agents nécessitant une gouvernance capable de suivre le rythme en continu.
2. Le siège des RH à la table de l’IA n’est pas attribué d’emblée. Il faut le prendre.
L’une des frustrations les plus marquées durant la semaine : les RH sont systématiquement écartées de la stratégie IA, puis se voient confier la gestion des conséquences.
Isaac Agbeshie-Noye a relevé que très peu de professionnels RH comprennent leur place dans la stratégie IA.
« Ils ont délégué cela au CTO », a-t-il expliqué. « Nous avons besoin que ces professionnels soient impliqués. »
Eng a soulevé un point similaire concernant la conception organisationnelle. La mise en œuvre de l’IA est un événement qui touche les effectifs, plus qu’un simple déploiement technique. Les compétences, la psychologie, l’architecture des apprentissages relèvent du domaine RH.
« Les RH, qui comprennent les effectifs, peuvent bâtir la composante apprentissage et développement. Elles doivent faire partie du conseil de l’IA aux côtés du CIO et du CTO, pour s’assurer que les aspects humains du changement soient intégrés. »
L’étude 2026 HR Outlook du Brandon Hall Group a révélé que 65% des organisations intègrent activement l’IA dans leurs processus clés. Moins de 30% ont réellement redéfini leurs rôles ou structures d’emplois pour en tenir compte. C’est là que les RH doivent agir, sous peine d’être écartées durablement.
3. Le niveau managérial est là où la transformation par l’IA échoue.
La session de Matt Poepsel a sans doute été la plus honnête de la semaine. Il a décrit des managers opérant sans contexte, prenant des décisions en vase clos, et il n’a pas présenté cela comme une défaillance individuelle, mais comme un problème systémique : des IA génériques qui ne connaissent ni l’organisation, ni les personnes, ni les dynamiques comportementales.
« Lorsque nous voyons des managers contourner les règles », a-t-il déclaré, « cela crée un vide qui se manifeste à chaque étape du cycle de vie de l’employé ».
Les conséquences s'accumulent. Les employés se tournent vers ChatGPT pour obtenir des conseils de gestion, car la confiance s'est érodée au point qu'ils ne croient plus pouvoir obtenir de réponse honnête de leur véritable manager.
Claude Silver, Chief Heart Officer chez VaynerX, a décrit la promotion de personnes à des rôles managériaux et la découverte que l’organisation avait supposé qu’elles sauraient gérer la peur, l’incertitude et les vraies conversations.
« Nous devons avoir des managers capables de créer cela, » a-t-elle déclaré. « Il semble que nous passions totalement à côté de ce point. »
La formulation de Brian Elliott, animateur de l'événement, était directe : "La transformation par l’IA est un sport d’équipe, qui nécessite que les équipes aient du temps et de l'espace pour s’entraîner ensemble. Un champion IA intégré dans une équipe qui connaît les objectifs de l’équipe est plus puissant que les programmes de formation."
4. L’ambiguïté épuise les employés plus rapidement que la charge de travail.
La fatigue du changement a été citée à plusieurs reprises, mais le diagnostic le plus précis est venu d’Agbeshie-Noye.
Cela a des implications concrètes sur la façon dont les organisations communiquent les transitions vers l’IA. Eng a évoqué un choix de communication chez Chevron où l’accent a été mis sur le cadrage de l’IA non pas comme une rupture, mais comme le nouveau chapitre d’un voyage numérique continu, afin de rendre ce passage plus fluide que perturbant.
Danny Guillory, Chief People Officer chez Gametime, est allé encore plus loin.
« Parfois, nous devons en faire moins en ce qui concerne ce que nous imposons et rester attentifs aux rythmes que vivent les personnes. »
Il y a une différence entre préparer votre personnel au changement et le submerger. L’objectif, pour ceux qui cherchent à gérer ce défi, est de créer de la clarté sur la direction des choses, pas seulement de l’enthousiasme sur ce qui est possible.
5. La couche de données n’est pas un détail technique. C’est le fondement.
Jevan Soo Lenox, Chief People Officer chez Writer, a dit quelque chose qui mériterait plus d’attention : « Si vous ne construisez pas à partir d’une excellente base de connaissances cohérente, une couche de données accessible et exploitable, alors tout le reste finira par s’effondrer. »
Il ne parlait pas de façon abstraite. Il décrivait l’expérience d’observer des organisations qui déploient des outils d’IA sur des infrastructures de données chaotiques, incomplètes ou incohérentes, puis s’étonnent que rien ne fonctionne comme promis.
Giovanni Luperti, PDG de Humaans, a fait un point similaire concernant l’IA agentique : les systèmes apprendront de ce que vous leur fournissez. Donnez-leur des données brouillon et ils systématiseront le désordre. Le processus d’intégration en est un exemple — très répétitif, à fort potentiel d’automatisation, mais seulement si le processus sous-jacent est bien défini.
Vous voulez obtenir des agents qui vont exécuter ce processus tout le temps et ils vont apprendre à le faire mieux. Mais lorsque vous passez à des composants d’autorité plus complexes, je ne pense pas que ces systèmes soient prêts.
La question que les organisations devraient se poser avant de construire quoi que ce soit : sur quoi l’IA s’appuie-t-elle réellement ?
6. La responsabilité du leadership dans l’adoption de l’IA doit être mesurable, sinon elle disparaît.
Stacy Eng a été directe sur ce qui permet de passer du soutien enthousiaste à la véritable implication des dirigeants.
Peter Beard, vice-président politique et programmes à la Chambre de commerce des États-Unis, a ajouté un point connexe sur la visibilité. Maintenir les projets d’IA dans le champ de vision de la direction — non pas pour s’immiscer, mais pour signaler l’attention portée — modifie le comportement dans toute l’organisation. « C’est ce qui va provoquer le changement », a-t-il déclaré.
Cela a son importance car le déficit d’imputabilité est bien réel. Lorsque l’adoption de l’IA est présentée comme une initiative culturelle dépourvue de responsabilités, elle sera considérée comme optionnelle. Lorsqu’elle est intégrée aux processus d’évaluation de la performance, elle devient un vrai travail.
7. Le signal dans le recrutement s’effondre, et le volume n’est pas la solution.
La session sur le recrutement avec Aaron Wang, PDG d’Alex.com, a révélé un problème que les responsables acquisition de talents observent en temps réel. Les volumes de candidatures ont explosé — certains ATS annoncent 750 candidatures par poste — tandis que le pourcentage réellement examiné reste autour de deux à trois pour cent.
L’IA a rendu la candidature sans friction. Le coût pour postuler est aujourd’hui presque nul. Et de plus en plus, c’est l’IA qui postule à la place des candidats, parfois à grande échelle, parfois de manière trompeuse.
L’argument des fournisseurs est que le filtrage par IA règle le problème en traitant tout le monde. Mais la question plus difficile évoquée durant la session, et restée sans réponse, est la suivante : quel signal subsiste réellement lorsque les deux côtés de la transaction sont médiés par l’IA ?
Un candidat sur quatre serait désormais frauduleux, selon Wang. Ce chiffre, s’il est exact, montre à quel point le sommet du tunnel est corrompu.
Le vrai problème n’est pas le volume. C’est que le CV en tant que signal perdait déjà de sa pertinence avant l’arrivée de l’IA, et cette dernière a accéléré son effondrement. Filtrer à grande échelle ne règle pas la question de ce qu’est un bon profil lorsque les informations de départ sont peu fiables.
8. Le jugement humain reste un atout, à condition d’être intégré et non supposé.
Le fil rouge le plus constant de la semaine, à travers des sessions pourtant disparates, fut le suivant : l’humain reste supérieur à l’IA pour le jugement, mais cet avantage n’est réel que si l’organisation le préserve et le développe sciemment.
Le cadre proposé par Matt Poepsel était direct.
Amy Reichanadtner a mis en avant deux capacités qui, selon elle, porteront les gens : penser à partir des premiers principes et être bâtisseur.
June Dinitz, responsable du personnel aux États-Unis et au Canada chez EPAM Systems, a décrit l’évolution des services professionnels vers des « ingénieurs déployés en clientèle », autrement dit des personnes capables de s’immerger dans les activités du client pour en comprendre tout le contexte avant de proposer des solutions techniques.
Cela signifie ne pas traiter le jugement comme une compétence douce mais comme une infrastructure et construire les conditions pour qu’il puisse s’exercer, notamment dans les petites équipes. L’approche de Luperti opposant « augmentation de la décision versus substitution de la décision » est un prisme utile. Tout ce qui est déterministe : donnez-le à l’agent. Tout ce qui requiert contexte, nuance ou conséquence : gardez l’humain au centre de la boucle.
9. La nouvelle génération de travailleurs vit une situation inédite et les dirigeants doivent écouter plutôt qu’expliquer.
Michael Walters, DRH chez Samsung Semiconductors, a prononcé une phrase pleine de sagesse pour toute personne née avant 2000.
Je dois comprendre que je ne sais pas ce que c’est d’avoir 25 ans en 2026, donc je dois beaucoup écouter.
Claude Silver a décrit comment elle avait vu passer et repartir rapidement de jeunes employés, non pas à cause du travail en lui-même, mais parce que les entreprises n’ouvrent pas de vraies discussions sur les implications de l’IA pour leur avenir, leur carrière ou leur sentiment d’appartenance.
Lors d'une conversation sur la scène principale au deuxième jour, Van Jones a abordé le sujet de front.
Ne vous laissez pas tenter d’utiliser cette technologie pour réduire les effectifs. Tout le monde aura des bots, et au final, on revient aux êtres humains. Vous devez plutôt investir dans le travail émotionnel pour garder vos équipes soudées.
Ce n'est pas un argument sentimental. C'est une stratégie. Si nous abordons l'adoption de l'IA seulement comme un exercice d'efficacité, nous allons perdre les personnes qui survivront à la vague actuelle d'automatisation.
Développer sa maîtrise de l’IA et instaurer la confiance humaine ne sont pas des priorités en concurrence. En ce moment, c’est le même projet.
