Skip to main content
Key Takeaways

Problèmes de confiance: Les Américains craignent davantage l’abus de l’IA par les dirigeants que l’IA elle-même, révélant des problèmes de confiance plus profonds.

Sentiments au travail: Les travailleurs évaluent l’IA selon les actes des dirigeants et leurs abus de pouvoir passés, non selon ses mérites techniques.

Comparaison avec l’UE: Les Européens partagent les inquiétudes liées à l’IA mais bénéficient de cadres réglementaires absents chez les travailleurs américains.

Confiance envers l’employeur: Les employeurs américains inspirent plus de confiance que d’autres institutions, mais cette confiance reste fragile et inégale.

Stratégies de leadership: L’adoption réussie de l’IA exige de la transparence et une implication à tous les niveaux des employés.

Plus je parle avec des gens, peu importe leur secteur d’activité, plus une chose devient évidente. Les Américains n’ont pas peur de l’IA, ni même de la technologie en général. Ils ont peur de ce que les responsables feront avec.

Cette distinction compte plus que n’importe quel indicateur ou lancement de produit, car elle reconfigure toute la conversation sur l’adoption de l’IA au travail. La narration dominante traite la résistance à l’IA comme un problème de compréhension, quelque chose que de meilleures formations et des intégrations plus attractives pourraient résoudre. Mais les données racontent une autre histoire.

L’anxiété qui saisit les travailleurs américains tient à des décennies de promesses non tenues de la part des institutions qui les emploient, les gouvernent et prétendent défendre leurs intérêts.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Le Baromètre de la Confiance Edelman 2025 place les États-Unis parmi les cinq grandes économies les moins confiantes au monde, avec un indice de 47 sur 100. Le Japon, l’Allemagne, le Royaume-Uni et la France complètent ce groupe.

Soixante et un pour cent des répondants au niveau mondial déclarent éprouver un sentiment modéré ou élevé de ressentiment, défini comme la conviction que les gouvernements et les entreprises servent des intérêts restreints alors que la population se bat pour s’en sortir. Aux États-Unis, le constat est plus net : les Américains rejettent l’IA trois fois plus souvent qu’ils ne l’adoptent, 49 % contre 17 %.

Ces chiffres ne décrivent pas une population dépassée par la technologie. Ils décrivent une population qui a vu des dirigeants d’entreprise promettre monts et merveilles pour ne jamais tenir parole depuis des générations, et qui voit désormais l’IA comme le prochain moyen de perpétuer ce cycle.

Les données sur le lieu de travail renforcent cette impression. L’indice TrustID de Deloitte a enregistré une chute de 31 % de la confiance envers l’IA générative fournie par les entreprises entre mai et juillet 2025. La confiance dans les IA agentiques, systèmes capables d’agir de façon autonome plutôt que de seulement recommander, s’est effondrée de 89 % sur la même période.

Les travailleurs n’évaluent pas la technologie selon ses mérites techniques. Ils l’évaluent selon qui la contrôle et ce que ces personnes ont fait du pouvoir dans le passé.

Le sondage éclair d’Edelman, focalisé sur l’IA et mené dans cinq pays fin 2025, montre que les employés sont 2,5 fois plus motivés à adopter l’IA lorsqu’ils estiment que leur sécurité d’emploi augmente. Deux sceptiques sur trois estiment que l’adoption est subie, pas choisie. Et lorsqu’on leur demande à qui ils font confiance pour leur dire la vérité sur l’IA, les salariés choisissent leurs pairs plutôt que les PDG ou responsables politiques, dans un rapport de deux à un.

Cette dernière observation est une forme de réquisitoire silencieux. Les travailleurs ne veulent pas entendre parler de l’IA par la direction générale. Ils veulent en discuter avec quelqu’un qui travaille à côté d’eux, sans intérêt personnel dans le message.

Une autre forme de peur

À comparer avec l’Europe. Les Européens ne sont pas particulièrement enthousiastes face à l’IA non plus. L’Allemagne et le Royaume-Uni figurent tous deux au bas de l’indice de confiance. Mais les salariés européens évoluent dans une structure fondamentalement différente. Quelques différences clés :

  • La loi européenne sur l’IA réglemente les applications d’IA à haut risque dans l’emploi
  • Les comités d’entreprise offrent aux salariés une voix formelle concernant l’introduction de nouvelles technologies
  • Des pays comme l’Allemagne et la France exigent des consultations préalables en cas de licenciements massifs
  • La Confédération européenne des syndicats milite pour une directive dédiée aux systèmes algorithmiques au travail, incluant une supervision humaine obligatoire des décisions prises par l’IA et des droits de négociation collective sur leur déploiement.

L’UE œuvre aussi en faveur de ce que les défenseurs des politiques publiques appellent un « Pacte social pour l’IA », un cadre lié au Fonds social européen destiné à soutenir les travailleurs grâce à l’aide au revenu, la reconversion et les transitions professionnelles lors de bouleversements engendrés par l’IA. Le Fonds européen d’ajustement à la mondialisation offre déjà, bien qu’insuffisamment doté, un modèle d’accompagnement des salariés déplacés.

Cela ne veut pas dire que les salariés européens sont sereins face à l’IA. Mais leur anxiété prend une autre forme. Ils s’inquiètent de la surveillance, de la vie privée, de l’emprise des entreprises. Ils canalisent leurs préoccupations via des cadres réglementaires et des structures de négociation collective qui, malgré leurs imperfections, leur donnent une place à la table des négociations. Lorsqu’un salarié allemand entend que l’IA pourrait bouleverser son poste, il peut raisonnablement s’attendre à ce que quelqu’un au gouvernement ou dans son syndicat ait au moins réfléchi aux conséquences.

Les salariés américains n’ont aucune de ces protections. L’enjeu est structurellement plus grand aux États-Unis, où l’assurance-maladie est liée à l’emploi. Perdre son travail ne signifie pas seulement perdre un salaire. Cela signifie perdre totalement son filet de sécurité.

Aux États-Unis, l’emploi à volonté est la norme. Les taux de syndicalisation approchent des creux historiques. Il n’existe aucun cadre fédéral pour encadrer l’IA sur le lieu de travail. Lorsqu’un salarié américain apprend que l’IA pourrait bouleverser son poste, la question qui se pose naturellement est : et ensuite ? Qui me soutient ?

La réponse, de plus en plus, c’est : personne. Et les travailleurs le savent.

L’employeur comme dernier recours

C’est là que la situation se complique pour les dirigeants qui lisent cet article. Même si la confiance envers le gouvernement et les médias s’effondre, les employeurs restent, aux États-Unis, l’institution jugée la plus digne de confiance.

L'enquête menée par McKinsey auprès des employés en 2024 a révélé que 71 % des travailleurs font confiance à leur propre employeur pour déployer l'IA de manière éthique, un taux plus élevé que celui accordé aux universités, aux grandes entreprises technologiques ou aux startups. Selon les données d'Edelman, 66 % des employés font confiance à leur employeur pour agir correctement. Ce chiffre reste constant quel que soit l'âge, le genre, le niveau de revenu ou l'appartenance politique.

Mais cette confiance est fragile. Au niveau mondial, la confiance envers les employeurs a reculé de 3 points en 2025, la première baisse significative depuis que les employeurs ont pris la première place en 2021. Et cette confiance n'est pas répartie de manière homogène. Edelman a constaté un écart de 13 points entre les travailleurs du quartile de revenu le plus bas et ceux du plus haut. Soixante-cinq pour cent des Américains appartenant au quartile inférieur pensent qu'ils seront laissés pour compte par l'IA. La moitié des répondants de la classe moyenne ressentent la même chose.

Whitney Munro, PDG et fondatrice de FLEX Partners, constate cet état de fait en temps réel. Elle déclare :

Dans les organisations que nous conseillons, les résultats de l'adoption de l'IA dans les différents secteurs sont presque parfaitement corrélés aux niveaux de confiance préexistants entre la direction et le personnel.

Là où les employés avaient le sentiment d'avoir été informés honnêtement lors de précédentes périodes de changement, ils sont plus optimistes et disposés à donner une chance à l'IA. Là où c’est l’inverse, avec des décisions prises en vase clos sans communication, l’IA devient ce qu’elle appelle « un catalyseur de conflits ».

C’est alors que les employés commencent à se demander si le déploiement concerne réellement la productivité ou s'il s'agit de réduire les effectifs, et ils commencent à se sentir jetables.

Les personnes coincées au milieu de cette tension sont les vice-présidents, directeurs et cadres supérieurs chargés de transmettre le message.

Kelly Meerbott, coach en leadership, PDG de You Loud and Clear et intervenante TEDx sur la sécurité psychologique, les décrit comme des « amortisseurs humains » entre les priorités du comité de direction et la réalité vécue des salariés.

Ils sont épuisés, dit-elle. D'avoir à traduire les éléments de langage de la direction en quelque chose que leurs équipes peuvent réellement croire. Et lorsque ces cadres intermédiaires ne croient pas eux-mêmes au message, toute la chaîne de confiance s’effondre avant même que l’IA n’atteigne les employés de première ligne.

La façon dont un DRH ou un COO gérera cette tension au cours des deux prochaines années définira si l'IA devient un levier de confiance ou la rupture définitive.

Les données d’Edelman offrent un indice sur ce qui fonctionne. La communication entre pairs au sujet de l'IA est environ deux fois plus efficace que l'information descendante. Les usages volontaires surpassent les déploiements imposés. Et le moteur le plus puissant de la confiance envers l’IA, c’est l’expérience personnelle, en particulier le fait que l’IA aide réellement quelqu’un à mieux effectuer son travail.

Ce qui signifie que l’avenir de l’IA dépend moins des présentations stratégiques que de l’expérience quotidienne. Est-ce que la personne sur le terrain d'un entrepôt ou dans un bureau régional croit que l’outil d’IA récemment déployé par son entreprise, que ce soit pour des tâches courantes ou pour des processus d’évaluation de performance, est là pour lui faciliter la vie ? Ou pense-t-elle que c’est un prétexte pour justifier la suppression de son poste dans dix-huit mois ?

La technologie ne répond pas à cette question. C’est la relation entre le salarié et son employeur qui le fait. Et dans un pays où la confiance dans les institutions décline depuis des décennies, cette relation porte un poids qu’elle n’a jamais été conçue pour supporter.

La confiance suit les personnes, pas les plateformes

La recherche met en évidence un schéma qui devrait donner une direction aux décideurs. La confiance en l’IA ne commence pas avec l’IA. Elle suit une logique plus ancienne et plus humaine.

Les gens adoptent ce qu'ils se sentent suffisamment en sécurité pour explorer. Ils explorent ce qu'une personne de confiance a déjà essayé. Et ils s’engagent lorsque l’expérience confirme ce qu’on leur a dit : que cet outil existe pour les aider, pas pour les remplacer.

Cette séquence mérite d'être étudiée, car elle va à l’encontre de la façon dont la plupart des entreprises abordent le déploiement technologique. Le modèle standard est descendant : annonce des dirigeants, formation à l'échelle de l'entreprise, indicateurs d’adoption, intégration à la performance.

Chaque étape de cette séquence renforce la dynamique de pouvoir à laquelle les salariés se méfient déjà. Cela leur fait sentir que l’IA leur est imposée, pas co-construite avec eux. Dans un contexte où deux tiers des réfractaires ressentent déjà que l’IA leur est imposée, ce schéma n’est pas seulement inefficace. Il aggrave le problème.

David Kolodny, cofondateur du startup studio Wilbur Labs, qui a créé et investi dans plus de 21 entreprises technologiques depuis 2016, partage la perspective des bâtisseurs.

Une conviction forte que j’ai acquise après autant d’années à construire autour de l’automatisation, c’est que les fondamentaux restent tout aussi importants qu’auparavant, dit-il. L’automatisation requiert une mise en place réfléchie, des tests de qualité rigoureux et un suivi attentif dans la durée.

L'empressement à déployer, en d'autres termes, est là où la confiance disparaît. « Il est d’un ordre de grandeur plus facile de briser la confiance que de la construire, » ajoute Kolodny, « et c’est pourquoi tant de personnes restent tièdes face à la technologie. »

Munro affirme que le changement doit être plus fondamental qu’une simple question de rythme.

On ne peut pas déployer l’IA comme un simple projet technologique, dit-elle. Cela doit être culturel.

Cela signifie que les dirigeants doivent prendre des mesures très claires :

  • Définir explicitement à quoi servira ou ne servira pas l’IA.
  • Clarifier si des réductions d’effectifs font partie de la stratégie à long terme, au lieu de laisser les employés combler le silence avec leurs pires craintes.
  • Impliquer les équipes dans les premiers tests pour qu’elles fassent partie du processus, et être honnête au sujet des compromis au lieu de célébrer des gains de productivité que les collaborateurs soupçonnent d’être à leur détriment.
  • Vérifiez que vos actions sont alignées avec les valeurs en matière de surveillance. Utiliser l’IA pour de la surveillance « piège » détournera immédiatement les employés et confirmera toutes les peurs déjà présentes.

Ce que révèlent les données sur la confiance est presque d’une simplicité trompeuse. Commencez petit. Laissez les gens choisir de participer. Trouvez les salariés véritablement curieux, pas ceux qui affichent de l’enthousiasme pour plaire à la direction, et donnez-leur la possibilité d’expérimenter sans système d’évaluation.

Lorsque ces personnes reviendront raconter à leurs collègues qu’un outil particulier leur a fait gagner deux heures sur un rapport ou les a aidés à repérer un schéma qu’ils auraient manqué, ce témoignage aura plus de poids que n’importe quel grand discours, car il vient sans arrière-pensée.

L’argument de l’incertitude

Les dirigeants du comité de direction doivent aussi être prêts à admettre ce qu’ils ignorent. Les données d’Edelman ont révélé que deux tiers des salariés dans les pays développés pensent que les dirigeants d’entreprise ne seront pas totalement honnêtes sur l’impact de l’IA sur l’emploi. Cette présomption de manque de sincérité est déjà intégrée.

La seule façon de la déconstruire est d’afficher une transparence radicale sur ce que l’IA va changer, ce qu’elle ne changera pas, et là où l’entreprise n’a tout simplement pas encore de réponse. Meerbott va même plus loin.

Dites aux autres dirigeants que vous êtes confus, ou que vous n’avez pas la réponse, dit-elle. Étonnez-les par votre humanité.

Ce conseil va à l’encontre de décennies d’apprentissage du management, mais il se conforme parfaitement à ce que révèlent les données sur la confiance. La plupart des dirigeants sont formés à afficher la certitude. Dans ce contexte, la certitude est perçue comme du discours commercial. Admettre l’incertitude, accompagné d’un engagement visible à chercher la solution avec les employés plutôt que par-dessus eux, est une posture plus crédible que n’importe quel discours sur la transformation.

L’anxiété américaine vis-à-vis de l’IA est un phénomène culturel, produit d’une société qui a systématiquement affaibli les structures permettant de se sentir en sécurité pendant les périodes de bouleversement. L’Europe a mis en place des garde-fous avant que la voiture ne démarre. Les États-Unis demandent aux salariés de faire confiance au conducteur alors que la voiture accélère, même si le bilan du conducteur est, au mieux, mitigé.

Je ne pense pas que les Américains aient intrinsèquement plus peur de l’IA que leurs homologues, dit Munro. Je pense juste que nous sommes plus sceptiques envers les structures de pouvoir qui n’ont pas régulièrement fait preuve de confiance et de réciprocité.

Ce scepticisme ne sort pas de nulle part. Il s’est forgé. Et pour les DRH et Directeurs des opérations qui avancent dans ce contexte, c’est l’environnement de travail à prendre en compte.

Chaque déploiement d’IA, chaque décision d’automatisation, chaque restructuration des effectifs se fait à travers un déficit de confiance qui existait bien avant que quiconque ne saisisse une requête dans ChatGPT. Reconnaître ce déficit est la première étape. Le combler sera le chantier de la prochaine décennie.