Skip to main content
Key Takeaways

IA invisible: Les employés utilisent des chatbots personnels sans validation, formant une pile d’IA non reconnue dans les organisations.

Limite de conception: L’IA doit transformer la structure du travail, et non simplement se superposer à l’existant, pour une adoption efficace.

Défis d’adoption: Le contrôle IT classique ne fonctionne plus, car les outils d’IA nécessitent peu de formation grâce à une familiarité préexistante.

Résistance technologique: Les organisations peinent à mettre en œuvre l’IA, se concentrant sur la technologie plutôt que sur la transformation des processus.

Urgence de l’IA: Engagez-vous dès maintenant sur l’usage réel de l’IA par vos équipes pour traiter les contraintes, éviter la rupture et stimuler l’innovation.

Les dirigeants de tous les secteurs commettent la même erreur avec l’adoption de l’IA.

Ils la considèrent comme une simple décision d’achat. Acheter telle plateforme. Tester tel agent. Ajouter cette fonctionnalité à la pile technologique.

Le problème est plus profond que le choix d’outils. D’après le rapport « MIT sur l’état de l’IA en entreprise en 2025 », plus de 90% des collaborateurs utilisent des comptes de chatbot personnels pour leurs tâches quotidiennes, souvent sans l’aval de l’IT, alors que seulement 40% des entreprises disposent d’abonnements LLM officiels. Vos employés ont déjà bâti les fondations de votre pile IA. Ils l’ont simplement fait sans demander la permission.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Cela crée une réalité étrange : la technologie que la plupart des dirigeants planifient encore de déployer fonctionne déjà au sein de leurs organisations. Le temps de former un comité pour évaluer les outils IA, votre équipe a déjà choisi ses préférés et les a intégrés dans les flux de travail quotidiens.

Le problème d’architecture

Quand on aborde l’IA comme une simple décision de sourcing, on passe à côté de l’opportunité de repenser l’organisation.

Gabriela Mauch, Chief Customer Officer et Head of Productivity chez ActivTrak, observe ce schéma à répétition.

Les équipes peuvent imaginer des cas d’usage transformateurs pour l’IA, mais sont freinées par une infrastructure organisationnelle qui n’a pas été conçue pour un travail avec l’IA. Si la direction se limite à mesurer l’usage des outils, elle ne perçoit pas ces plafonds invisibles.

Résultat : l’IA vient se superposer aux structures organisationnelles existantes au lieu de transformer la manière de travailler. Les compétences s’atrophient au lieu d’évoluer.

L’alternative consiste à définir des rôles distincts pour l’IA et pour les humains. L’IA devrait gérer l’analyse, rédiger les rapports, prendre en charge les tâches routinières. Elle doit informer les humains et poser les questions qu’elle n’arrive pas à contextualiser. La décision finale revient à quelqu’un qui devra en répondre.

La responsabilité est cruciale car l’IA, elle, ne risque pas de perdre son emploi. En mars 2024, Air Canada en a fait l’amère expérience lorsqu’un client a attaqué la compagnie après que son chatbot a fourni de mauvaises informations sur les tarifs de deuil. Le tribunal a jugé Air Canada responsable des erreurs de son chatbot. La réputation de l’IA n’a été ternie que temporairement. Les conséquences juridiques, elles, ont pesé sur l’équipe légale de l’entreprise.

C’est la contrainte de conception que la plupart des discussions sur l’IA éludent.

Pourquoi les dirigeants expérimentés trébuchent

Des leaders qui ont su gérer la migration vers le cloud ou la mise en place d’ERP commettent des erreurs de débutant avec l’IA. Trois facteurs rendent cette vague différente.

  • Le rythme est inédit. Gartner prévoit que 40% des applications d’entreprise intégreront des agents IA d’ici fin 2026, contre moins de 5% en 2025. Cela représente une multiplication par 8 en un an. Le temps de comprendre une évolution, la prochaine vague apporte déjà quelque chose de radicalement nouveau.
  • La question éthique est complexe. Chaque déploiement impose de se demander : l’IA peut-elle agir aussi bien qu’un humain ? Que faut-il pour y arriver ? Les humains doivent-ils garder la main ?
  • Le modèle d’adoption est inversé. Les précédentes technologies en entreprise nécessitaient formation, certification, déploiement contrôlé. Les outils IA requièrent peu de spécialisation car chacun s’en est déjà emparé.

C’est là le défi fondamental. Lors des précédentes vagues technologiques, l’IT contrôlait le déploiement. Désormais, la couche de base de votre pile est déjà active et en grande partie invisible.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

L’écart entre annonce et adoption

L’une des erreurs courantes consiste à croire qu’une fois qu’une nouvelle stratégie est annoncée, chacun saura immédiatement travailler différemment.

On le voit beaucoup avec l’IA, explique Iris Cremers, CHRO chez GoodHabitz. « Dès que la direction annonce que ‘nous faisons de l’IA’, on suppose que tout le monde va soudainement travailler plus intelligemment et efficacement. En réalité, les personnes et les équipes ont besoin de temps, de directives claires et d’apprentissages pratiques. »

Sans accompagnement adapté, la nouvelle technologie peut paraître complexe, voire menaçante. GoodHabitz a conçu un programme de formation à l’échelle de l’entreprise avec sa plateforme d’apprentissage Goodlearn AI, pour offrir à chacun un moyen simple et sécurisé de développer confiance et compétences.

« Cela a permis d’apaiser les craintes, remplacées par de la curiosité et de l’enthousiasme à l’introduction de ces nouveaux outils dans notre quotidien », explique Cremers.

Sharon Steiner, CHRO chez Fiverr, apporte un autre regard.

« La plus grande incompréhension que je constate, c’est que la direction considère l’IA avant tout comme une question technologique ou d’efficacité, tandis que les équipes y voient un bouleversement de leur façon de travailler », observe-t-elle. « Les dirigeants demandent : “Quels outils adopter ?” mais les employés s’interrogent : “Comment cela change-t-il mon rôle, mes compétences, et la façon dont je serai évalué ?” »

Ce qui se passe réellement au niveau des équipes, c'est de l'expérimentation. Les gens utilisent déjà l’IA pour aller plus vite, acquérir de nouvelles compétences et résoudre des problèmes en temps réel.

Lorsque les décisions technologiques ignorent la réalité organisationnelle

Mauch a partagé l’exemple d’un client du secteur financier qui a déployé l’IA à l’échelle de l’entreprise avec les approches technologiques classiques : accès aux outils, formation, bibliothèques de cas d'utilisation et champions. Six mois plus tard, l’adoption a stagné et le retour sur investissement ne se concrétisait pas malgré 70 % d’utilisateurs actifs.

L'entreprise souhaitait utiliser l’IA pour trier automatiquement les demandes des clients selon leur complexité et les orienter de façon adéquate, ce qui aurait représenté une transformation réelle des processus de travail. Cela n’a pas été possible car :

  • La DSI n’avait pas priorisé le développement des API pour accéder aux systèmes de données clients
  • Les workflows de validation par les managers n’avaient pas été modifiés pour permettre à l’IA de prendre les décisions d’orientation
  • Les processus de contrôle qualité étaient toujours conçus pour un travail exclusivement humain
  • La coordination des équipes était encore structurée autour de l’attribution individuelle des tâches

« La direction considérait toujours cela comme des “détails de conduite du changement à régler plus tard”, » a expliqué Mauch. « Pendant ce temps, ils investissaient dans plus de technologies comme des modèles avancés, davantage d'outils, plus d’intégrations. Mais le blocage n’était pas d’ordre technique. »

Les employés apparaissaient dans les métriques d’adoption comme "utilisateurs actifs de l’IA" car ils l'utilisaient encore pour des tâches basiques, mais ils avaient abandonné les cas d’usage à forte valeur ajoutée qui auraient réellement généré du ROI.

La vision à long terme que personne ne prend

Quand je parle d’envisager l’IA sur le long terme, je fais référence à deux aspects précis.

Évolutions des effectifs

Une société de services professionnels a identifié ses meilleurs utilisateurs d’IA — des consultants produisant trois fois plus que la normale — et les a récompensés par des promotions, des primes et des présentations en plénière. Une reconnaissance classique des talents.

Trois mois plus tard, l’adoption de l’IA au niveau des équipes de ces superstars avait en réalité diminué.

« L’entreprise a récompensé les gains de productivité individuels, donc les meilleurs éléments ont gardé leurs techniques d’IA pour eux au lieu de les partager, » a expliqué Mauch. « Pourquoi aider ses collègues à adopter l’IA si cela augmente la concurrence pour la prochaine promotion ? L’entreprise a manqué l’opportunité de créer des mentors en IA. »

Elle a donc restructuré les incitations autour de l’adoption en équipe plutôt que la productivité individuelle. Les primes ont été liées au soutien apporté à la montée en compétences IA des collègues. Les promotions requéraient de prouver que l’on avait accompagné d’autres personnes.

Avec ce changement, les meilleurs éléments ont commencé à enseigner activement et l’adoption en équipe s’est accélérée. Les superstars individuelles sont précieuses, mais à condition que leur savoir profite à toute l’organisation au lieu de rester un avantage compétitif individuel.

Évolution organisationnelle

Les dirigeants adorent avoir un plan sur cinq ans, mais nous n’avons aucune idée de ce à quoi ressemblera le monde d’ici la fin de l’année.

Intégrez de la flexibilité dans votre stratégie. Votre profil de compétences et la façon dont vous développez vos collaborateurs vous aideront à rester agile. Sinon, vous risquez de tout miser sur l’IA comme élément central de la stratégie, puis de réaliser que vous avez besoin de personnes pour la faire fonctionner, et d’entrer sur un marché du travail où les compétences précises dont vous avez besoin sont rares.

Planifiez sur deux ans et adaptez-vous. Le rythme du changement est trop rapide pour viser plus loin.

Comment construire quand les bases bougent déjà

Il faut communiquer.

« Arrêtez de considérer l’adoption comme binaire et commencez à diagnostiquer l’impact, » a expliqué Mauch. « La plupart des organisations ont beaucoup d’usage basique, mais presque aucune utilisation transformatrice, là où se trouve la vraie valeur. »

La plupart des dirigeants suivent les connexions, requêtes et licences logicielles plutôt que la transformation des comportements. Le vrai ROI apparaît quand l’IA transforme les processus, ce qui exige de comprendre si elle a changé la façon de travailler, et non simplement si l’utilisation de l’outil a augmenté.

L’analyste qui utilise l’IA pour rédiger quelques parties de son rapport n’a pas transformé son processus. Celui qui a repensé entièrement son analyse autour de la surveillance continue permise par l’IA, oui.

Steiner insiste sur l’importance du dialogue d’apprentissage.

Demandez à vos équipes comment elles utilisent l’IA aujourd’hui, où elles aimeraient développer des compétences, et quel soutien leur serait utile pour progresser, » dit-elle. « Laissez-leur de la place pour expérimenter, apprendre et prendre confiance avec ces outils.

Pendant que vous analysez des options de restructuration, certains de vos collaborateurs essaient d’apprendre. Ils acquièrent de nouvelles compétences sans savoir si ce sont les bonnes. Vous pouvez les orienter dans la direction dont vous avez besoin et les aider à développer les capacités dont l’entreprise a besoin.

Dans le même temps, vous comprendrez quels outils ils utilisent, où ils créent de la valeur et comment l’organisation pourrait mieux soutenir leurs activités.

Cela vous permet de garder une longueur d’avance sur ce qui évolue et vous aide à conserver la maîtrise des questions éthiques. Vous devenez plus à l’aise avec l’orientation stratégique au lieu de vous laisser emporter par l’engouement.

Et au lieu de « nous sommes en retard, nous devons faire ça pour ne pas être dépassés », vous agissez selon « est-ce que cette nouveauté tape-à-l’œil nous aide réellement à cultiver la vision que nous avons pour où nous voulons être dans deux ans ? »

Passer d’une posture réactive à une posture intentionnelle nécessite de repenser entièrement la gouvernance.

La gouvernance comme alignement, pas comme police

Lorsque vous découvrez qu’un employé s’est construit son propre flux de travail IA, considérez-le comme une collaboration.

« Considérez l’IA de l’ombre comme une étude de marché, pas comme un problème de conformité », a déclaré Mauch. « Vos employés qui ont adopté des outils non approuvés vous signifient qu’ils ont trouvé des solutions à de vrais problèmes que vos outils officiels ne résolvent pas. »

Poll: How is your org handling AI adoption?

How is your organization handling AI adoption?

Cremers et son équipe chez GoodHabitz ont adopté cette approche lorsqu’ils se sont aperçus que des employés utilisaient déjà des outils IA externes.

Plutôt que de tout bloquer, nous avons choisi une approche plus ouverte et bienveillante, a-t-elle déclaré. Nous avons invité toute personne utilisant déjà un outil externe à nous le présenter. Nous avons ensuite vérifié s’il pouvait être utilisé en toute sécurité. S’il passait la vérification, nous le mettions à la disposition de toute l’organisation afin que d’autres puissent également en bénéficier.

Cela a créé de la confiance, réduit les risques et démontré que l’objectif était d’aider chacun à travailler plus intelligemment, pas de les surveiller. Et comme on pouvait s’y attendre, certains employés avaient découvert des outils utiles dont l’entreprise n’avait pas encore connaissance.

« Goodlearn a également aidé en donnant à chacun une compréhension de base de la manière de gérer l’information de façon sûre et responsable, et de reconnaître les outils fiables », précise Cremers.

Mauch recommande un cadre en trois parties :

Comprendre avant de normaliser

Cartographiez ce qui est réellement utilisé et pourquoi, non pas pour punir, mais pour apprendre. Dans un cas, ActivTrak a découvert qu’une équipe produit utilisait un outil de codage IA non approuvé de quatre à cinq heures par jour.

Plutôt que de l’interdire, la direction a demandé pourquoi. L’équipe avait identifié des fonctionnalités précises que l’outil « officiel » n’offrait pas, et avait développé naturellement des workflows sophistiqués que personne d’autre n’avait élaborés.

Distinguer les niveaux de risque

Toute l’IA de l’ombre ne présente pas le même niveau de risque. L’analyste qui utilise l’IA pour générer des idées de présentation ne présente pas le même risque que celui qui traite des données personnelles clients via un outil non approuvé. Définissez des critères simples :

  • Quelles données sont traitées ?
  • Quelles décisions la sortie de l’IA peut-elle influencer ?
  • Quel est le niveau de maturité de l’utilisateur quant à l’utilisation appropriée ?

Laissez les usages à faible risque et forte valeur se poursuivre pendant que vous mettez en place des garde-fous adaptés.

Co-créer la gouvernance avec les utilisateurs

Impliquez les utilisateurs de l’IA de l’ombre dans la conception des politiques. Ils comprennent mieux que quiconque les compromis pratiques entre sécurité et utilité. Demandez-leur :

  • Que perdriez-vous si nous arrêtions cet outil ?
  • Quelles préoccupations avez-vous ?
  • Quels garde-fous souhaiteriez-vous ?

Cela permet de faire émerger des solutions comme des environnements en bac à sable où les équipes peuvent expérimenter avec des outils non approuvés sur des données synthétiques avant d’obtenir la validation pour l’utilisation en production.

La réalité est que l’IA fait déjà partie du quotidien professionnel, et tenter d’y mettre fin fait prendre du retard aux entreprises plutôt que de leur donner le contrôle, a déclaré Steiner. La gouvernance demeure essentielle, mais dans un environnement « AI-first », elle devrait favoriser le progrès, pas le freiner.

Pour que ces processus fonctionnent, il faut les intégrer aux systèmes déjà en place. Est-ce que cela peut prendre la forme d’un formulaire dans votre centre de documentation interne ? Certains validateurs désignés peuvent-ils approuver les idées dans un délai donné sur Slack ? Intégrer l’approbation aux workflows existants réduit les frictions tout en aidant chacun à évaluer la clarté, la cohérence avec les objectifs et l’impact business des idées.

Vous devez valoriser la transparence des employés qui expérimentent. Si quelqu’un partage quelque chose qui n’est pas une bonne utilisation de la technologie, cela ne doit jamais être sanctionné.

Ce à quoi « trop tard » ressemble vraiment

Vous n’avez pas beaucoup de temps.

Être trop tard, c’est lancer des fonctionnalités que vos concurrents ont sorties il y a six mois. C’est voir vos meilleurs éléments frustrés et prêts à partir. C’est voir des managers perdus, servant d’intermédiaires confus entre la stratégie et l’exécution.

Mais surtout, c’est l’incapacité à déployer l’IA comme réponse à de vrais défis dans votre organisation.

Certaines entreprises le ressentent déjà. C’est pourquoi elles choisissent les licenciements et les gains à court terme. Elles n’ont pas de vision claire du long terme, alors elles réduisent leur activité au strict minimum pendant qu’elles essaient d’y voir clair.

Des recherches de Reco AI ont révélé que deux outils d'IA de l'ombre étaient utilisés en moyenne pendant 403 et 401 jours respectivement. Bien plus d'une année d'utilisation continue sans approbation officielle ni supervision. Après 100 jours d'utilisation continue, un outil d'IA n'est plus une phase d'essai. Il fait partie intégrante des processus métier. Tenter de le retirer n'est plus seulement une mission informatique, c'est un risque de perturbation majeure pour l'activité.

Voilà à quoi ressemble "trop tard". L'impossibilité de réguler ce qui a déjà été adopté.

La première étape

Steiner prodigue des conseils clairs aux dirigeants qui se sentent en retard.

« La véritable question n'est pas de savoir s'il faut commencer à utiliser l'IA, mais quand et comment, et la réponse est maintenant, avec expérimentation », affirme-t-elle. « Ce n'est pas le moment de rester passif et d'observer. L'IA transforme très rapidement la façon dont le travail s'organise. »

Entamez la discussion sur la manière dont vos équipes travaillent avec l'IA. Quels outils elles utilisent. Où elles trouvent de la valeur. Ce qu'elles aimeraient faire mais ne peuvent pas.

Une question aussi simple que « Que feriez-vous avec l'IA si les contraintes organisationnelles n'étaient pas un obstacle ? » permet de révéler des freins invisibles.

« Nous constatons régulièrement des personnes qui imaginent des applications transformantes, mais qui sont bloquées par l'accès aux données, les processus d'approbation ou des politiques de gouvernance taillées pour des risques de débutants », explique Mauch.

Cette conversation révèle où votre socle invisible existe déjà. Elle montre quels essais méritent d'être amplifiés et lesquels doivent être réorientés. Elle vous aide à comprendre si vous bâtissez sur des bases solides ou sur une dette technique.