Déficit de compétences: Les organisations peinent non pas en raison d’un manque de compétences techniques, mais faute d’avoir les bonnes personnes pour prendre les décisions.
Implication dans le design: Impliquer les bonnes personnes opérationnelles comme membres du noyau de l’équipe est crucial pour une conception efficace des agents.
Problèmes cumulatifs: Les petites erreurs de contexte des agents IA s’accumulent avec le temps, affectant la satisfaction et la confiance des clients.
Avantage des petits: Les petites organisations peuvent mettre en œuvre l’IA agentique plus facilement et avec moins de complexité que les grandes entreprises.
Besoins d’infrastructure: Le succès du déploiement de l'IA requiert plus que de la technologie : il nécessite la capacité organisationnelle et la qualité des données.
Lorsque les organisations poursuivent l’IA agentique, elles privilégient la technologie. Elles parlent d’agents, de couches d’orchestration, d’architectures multi-modèles.
Ce qu’elles mentionnent rarement : les personnes, et ce qui se passe lorsque tout casse de manière imprévue.
Le problème n’est pas technique, mais de nombreux dirigeants ne s’en rendent compte que lorsqu’ils sont déjà bien avancés dans le déploiement, observant une baisse de la satisfaction client et une dégradation des indicateurs de qualité.
Le déficit de compétences en IA agentique
Demandez à la plupart des dirigeants d’évaluer la maturité agentique de leur organisation. Ils vous parleront de leurs ingénieurs IA et data scientists. Ils détailleront leur infrastructure cloud et leur processus de sélection de modèles.
On examine beaucoup moins la question de savoir s’ils ont donné du pouvoir à ceux qui comprennent réellement comment les agents impacteront le métier.
Voilà le véritable déficit de compétences. Ce n’est pas la capacité technique, mais l’influence organisationnelle.
La vraie question n’est pas « avons-nous des ingénieurs IA ? », mais « avons-nous les bonnes personnes pour prendre les décisions ? »
Dans la plupart des organisations, la réponse est non.
Seulement 14 % des organisations disposent de solutions agentiques prêtes à être déployées, bien que 30 % explorent des options et 38 % mènent des projets pilotes.
Concevoir des agents IA en vase clos
Que se passe-t-il lorsque les équipes techniques conçoivent des agents sans l’avis de ceux qui font réellement le travail ? Ils simplifient à l’extrême.
Un processus qui semble limpide sur un organigramme contient en réalité des strates invisibles de jugement. Le conseiller client qui sait quand assouplir une politique. Le responsable des opérations qui identifie quelles exceptions sont cruciales. L’analyste qui lit entre les lignes de données incomplètes.
Ces décisions reposent sur le ressenti et l’expérience. Elles paraissent être de simples logiques « si ceci, alors cela » sur un arbre de décision.
Mais les personnes occupant ces fonctions comprennent ce que les agents ne savent pas facilement reproduire : le contexte.
Elles savent que même si une règle s’applique la plupart du temps, il existe des situations où il faut faire une exception. Parfois, il faut agir différemment.
Francisco Marin, cofondateur de Cognitive Talent Solutions, décrit le défi rencontré lors de la création d’agents RH :
Nous avons observé qu’il existait certaines capacités agentiques déployées pour les processus RH centraux comme la paie ou la conformité réglementaire. Mais il nous manquait cette génération de cas d’utilisation qui touche à l’analytique RH, et surtout ceux qui étaient alignés avec le cadre réseau.
Son équipe n’a pas seulement créé des solutions techniques. Elle a bâti des systèmes qui reflètent la réalité du travail, et non ce que montre un organigramme.
Si l’on crée des agents sans donner la priorité à la connaissance tacite, on n’obtient pas d’échecs immédiats. Ce sont des problèmes à retardement qui apparaissent.
Des problèmes de qualité qui s’accumulent
L’agent prend une décision techniquement correcte mais inadaptée au contexte. Pris isolément, ce n’est pas dramatique.
Mais au fil du temps, ces légères baisses de qualité s’additionnent.
On ne s’en aperçoit que lorsque les retours clients arrivent, lorsqu’une tendance se dégage dans les données, une fois que les dommages sont déjà présents dans le système.
À ce stade, il ne s’agit plus seulement de corriger un agent. Il faut restaurer la confiance.
95 % des projets pilotes en IA générative n’apportent pas de ROI mesurable. La cause principale n’est pas une faille dans les modèles. Une intégration défaillante et des priorités mal alignées condamnent ces démarches.
En clair : les organisations n’impliquent pas les bonnes personnes dans la conception.
Qui doit vraiment être dans la pièce ?
La personne dont on souhaite automatiser le rôle doit être présente.
Pas comme consultant, ni par politesse. En tant qu’acteur essentiel de l’équipe de conception.
Elle doit aider à orienter l’agent. Partager son expérience du terrain. Faire remonter les connaissances « sauf quand » qui n’apparaissent nulle part dans la documentation.
Dan George, ancien DRH avant de cofonder Cognitive Talent Solutions, explique ce qui est en jeu.
J’ai déjà réalisé ce processus manuellement par le passé. Lorsque j’étais DRH, responsable de l’analytique RH dans différentes organisations, j’ai dû établir des listes et les envoyer aux équipes de formation ou aux équipes en charge de l’engagement des talents.
Son expérience dans la construction d'agents lui a appris que l’automatisation sans expérience de terrain aboutit à des systèmes qui semblent fonctionnels mais qui échouent dans la pratique.
« Avoir un espace automatisé et autorisé où un administrateur peut juste cliquer, cliquer, cliquer, ça rend le processus tellement plus simple, et nous évite de sélectionner toujours les mêmes mentors et mentorés par habitude, dès le départ. »
Mais y arriver a demandé d’impliquer les personnes qui comprennent les subtilités du jumelage de mentorat, et pas seulement les exigences techniques du traitement des données.
Lisa Jones, PDG de EyeMail, a tiré une leçon similaire lors du déploiement de l’IA dans son organisation. « Nous avons demandé à chaque département : Où ressentez-vous de la friction ou de la répétition ? Où l’IA pourrait-elle vous aider à développer votre créativité ou votre clarté ? Sur quoi aimeriez-vous passer plus de temps si l’IA s’occupait du reste ? »
Cette démarche a fait émerger des idées allant du marketing aux opérations et a donné à chaque équipe la capacité de s’approprier la manière dont l’IA entrait dans leur quotidien.
La meilleure façon de capter l’expérience de terrain reste l’implication directe. Et cette implication doit s’accompagner de deux choses que la plupart des organisations séparent : la montée en compétences et une rémunération équitable.
On ne peut pas séparer la conception des agents du développement des personnes
La plupart des entreprises considèrent cela comme des initiatives différentes. La conception des agents relève de l’informatique. La montée en compétences relève des RH. La rémunération est traitée lors des entretiens annuels.
Cette fragmentation tue l’adoption.
Il faut tout regrouper pour maintenir une performance élevée. La conception d’agents est une nouvelle compétence. Comprendre comment les agents amplifient votre productivité et votre influence est plus important que de savoir les coder.
Si l’on ne regroupe pas ces éléments, on obtient l’un des deux résultats suivants.
- Sabotage de l’IA – Une participation cynique qui mine l’initiative. Les personnes qui savent que le système échouera s’assurent discrètement qu’il en soit ainsi.
- Atteinte à la réputation – La rumeur se répand que votre organisation exploite les connaissances sans investir dans les personnes. Votre marque employeur subit un préjudice difficilement réparable.
Jones explique comment EyeMail a évité ce piège.
Nous n’avons pas déployé de manuels de formation formels. À la place, nous avons créé des AI Curiosity Circles : des sessions hebdomadaires où les membres de l’équipe partageaient des découvertes, testaient des invites et exploraient l’impact émotionnel. Ce n’était pas de simples tutoriels techniques, mais de véritables laboratoires de storytelling.
Avec l’IA prenant en charge les tâches répétitives, l’équipe de Jones s’est investie davantage dans la narration, l’innovation et l’empathie client.
« La curiosité est devenue une valeur centrale, » dit-elle. « Les membres de l’équipe se sentaient plus engagés, plus valorisés et plus motivés à expérimenter. »
Il faut tout relier ensemble afin que les gens y voient un investissement en eux, et pas un simple remplacement.
Pourquoi les petites organisations ont un avantage
Les grandes entreprises ont déjà largement automatisé grâce à la Robotic Process Automation (RPA) et à l’IA prédictive. Elles ont construit des systèmes complexes avec de multiples niveaux d’approbation, exigences de conformité et contraintes juridiques.
Ajouter une architecture agentique à cette complexité crée des points de défaillance exponentiels.
Les petites équipes disposent d’atouts pour déployer l’IA. Elles ont moins de processus à suivre, moins de décideurs à aligner, et moins de casse-têtes de conformité.
La meilleure architecture agentique n’est pas inutilement complexe. Plus elle reste légère, moins il y a de risques de dysfonctionnement.
Les agents fonctionnent au mieux lorsqu'ils peuvent opérer avec des limites claires et un minimum de dépendances. Lorsqu'ils peuvent prendre des décisions sans devoir naviguer dans des processus d'approbation byzantins. Lorsqu'ils peuvent accéder aux données sans avoir à rapprocher quinze systèmes différents.
Les petites organisations bénéficient de cela par défaut. Les grandes entreprises doivent le construire intentionnellement.
Près de la moitié des organisations citent la recherche des données (48 %) et la réutilisation des données (47 %) comme des défis pour leur stratégie d'automatisation par l'IA. Vos données ne sont pas positionnées pour être consommées par des agents qui ont besoin d'un contexte métier.
Le fossé entre le CEO et le CISO
Les PDG sont optimistes. 67,1 % pensent que les outils d'IA les aideront à prendre de meilleures décisions en cybersécurité. 60,2 % pensent que leur entreprise est mieux préparée que les autres pour répondre aux menaces IA.
Les CISO sont prudents. Seuls 58,6 % partagent cette confiance. Seulement 19,5 % estiment que l'IA renforcera les défenses cyber, contre 29,7 % des PDG.
Ce fossé en dit long sur la préparation organisationnelle.
Les personnes responsables de la sécurité, de la conformité et des risques opérationnels voient des problèmes que le comité de direction ne voit pas. Ils savent que les agents introduisent de nouveaux vecteurs d'attaque. Que les systèmes multi-agents génèrent des cauchemars de débogage et que les modèles de gouvernance n'existent pas encore pour la prise de décision autonome à grande échelle.
Seuls 14 % des CISO se sentent pleinement préparés à intégrer l'IA dans les opérations de cybersécurité. Plus de 50 % citent le manque de soutien des CIO et PDG comme leur principal défi.
Le fait que votre organisation soit alignée sur ce que le déploiement implique réellement se manifeste ici en premier.
Ce que signifie réellement ce fossé
Quand votre PDG est optimiste et que votre CISO est inquiet, vous avez un problème stratégique autour de la gouvernance de l'IA.
Le côté business voit l'opportunité. Le côté opérationnel voit les risques. Et personne n'a construit le pont entre les deux.
Cela se traduit dans les décisions de déploiement, l'allocation des ressources et la façon dont vous priorisez la rapidité par rapport à la sécurité.
Marin et George ont intégré ce pont dans leur processus de design des agents. Lorsque j'ai posé la question de la consentement et de la transparence dans leurs agents RH, George a expliqué :
« Nous devons nous assurer que tout ce que nous faisons avec une IA agentique bénéficie du bon niveau de consentement et d'une utilisation éthique de ces processus automatiques.
Marin a ajouté : "Nous avons eu des discussions continues avec l'équipe à propos de certaines subtilités propres à chaque cas d'usage. Pour notre agent de rétention des talents, par exemple, nous avons eu la discussion : est-ce pertinent de fournir ces analyses à un niveau agrégé ? Ou vaut-il mieux le faire individuellement et prévenir le manager direct ?"
Pour la plupart des organisations, la construction de ce pont relèvera du leadership, mais ce ne sont ni le PDG ni le CISO qui le piloteront. C'est plutôt le partenariat entre le CHRO (personnes et processus) et le CIO (qualité des données et bonnes pratiques) qui permettra de trouver le bon équilibre pour concrétiser les opportunités de manière prudente.
Les organisations qui comblent ce fossé dès le départ avancent plus vite. Elles construisent des cadres de gouvernance avant d'en avoir besoin. Elles investissent dans l'observabilité et la surveillance et définissent des parcours clairs d'escalade lorsque les agents prennent des décisions en dehors de leurs limites.
L'infrastructure de l'IA agentique
Les agents ont besoin de plus que des API et des pipelines de données. Ils nécessitent une infrastructure que la plupart des organisations ne possèdent pas.
Une gestion des identités et des permissions qui fonctionne pour plusieurs agents. Des catalogues d'outils permettant aux agents de découvrir des capacités sans intégrer en dur chaque connexion. Une application des politiques cohérente, quel que soit l'agent qui prend une décision.
Et une observabilité qui permet de diagnostiquer les problèmes lorsque plusieurs agents interagissent de façon inattendue.
Ce n'est pas un problème provisoire : 65 % des dirigeants citent la complexité des systèmes agentiques comme principal obstacle, depuis deux trimestres consécutifs.
Il est important de se rappeler que l'infrastructure n'est pas seulement technologique, elle réside aussi dans la capacité organisationnelle.
Jones l'a découvert en construisant des flux de travail agentiques chez EyeMail. Son équipe utilise Miro AI pour visualiser les parcours clients, identifier les points d'émotion et les zones de friction. Leur utilisation de HubSpot AI fournit des analyses comportementales et une segmentation, ce qui les aide à personnaliser les flux d'onboarding et les séquences de nurturing.
« Nous avons amélioré les taux de complétion d'onboarding de 40 %. Permis des conceptions de parcours flexibles et modulaires pour des clients de la pharma, de la tech et de l'automobile. Livré des cadres de storytelling qui rencontrent les clients là où ils sont—émotionnellement et opérationnellement », a-t-elle déclaré.
Exigences de qualité des données
Votre client apparaît comme « Acme Corp » dans le CRM, « Acme Corporation » dans les systèmes de messagerie, « ACME Inc. » dans les contrats et « Acme » dans les transcriptions d'appels.
Sans la résolution des entités, les agents fragmentent leur compréhension entre plusieurs profils incomplets.
73 % des responsables des données en entreprise identifient la « qualité et la complétude des données » comme le principal obstacle au succès de l'IA. Cet obstacle dépasse la précision des modèles, les coûts informatiques et la pénurie de talents.
Vous ne pouvez pas contourner le problème de mauvaises données avec des agents. Il faut d'abord corriger les données.
Comment déployer l’IA agentique avec succès
Les organisations qui réussissent à déployer des systèmes agentiques font trois choses différemment.
- Impliquer les personnes qui effectuent le travail dans la conception des agents. Pas comme consultants, mais comme membres à part entière de l’équipe. Elles rémunèrent ce travail équitablement et l’utilisent comme une occasion de perfectionnement.
- Mettre en place la gouvernance avant de passer à l’échelle. Des politiques claires sur ce que les agents peuvent et ne peuvent pas faire. Des chemins d’escalade pour les cas limites. L’observabilité pour détecter les problèmes avant qu’ils ne se multiplient.
- Garder les systèmes épurés. Elles résistent à la tentation de construire des orchestrations complexes de plusieurs agents avant de prouver la valeur d’un agent unique. Elles ajoutent de la complexité uniquement lorsque les approches plus simples échouent.
« L’IA comble la distance entre la vision et l’exécution », explique Jones. « Ce qui nécessitait autrefois des semaines de recherche, l’intervention de consultants et un alignement transversal peut désormais commencer par une incitation habilement formulée. »
Mais la clé réside dans la manière d’y parvenir. Son équipe n’a pas simplement déployé des manuels de formation formels. Ils ont créé des Cercles de curiosité IA, des sessions hebdomadaires où les membres de l’équipe partageaient leurs découvertes, testaient des prompts et exploraient l’impact émotionnel.
« Pour moi, l’organisation du futur est un réseau alimenté par des agents IA, où les agents IA sont déployés pour exécuter ces micro-interventions à grande échelle », affirme Marin. « Il y a un aspect des grandes multinationales qui jouent le rôle d’incubateurs de cette nouvelle façon de travailler, ce que nous appelons un futur du travail axé sur le réseau. »
Ce n’est pas le genre de chose qui fait de bons communiqués de presse. Mais cela distingue les 14 % qui ont des solutions déployées des 38 % qui restent bloqués dans la phase pilote.
La question à laquelle vous devez répondre maintenant
L’architecture agentique n’est pas à venir. Elle est déjà là.
40 % des applications d’entreprise intégreront des agents IA dédiés à des tâches d’ici fin 2026, contre moins de 5 % en 2025.
À mesure que l’adoption des agents augmente, la question à laquelle chaque entreprise doit répondre concerne sa capacité à relever les défis que posent les agents. Il ne s’agit pas seulement de capacité technique, mais aussi de préparation organisationnelle. Cela signifie :
- Les bonnes personnes autour de la table.
- L’infrastructure nécessaire pour soutenir des décisions autonomes.
- La gouvernance pour détecter les échecs avant qu’ils ne se multiplient.
- La qualité des données pour prendre des décisions adaptées au contexte.
- La volonté d’investir autant dans les personnes que dans la technologie.
La plupart des organisations feront erreur. Elles traiteront l’IA agentique comme une mise à jour technique au lieu d’une refonte organisationnelle.
Elles feront partie des 40 % de projets d’IA agentique que Gartner prévoit voir annulés d’ici la fin 2027, suite à l’augmentation des coûts, à une valeur commerciale floue ou à des dispositifs de gestion des risques inadéquats.
Les organisations qui réussiront comprendront que l’architecture agentique demande plus que des ingénieurs. Elle exige l’expérience vécue des personnes dont on cherche à amplifier le travail.
Et elles construiront des systèmes respectant cette réalité.
