Skip to main content
Key Takeaways

Écart organisationnel: La principale barrière au déploiement de l’IA n’est pas technique mais un manque d’infrastructure organisationnelle.

Évolution du jugement: Les organisations doivent passer du jugement individuel au jugement collectif pour améliorer la prise de décision des systèmes d’IA.

Importance de la gouvernance: Mettre en place une responsabilité claire et des audits permet de garantir que les systèmes d’IA sont responsables et que les erreurs sont corrigées.

Redéfinition de la valeur: Transformer les indicateurs de valeur de la rapidité vers la précision et la qualité des décisions, pour renforcer l’intégration de l’IA.

Facteurs de succès des pilotes: Des résultats clairs, des responsabilités définies et l’alignement des objectifs IT-métier sont essentiels à la réussite des pilotes IA.

Selon l'étude de Deloitte sur les tendances technologiques émergentes en 2025, 30 % des organisations explorent l’IA agentique et 38 % expérimentent des solutions. Mais seulement 11 % utilisent ces systèmes en production.

L'écart n'est pas lié à la préparation technique. Les modèles fonctionnent. Les données existent. Les outils sont accessibles. Ce qui manque, c’est l’infrastructure organisationnelle — la gouvernance, la responsabilité et les systèmes d’incitation qui rendent sûr le fait de confier des décisions à l’IA.

Les équipes qui passent du pilote à la production effectuent trois changements spécifiques. Aucun n’est principalement technique.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Premier changement : redéfinir le jugement comme une capacité organisationnelle

La plupart des organisations considèrent le jugement comme une compétence personnelle détenue dans la tête de personnes expérimentées. Deux personnes pourraient traiter la même affaire différemment et personne ne pourrait expliquer pourquoi. Il n’y a aucun moyen d'améliorer le processus de façon systématique car la responsabilité des décisions IA reste indéfinie.

Ahmed Zaidi, PDG d’Accelirate, a rencontré ce schéma en travaillant avec un grand groupe hospitalier. L’équipe de 15 infirmières chargée de rédiger les lettres d'appel contre les refus de prise en charge par les assurances semblait suivre un processus simple. À première vue, le travail semblait pouvoir être facilement formalisé.

Ce qui est rapidement devenu conflictuel, c’est qu’en réalité il n’y avait pas un seul processus, dit Zaidi. Chaque infirmière avait développé sa propre stratégie au fil d’années d’expérience.

Lorsque l’équipe de Zaidi a essayé de coucher sur papier « comment nous faisons réellement », les infirmières n’étaient pas d’accord sur des questions fondamentales :

  • Qu’est-ce qu’une justification clinique solide ?
  • Quelle documentation mettre en avant ?
  • À quel ton ou langage certains assureurs réagissent-ils ?
  • Quand faut-il escalader ou au contraire reformuler l’appel ?

Les dépendances cachées allaient encore plus loin. Les décisions ne dépendaient pas seulement du code de refus. Elles s’appuyaient sur des notes de médecins enfouies dans un système, des données d’autorisations préalables dans un autre et sur des subtilités de formulation clinique présentes dans la documentation en texte libre. Certaines stratégies dépendaient aussi d’habitudes de rédaction de certains médecins, qui n’étaient pas standardisées.

« Ce qui paraissait simple – ‘automatiser les appels’ – est devenu un exercice organisationnel visant à rendre explicite un jugement implicite », résume Zaidi.

Le déclic a eu lieu lorsque l’équipe a cessé d’essayer de choisir la « meilleure » approche selon une infirmière en particulier pour agréger la connaissance tribale des 15 membres. Elle a organisé des séances structurées où les infirmières débattaient de stratégies, exposaient les cas particuliers et s’alignaient sur ce qui avait historiquement permis les meilleures récupérations. Puis, elles ont croisé ces discussions avec les résultats réels — quels modèles de lettre obtenaient plus de succès, quelles combinaisons documentaires permettaient plus de renversements.

Plutôt qu’encoder des opinions, elles ont codifié des modèles validés.

Cette externalisation crée quelque chose que les organisations ont rarement : la capacité d’observer et d’améliorer le jugement à grande échelle. Chaque action est enregistrée. Chaque exception devient visible. Chaque dérogation révèle où les règles ne correspondent pas à la réalité. Les équipes peuvent discerner des tendances, affiner les seuils, améliorer la performance au fil du temps.

Le résultat a été mesurable : précision accrue des appels, réduction du temps de traitement, hausse du taux de récupération et diminution du risque de conformité car les décisions étaient désormais standardisées, documentées, et auditables.

La gouvernance n’a pas ralenti le système, elle a donné à l’organisation une capacité d’apprentissage systématique à partir de ses propres décisions.

Deuxième changement : Attribuer une responsabilité claire pour le comportement de l’agent

La principale contrainte pour passer en production est la confiance organisationnelle que les actions de l’IA sont encadrées, traçables, réversibles et supervisées.

Les équipes qui avancent attribuent un responsable opérationnel unique, explicitement responsable du comportement de l’agent — y compris de ses erreurs. La première erreur significative est l’épreuve de vérité de l’efficacité de cette infrastructure.

Dans le déploiement hospitalier, Zaidi avait un agent assistant pour la rédaction et la hiérarchisation des appels de refus, conçu pour trier les dossiers et recommander une escalade lorsque certains seuils de risque étaient atteints.

La première défaillance importante est survenue lorsque l’agent a mal classé un refus important et urgent comme étant de routine et ne l’a donc pas remonté. La logique avait bien interprété le code de refus, mais n’avait pas tenu compte d’un facteur contextuel secondaire : la fenêtre d’appel arrivant à expiration liée à ce contrat assureur.

L’erreur a pu être contenue mais elle était financièrement significative. Elle fut découverte grâce à un audit quotidien des exceptions, intégré dans le flux de travail : une couche de revue humaine échantillonnant les dossiers à enjeu élevé.

Ce que ce moment a révélé, ce n’est pas que l’agent était imprudent, mais que nos critères d’escalade étaient incomplets, rapporte Zaidi. Nous avions encodé la logique clinique et celle du refus, mais sans intégrer complètement les métadonnées des contrats dans le cadre de priorisation.