Utilisation de l'IA: La plupart des entreprises utilisent l'IA mais peinent à obtenir des retours significatifs au-delà des phases expérimentales.
Fraude à l'IA: Les activités frauduleuses générées par l'IA ont fortement augmenté, nécessitant des systèmes avancés de détection des anomalies plutôt que des inspections manuelles.
Défis de gouvernance: L'émergence de nouveaux outils d'IA exige une gouvernance au niveau des employés pour gérer les risques et garantir une mise en œuvre efficace.
L'écart entre les entreprises qui expérimentent l'IA et celles qui tirent réellement de la valeur de l'IA est devenu l'histoire déterminante de 2025. McKinsey a révélé que 88 % des organisations utilisent l'IA dans au moins une fonction, mais la plupart restent « coincées dans le purgatoire du pilote », consommant leur budget sans générer de retour.
Pendant ce temps, la technologie elle-même a franchi un cap. L'IA est passée de « utile mais requiert une surveillance constante » à « suffisamment fiable pour déléguer un vrai travail ». La question est passée de « l’IA peut-elle faire cela ? » à « comment s’assurer qu’elle le fait correctement ? »
Voici les 12 évolutions en 2025 qui comptent pour votre manière de travailler en 2026 et comment y faire face.
1. La recherche approfondie est devenue opérationnelle
Le mode Deep Research de ChatGPT et les capacités équivalentes de Claude sont passés de fonctionnalités expérimentales à de véritables outils de travail. Ces systèmes réalisent des recherches à étapes multiples sur des centaines de sources et génèrent des rapports détaillés avec sources et citations en quelques minutes au lieu de plusieurs heures.
Ce qui a changé : Les tâches de junior analyste pour la veille fournisseurs, l’analyse de marché ou l’intelligence compétitive peuvent maintenant être déléguées à l’IA. Mais la validation des résultats reste essentielle car ces outils peuvent halluciner des sources même en les citant.
À faire en 2026 : Utilisez la recherche approfondie pour l’exploration initiale à faire valider avant de prendre des décisions. Cessez de demander aux juniors de compiler les informations. Demandez-leur de valider et d’analyser ce que l’IA compile.
2. Les agents IA sont apparus (et ont aussitôt soulevé des questions de gouvernance)
Operator d’OpenAI et Claude Code d’Anthropic ont marqué un tournant majeur : l’IA est passée du rôle de conseiller à celui d’acteur. Ces agents vont au-delà d’actions suggérées et passent à l’exécution. Ils naviguent sur les sites web, écrivent du code, font des achats et cliquent sur des boutons de façon autonome.
Ce qui a changé : Lorsque l’IA peut agir dans vos systèmes, il faut une gouvernance IA au niveau des employés : contrôles d’accès, processus d’approbation, audit log, plafonds de dépenses.
À faire en 2026 : Traitez les agents comme de nouveaux collaborateurs, pas comme un simple logiciel. Avant le déploiement, définissez ce à quoi ils peuvent accéder, combien ils peuvent dépenser et qui peut les désactiver. Les gains de productivité sont réels, mais le risque l’est tout autant si cette étape est ignorée. Instaurer des cadres de conformité IA devient essentiel pour gérer efficacement ces risques.
« Au final, combler le fossé entre les attentes des dirigeants et la réalité sur le terrain ne dépend pas de la technologie elle-même », explique la consultante RH et IA Reyhaneh Khalilpour. « Il s’agit d’aligner les personnes, les processus et la gouvernance pour que l’IA tienne ses promesses sans générer de nouveaux goulots d’étranglement ou de risques. »
3. Les prix des API se sont effondrés de 60 à 80 %
L’IA est devenue nettement moins chère en 2025. Les prix de Claude ont chuté de 67 % entre Opus 4.1 et Opus 4.5. Le tarif GPT-4o est tombé à une fraction de celui de GPT-4. DeepSeek a démontré que « cher égale meilleur » n’est pas toujours vrai.
Ce qui a changé : Vos projections budgétaires IA. L’économie par requête a changé du jour au lendemain.
À faire en 2026 : Recalculez vos coûts IA avec les nouvelles grilles tarifaires. Vous découvrirez probablement de nouveaux usages possibles ou des économies à réaliser. Renégociez les contrats avec vos fournisseurs IA : le marché leur est désormais moins favorable.
4. Le désastre Deloitte a fait jurisprudence
En juillet 2025, Deloitte Australie a remis au gouvernement australien un rapport de 290 000 $ truffé de fabrications générées par l’IA : fausses références académiques, affaires judiciaires inexistantes, citations erronées de juges fédéraux. La société a dû rembourser et réécrire le rapport.
Ce qui a changé : Si les grands cabinets dotés de contrôles qualité n’arrivent pas à détecter systématiquement les erreurs de l’IA, votre équipe n’y parviendra pas sans protocoles de validation. La responsabilité professionnelle ne diminue pas parce que l’IA a été utilisée.
À faire en 2026 : Chaque livrable d’IA utilisé pour la prise de décision doit être vérifié humainement. « Avec l’IA, la responsabilité ne diminue pas ; le mode opératoire change. » Intégrez toujours des étapes de validation avant que la production IA n’atteigne les clients ou la direction.
5. La fraude à l’IA a explosé dans la finance et les opérations
Les fausses factures et reçus générés par IA se sont multipliés en 2025. AppZen a constaté qu’en septembre, les faux reçus IA représentaient 14 % des documents frauduleux, contre 0 % en 2024. Le logiciel Ramp a signalé plus de 1 M$ de fausses factures en 90 jours.
Ce qui a changé : Les fraudeurs se servent des mêmes outils d’IA pour produire des faux presque indétectables. L’inspection visuelle des reçus et factures ne suffit plus.
À faire en 2026 : Passez à des systèmes de détection d’anomalies qui analysent les habitudes de dépenses, la relation fournisseurs et les signaux comportementaux, pas seulement les images des documents.
6. L’IA non contrôlée est devenue votre principal angle mort en matière de gouvernance
Une étude de KPMG a révélé que près de 60 % des employés ont reconnu avoir commis des erreurs dues à des errements de l’IA. Environ la moitié utilisent l’IA au travail sans savoir si c’est autorisé. Plus de 40 % l’utilisent sciemment de manière inappropriée.
Ce qui a changé : Les employés utilisent des comptes IA personnels pour traiter des données de l’entreprise, générant ainsi des risques que vous ne surveillez pas.
Que faire en 2026 : Interrogez votre équipe sur les outils qu’elle utilise réellement. Ensuite, clarifiez les règles : ce qui est autorisé, ce qui est interdit, ce qui nécessite une approbation. L’IA non contrôlée est un échec de gouvernance, pas un problème de collaborateurs.
Il y a toute cette utilisation cachée de l’IA et cela crée de nouvelles capacités. Ils apprennent, ils deviennent plus compétents, mais vous n’avez aucune prise sur ce qu’ils deviennent capables de faire. Vous n’avez aucune prise sur la façon dont ils se développent. Je pense donc qu’une partie du problème, c’est qu’actuellement, beaucoup de dirigeants ne voient l’IA qu’à travers le prisme de la productivité. Je suis curieuse de voir comment on peut déplacer la conversation pour imaginer et réfléchir à ce qui est possible lorsque les gens développent ces compétences, que vous les guidiez ou non.
7. L’IA a supprimé des emplois plus vite que les entreprises ne pouvaient requalifier leurs salariés
De nombreux licenciements médiatisés en 2025 ont explicitement cité l’IA comme motif de réduction des effectifs. Duolingo a supprimé 10 % de ses sous-traitants en invoquant les capacités de traduction de l’IA. IBM a gelé les embauches pour des fonctions administratives remplaçables par l’IA. Dropbox, UPS et d’autres ont annoncé des réductions de personnel directement liées aux stratégies d’automatisation de tâches auparavant humaines basées sur l’IA.
Ce qui a changé : Le discours « L’IA va augmenter, pas remplacer » s’est effondré. Les entreprises ont cessé de prétendre que l’automatisation n’aurait pas de coût social. Les délais de requalification promis en 2023-2024 se sont révélés bien trop optimistes : la plupart des salariés n’ont pas pu être formés assez vite pour suivre le rythme des capacités de l’IA.
Que faire en 2026 : Si vous travaillez dans les RH ou la planification des effectifs, ne considérez plus la transformation liée à l’IA comme un simple projet technologique. C’est une crise qui nécessite une évaluation honnête des emplois menacés, une communication transparente sur le calendrier, et un vrai investissement dans l’accompagnement des transitions — pas seulement des programmes superficiels de « montée en compétences ». Les entreprises ayant appliqué cette transparence en 2025 ont maintenu la confiance des salariés restants. Celles qui ne l’ont pas fait font face en 2026 à un effondrement du moral et à une fuite des talents.
8. L’application du AI Act européen a commencé (et s’est compliquée)
Le AI Act européen est devenu applicable en 2025, avec des amendes pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial en cas d’infraction. Mais sa mise en œuvre s’est avérée si complexe que l’UE elle-même a proposé des simplifications dès novembre.
Ce qui a changé : La première réglementation mondiale complète sur l’IA est désormais en vigueur, même si son application évolue. Les exigences de conformité existent et concernent toute entreprise traitant des données provenant de l’UE.
Que faire en 2026 : Documentez votre gouvernance de l’IA tant que la supervision est encore en phase d’adaptation. Adoptez des cadres existants (NIST, ISO) plutôt que de repartir de zéro. Si vous avez des activités dans l’UE, vous devez mettre en place des systèmes d’archivage prouvant votre conformité.
9. Les logiciels traditionnels ont ajouté de l’IA (mais sa mise en œuvre a pris du retard)
Microsoft Copilot, Oracle Fusion AI, SAP Joule — toutes les grandes plateformes professionnelles ont sorti des fonctionnalités IA en 2025. Mais le support à la mise en œuvre et la documentation n’ont pas suivi le rythme.
Ce qui a changé : « Inclus » ne signifie pas « opérationnel ». Les équipes finances et RH ont découvert des fonctions inexploitables sans un soutien pointu du fournisseur, non prévu dans les contrats standards.
Que faire en 2026 : Avant d’intégrer des options IA proposées par vos partenaires, exigez un environnement de test avec vos propres données, des engagements écrits de formation, des SLA définis pour l’assistance IA, et une transparence sur la feuille de route. L’écart entre les démos de vendeurs et la réalité de la mise en œuvre a été l’histoire de 2025.
10. Une assurance IA a émergé comme solution de transfert de risque
Les principaux assureurs ont lancé en 2025 des polices dédiées à la responsabilité liée à l’IA, couvrant les erreurs, hallucinations, violations de données causées par les outils d’IA, ainsi que les infractions aux droits d’auteur. Le coût des primes dépend directement de la maturité de la gouvernance : les entreprises disposant de contrôles documentés paient 40 à 60 % de moins.
Ce qui a changé : Il est désormais possible de transférer une partie du risque lié à l’IA via une assurance. Mais une mauvaise gouvernance entraîne une tarification pénalisante.
À faire en 2026 : Évaluez une assurance IA si vous déployez des agents ou traitez des données sensibles avec l’IA. Utilisez le processus de souscription comme un audit de gouvernance : il mettra probablement en lumière des lacunes dans vos contrôles. Une meilleure gouvernance signifie de meilleurs tarifs.
11. La plupart des entreprises n’arrivent toujours pas à dépasser la phase des pilotes
Le constat de McKinsey était accablant : 88 % des entreprises utilisent l’IA, mais la plupart n’ont pas dépassé la phase des programmes pilotes. L’écart entre « utiliser l’IA » et « en tirer de la valeur » repose sur la refonte des processus, et non sur de meilleurs modèles.
Ce qui a changé : Les pilotes ne génèrent pas de retour sur investissement. Tester sans indicateurs de succès revient à brûler de l’argent. Cela a d’ailleurs contribué à la multiplication des postes de Chief AI Officer sur le marché de l’emploi.
À faire en 2026 : Cessez de mener des projets pilotes IA sans indicateurs de succès ni dates de fin. Supprimez tout ce qui ne produit pas une valeur mesurable. L’enjeu n’est pas technologique, mais concerne la gestion du changement, la formation et la réingénierie des workflows. Prévoyez un budget pour ces aspects ou ne prévoyez pas de budget IA du tout. Pensez également à l’usage éventuel de l’IA dans le management du changement.
Écoutez aussi les conseils pour réaliser des pilotes plus efficaces donnés par Lisa Jones, CEO de EyeMail, sur la création de projets pilotes à plus grand impact.
« Nous avons lancé des micro-pilotes dans plusieurs départements », a-t-elle expliqué. « Chaque pilote comprenait un cycle de réflexion : Qu’est-ce qui a fonctionné ? Qu’est-ce qui semblait inadapté ? Le résultat reflétait-il nos valeurs de joie, de gratitude et de connexion ? Cette approche itérative nous a permis d’intégrer l’IA non seulement sur le plan fonctionnel, mais aussi de façon intentionnelle. »
12. L’Analyse Multimodale Devient Pratique pour des Travaux Complexes
Les modèles peuvent désormais gérer simultanément images, PDF, feuilles de calcul et code au sein d’une même conversation. La fenêtre contextuelle de Claude s’est élargie à 200 000 tokens. Gemini propose une fenêtre d’un million de tokens. L’IA peut analyser des documents complexes comportant des graphiques et des tableaux intégrés.
Ce qui a changé : L’analyse de plusieurs documents est plus rapide, mais la validation de l’exactitude reste nécessaire. Les modèles peuvent mal interpréter des chiffres ou des graphiques dans des formats complexes.
À faire en 2026 : Utilisez les capacités multimodales pour l’analyse des écarts, la réconciliation de documents et le croisement de sources. Mais considérez les résultats comme des brouillons à vérifier, jamais comme des productions finales. Le gain de temps est réel, mais les garanties d’exactitude ne le sont pas.
La Tendance à Retenir
Chaque évolution de cette liste suit le même schéma : l’IA est devenue plus performante en 2025, ce qui a rendu la gouvernance plus essentielle que jamais — reflet des priorités de l’industrie de l’IA plus larges.

2026 ne consiste pas à posséder tous les outils d’IA les plus avancés. Il s’agit plutôt de concevoir de meilleures règles pour leur utilisation.
Si vous menez encore des pilotes sans indicateurs de retour sur investissement, vous jetez de l’argent par la fenêtre. Si vous n’avez pas demandé à votre équipe quels outils d’IA elle utilise vraiment, vous avez un problème d’IA de l’ombre. Si vous pensez qu’« assisté par IA » diminue votre responsabilité en matière d’exactitude, le désastre de Deloitte a prouvé le contraire.
2026 n’est plus une phase de tests. C’est le moment de déployer l’IA à grande échelle efficacement et d’éliminer ce qui ne fonctionne pas grâce à une gouvernance apte à vous protéger des risques les plus importants.
