Skip to main content
Key Takeaways

Aperçu de la valeur de l’IA: La plupart des organisations manquent d’une philosophie de l’IA claire guidant un usage et un développement centrés sur l’humain.

Jugement humain: L’IA doit renforcer le jugement, pas le remplacer ; une utilisation efficace exige introspection et esprit critique.

Nécessité de formation: Un usage efficace de l’IA exige d’entraîner les modèles à refléter la voix et les standards personnels, pas uniquement l’efficacité.

La semaine dernière, j'ai assisté à une conférence sur les ressources humaines à l'ère de l'IA ici même à Atlanta, où je vis. 

L'un des points les plus marquants évoqués lors d'une table ronde interactive est venu d'un cadre supérieur RH qui a raconté avoir téléchargé son journal personnel dans un modèle d'IA et lui avoir demandé un retour honnête sur lui-même.

« C'était difficile à lire », a-t-il dit. « Mais c'était précieux. Ça m’a fait réfléchir à ce qu’elle avait à dire. Et c’est comme ça que nous pouvons l’utiliser… pour nous améliorer. »

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Cette histoire m’a marqué car elle illustre justement le type d’usage de l'IA dont on ne parle presque jamais en entreprise. On discute sans fin des gains de productivité, de l’automatisation des processus et de la conception de prompts. Mais on n’aborde que rarement ce que signifie utiliser cette technologie d’une façon qui reflète réellement qui nous sommes, qui aiguise notre réflexion, et qui laisse nos capacités humaines plus intactes qu’avant.

Il y a une raison à cela. La plupart des organisations abordent l’adoption de l’IA comme un problème de politique alors que c’est en réalité une question de valeurs.

La philosophie qui vous manque

La majorité des entreprises disposent d’une philosophie de rémunération. Il s’agit d’un ensemble codifié de valeurs et de principes qui guide la manière dont l'entreprise conçoit la paie, l’équité, et le lien entre contribution et récompense. Cela ne se limite pas à fixer des règles, cela reflète ce que l’organisation pense de ses salariés et ce qu’elle estime leur devoir.

Une philosophie de l’IA devrait fonctionner de la même manière. Pas une liste d’usages interdits ni une vague directive type « utilisez l’IA de façon responsable », mais une véritable articulation de ce que cette technologie signifie pour vos collaborateurs, votre culture et le travail que vous considérez collectivement comme digne d’intérêt.

En rédigeant ceci, je pense que la plupart des organisations n’ont pas mené cette réflexion. Elles ont donné à leurs équipes un outil aux possibilités immenses mais aussi aux risques considérables, tout en disant vaguement, « débrouillez-vous ». Certains employés s’en servent à bon escient. Beaucoup l’utilisent d’une manière qui, discrètement, les prive de leur propre développement. Et les dirigeants, pour la plupart, ne savent pas trop quoi dire de tout cela.

Kathy Eastwood, fondatrice de E Equals Why, a mis le doigt sur un point crucial lorsqu’elle a noté que la pression du résultat à tout prix a privé les organisations de leaders centrés sur l’humain.

Nous devons commencer à résister. Oui, nous avons besoin d’efficacité. Mais plus encore, nous avons besoin d’efficience.

1751627613390-13803
Kathy EastwoodOpens new window

Fondatrice de E Equals Why

Cette distinction est fondamentale ici. L’efficacité demande à quelle vitesse. L’efficacité réelle demande si c’est la bonne personne, avec le bon discernement, qui a pris la bonne décision. L’IA peut aider à répondre à la première question. Les humains restent la seule réponse à la seconde.

L’email est un symptôme

Assis parmi cette salle comble de professionnels RH venus de tous secteurs, une chose était palpable : la frustration. Non pas envers la technologie en elle-même, mais quant à la façon dont leurs équipes l’utilisent. 

Le signe le plus évident que les organisations n’ont pas encore résolu ce point se trouve dans la boîte de réception de chacun.

Les emails générés par IA sont devenus une sorte de bruit de fond organisationnel. Ils sont immédiatement reconnaissables par leur structure surchargée, leurs similitudes grammaticales, les formules diplomatiques, et l’absence de toute franchise.

On dirait des documents traduits dans une autre langue puis à nouveau dans la langue d’origine. Le sens subsiste. La personne derrière, non.

C’est souvent à ce niveau que la conversation sur l’IA en entreprise s’arrête : une critique des mauvais résultats. 

Mais le vrai problème est en amont. Lorsque quelqu’un sollicite un modèle d’IA pour écrire une réponse de trois phrases à un collègue, il serait exagéré de parler de choix de productivité. Ce qu’il fait en réalité, c’est évaluer la valeur de sa propre voix, et il se trompe dans ce jugement.

Une organisation qui ne possède pas de philosophie claire sur l’IA laisse ses collaborateurs sans cadre pour faire ce genre de jugements. Ils se rabattent alors sur ce qui présente le moins de friction sur le moment.

Avec le temps, ils perdent l’habitude d’écrire avec clarté, de développer leur pensée à l’écrit, et de communiquer en leur nom propre. Les plus jeunes salariés, qui peinent parfois à développer pleinement ces pratiques, sont particulièrement vulnérables.

La solution n’est pas d’interdire l’IA dans les emails. Il s’agit plutôt de donner aux gens les moyens de se poser quelques questions essentielles avant de solliciter un modèle : 

  • Cette tâche nécessite-t-elle vraiment une assistance ?
  • Qu’est-ce que je perds en la déléguant ?
  • Qu'est-ce que mes collègues perdent lorsqu'ils entendent la voix de l'IA au lieu de la mienne ?

Cela peut sembler être un exemple anodin, ou, comme certains PDG aiment le dire, « futile ». Ce n’est pas le cas. C’est une mauvaise habitude qui a des conséquences sur le développement des compétences dont nous aurons le plus besoin dans les années à venir. Le problème est aggravé par de mauvais exemples venant du sommet. Comme l’a formulé un cadre dirigeant : « Il y a actuellement une tonne de paresse intellectuelle chez les leaders. »

À quoi ressemble une véritable philosophie de l’IA

Il est important de ne pas considérer une philosophie de l’IA comme une liste d’interdictions. Il s’agit d’un ensemble de questions honnêtes auxquelles l’organisation s’engage à répondre collectivement, et d’un ensemble de valeurs qui guident les réponses. Parmi les questions auxquelles il faut répondre :

  • Quelles compétences estimons-nous que nos collaborateurs devraient développer et posséder, indépendamment de ce que l’IA peut faire ?
  • Où l’augmentation sert-elle réellement le travail, et où ne sert-elle qu’à donner l’apparence de productivité ?
  • Quel est le coût, en matière de développement humain et de confiance organisationnelle, lorsque nos collaborateurs cessent de faire ce qui les rend bons dans leur travail ?
  • À plus grande échelle : cet usage précis en vaut-il la peine au regard du coût environnemental et du compromis cognitif ?

Ce ne sont pas des questions rhétoriques. Elles sont la base d’une philosophie qui considère l’IA comme une extension du jugement humain, et non comme un substitut. Cette distinction doit être formulée explicitement, car l’outil lui-même ne le fera pas.

Les organisations qui abordent cette question de façon réfléchie intègrent l’adoption de l’IA comme elles le font pour d’autres moments culturels importants : avec un leadership qui montre l’exemple, une communication qui fixe clairement les attentes, et un véritable investissement pour aider leurs collaborateurs à développer le discernement nécessaire à une bonne utilisation des nouveaux outils. 

Les RH ont un rôle important à jouer ici, et peut-être même un avantage. Les responsables RH sont habitués à évoluer dans l’incertitude. Comme l’a remarqué une DRH présente : « Il n’existait aucun module sur la gestion de pandémie à l’université ou dans vos formations de certification, mais les RH ont trouvé leur chemin. Les mêmes instincts s’appliquent ici. »

Former l’outil à vous ressembler

Il y a une phrase qui me revenait sans cesse à l’esprit en écoutant le groupe discuter des pièges de l’utilisation de l’IA qui nuisent à l’esprit critique et du manque de ce que le groupe a défini comme du « bon sens » organisationnel. 

« Ne soyez pas un avatar. » 

Si l’époque récente nous a appris quelque chose, c’est le pouvoir de la perception et la façon dont elle peut façonner notre réalité.

Quand on utilise l’IA sans la former à refléter sa propre voix, ses valeurs et son jugement, on devient l’opposé de ce que l’on voulait être. On ne paraît pas plus compétent. On devient simplement une interface humaine pour la sortie du modèle, un avatar pour la voix de la technologie. 

Et les collègues qui reçoivent ces résultats savent d’où ils viennent. Ils n’en parlent simplement pas en général.

Utiliser l’IA de façon à vraiment renforcer ses compétences plutôt qu’à les remplacer demande un travail réel. Il faut donner au modèle son contexte, sa voix, ses exigences. Il faut itérer, questionner et rejeter les résultats qui ne reflètent pas sa pensée.

Ce type d’utilisation est exigeant, justement dans le bon sens, car il maintient l’humain dans la boucle comme un acteur actif, et non comme un simple éditeur passif.

C’est ce mode d’usage de l’IA que les organisations devraient enseigner. Pas « voici comment rédiger une meilleure consigne », mais « voici comment vous développer professionnellement tout en utilisant cet outil efficacement ». La différence est majeure. Le premier produit des résultats un peu meilleurs. Le second permet de faire grandir les personnes dans leurs capacités, sans les abandonner.

L’exercice du journal est un modèle intéressant pour ce type de réflexion. Le dirigeant qui a téléchargé son journal dans une IA ne sous-traitait pas son introspection. Il utilisait l’outil pour mieux se voir lui-même. Il a fait le travail difficile et le modèle n’était qu’un miroir. 

C’est exactement ce type d’utilisation qui permet aux gens de s’améliorer, et c’est exactement ce type de réflexion qu’une philosophie organisationnelle de l’IA devrait activement cultiver.

Mais cette paresse intellectuelle devra être surmontée, car ceux qui réussiront sont ceux qui sont prêts à faire ce qui est le plus exigeant. Ils ne se contentent pas de donner un outil à leurs collaborateurs, ils les aident à comprendre quel type de personnes ils souhaitent devenir en l’utilisant.