L’IA transforme le monde du travail—mais comment distinguer les applications concrètes des tendances exagérées qui ne portent pas leurs fruits ? Et quels risques éthiques devons-nous surveiller ?
L’animateur David Rice s’entretient avec Jonathan Conradt—ancien Principal AI Scientist chez Amazon et membre du conseil d’administration chez Synerise—au sujet de l’impact réel de l’IA sur les RH et le management. Ils évoquent la façon dont l’IA façonne le recrutement, le bien-être des employés et la prise de décision, ainsi que l’importance clé d’une IA responsable. Jonathan révèle aussi pourquoi les entreprises investissent souvent mal dans l’IA—et comment les dirigeants peuvent faire des choix plus judicieux.
À retenir de l’entretien
- Rencontrez Jonathan Conradt [00:52]
- Jonathan possède une longue expérience dans la technologie.
- A travaillé dans l’équipe d’origine de Chrome chez Google, se concentrant sur les versions Mac et Linux.
- A géré le marketing et intégré l’IA/l’apprentissage automatique chez eBay.
- A passé 12 ans chez Amazon, où il a constaté que les projets d’IA étaient souvent mal jugés.
- Les dirigeants d’Amazon avaient du mal à évaluer les investissements dans l’IA en raison d’un manque de compréhension.
- A consacré sa dernière année chez Amazon à former les vice-présidents et directeurs sur l’IA/l’apprentissage automatique.
- A quitté Amazon pour aider les entreprises à mieux comprendre les opportunités et les risques liés à l’IA.
- L’IA dans les RH : applications pratiques [02:37]
- L’IA générative est populaire, mais l’apprentissage automatique traditionnel a aussi progressé.
- Une avancée majeure est l’apprentissage automatique automatique (AutoML).
- AutoML automatise les tâches répétitives lors de la création de modèles.
- Le paquet open source AutoGluon rend l’IA accessible à ceux qui possèdent des connaissances de base en SQL et Python.
- AutoML permet de créer rapidement des modèles de haute qualité qui prenaient auparavant des mois.
- L’IA est utile dans les RH pour des tâches telles que la classification des employés, la prédiction de l’attrition et l’identification des besoins en formation de leaders.
- Aide aux prédictions numériques, comme les besoins en recrutement et la planification des effectifs.
- Prend en charge l’analyse des séries temporelles pour détecter les tendances saisonnières.
- On peut construire un modèle de classe mondiale avec seulement trois lignes de code.
- Considérations éthiques de l’IA [05:03]
- Les RH jouent un rôle essentiel dans le développement de l’IA, en garantissant le respect des lois et de l’éthique.
- Les scientifiques manquent souvent d’expertise sur les lois et les biais liés aux RH.
- Les modèles d’IA peuvent involontairement apprendre et renforcer les biais historiques (par exemple, privilégier les candidats ayant pratiqué le lacrosse).
- L’IA responsable se concentre sur l’équité, la transparence et une gestion éthique des données.
- Les professionnels des RH sont bien placés pour guider l’équité de l’IA, surtout dans les modèles de recrutement et de promotion.
- Les biais de l’IA dans les prédictions de promotion (par exemple, privilégier les diplômés d’Ivy League ou les hommes) doivent être atténués.
- Des réglementations sur l’éthique de l’IA sont en train d’émerger, avec l’UE en tête et les États-Unis qui envisagent une législation.
- Les RH peuvent aider les scientifiques à comprendre et à mettre en œuvre des pratiques d’IA responsable.
- Les modèles d’IA comme ChatGPT n’utilisent pas directement les entrées des utilisateurs pour l’entraînement afin d’éviter de corrompre des données précieuses.
- Ils apprennent des interactions avec les utilisateurs, telles que des questions reformulées indiquant une insatisfaction face à une réponse.
- Un biais peut apparaître si les interactions reflètent les biais de la société (par exemple, de genre, de revenus, de préférences géographiques).
- Un exemple évoqué suggère que les modèles d’OpenAI ont adopté des schémas linguistiques ressemblant à ceux des sous-traitants kényans impliqués dans l’apprentissage par renforcement.
- Les biais de retour humain, comme la préférence pour des réponses plus longues, ont influencé le comportement du modèle.
- L’IA peut involontairement favoriser les schémas de discours, sujets ou préférences des groupes d’utilisateurs dominants.
- Les biais dans l’IA peuvent apparaître de manière inattendue, renforçant les tendances des groupes d’utilisateurs les plus engagés.
Pour agir correctement en matière d’IA responsable, il faut supprimer les facteurs qui ne devraient pas être pris en compte. Ne laissez pas le modèle voir ou faire d’inférences basées sur des éléments que vous n’incluriez pas lors d’une promotion réelle.
Jonathan Conradt
- Garde-fous et formation des dirigeants [12:36]
- Les systèmes d’IA utilisent des modèles de garde pour filtrer les requêtes nuisibles ou contraires à l’éthique avant de les traiter.
- Les employés trouveront des moyens d’utiliser des outils d’IA si les entreprises ne fournissent pas d’accès sécurisé et approuvé.
- Téléverser des données sensibles de l’entreprise dans des modèles d’IA publics comporte de graves risques de sécurité.
- Les comptes d’IA d’entreprise peuvent offrir des environnements contrôlés pour atténuer les risques.
- Les dirigeants, malgré leur expertise, peuvent avoir du mal à distinguer entre les outils d’IA sécurisés et non sécurisés.
- Fournir une formation et des outils d’IA officiels peut aider à prévenir les failles de sécurité.
- Les stratégies d’adoption de l’IA varient :
- Précurseurs : ont beaucoup investi, ont couru de grands risques et ont souvent rencontré des difficultés.
- Sceptiques absolus : sceptiques et résistants, ils risquent de devenir obsolètes.
- Suiveurs rapides : apprennent des précurseurs, adoptent l’IA à moindre coût et ont de fortes chances de réussir.
- L’IA atteindra un plateau de performance, permettant ainsi aux suiveurs rapides de rattraper les précurseurs.
- Comprendre la formation et l’adoption de l’IA [20:03]
- Beaucoup de personnes, y compris des professionnels techniques, n’ont pas une compréhension approfondie de l’apprentissage automatique.
- L’IA est fondamentalement une fonction mathématique qui prend une entrée, la traite puis produit une sortie.
- L’IA ne « pense » pas et ne « se souvient » pas entre les utilisations—elle n’existe que lorsqu’on l’appelle.
- Les capacités impressionnantes de l’IA proviennent d’un code supplémentaire et d’une organisation des données.
- La formation doit être adaptée aux différents rôles au sein de l’organisation (utilisateurs, techniciens, dirigeants, etc.).
- Une approche unique de la formation ne fonctionnera pas.
- Les RH doivent déterminer les stratégies de formation à l’IA appropriées pour les divers groupes d’employés.
- Les travailleurs, y compris le personnel non technique, ont besoin d’une éducation à l’IA pour réduire la peur et faciliter l’adoption.
- Les dirigeants nécessitent une formation à l’IA différente de celle des employés de première ligne.
- Bien-être des employés et IA [23:20]
- Jonathan travaille avec des chercheurs sur la mesure et l’amélioration du bien-être des employés pilotée par l’IA.
- L’IA est patiente et peut offrir un retour concret aux employés.
- Son expérience passée avec le StrengthsFinder de Gallup visait à améliorer les relations manager-employé pour un bien-être global.
- Les évaluations traditionnelles reposent sur des réponses imposées, qui peuvent ne pas refléter pleinement le ressenti des employés.
- La nouvelle approche permet aux employés de s’exprimer librement, ajoutant des données qualitatives précieuses.
- L’IA peut convertir des textes en vecteurs mathématiques, permettant une meilleure analyse.
- Une expérience antérieure utilisant l’IA pour analyser des articles de recherche a amélioré les prédictions de 14 %.
- Appliquer des techniques similaires d’IA à des enquêtes sur la satisfaction des employés pourrait considérablement améliorer la compréhension.
- L’avenir de l’IA sur le lieu de travail [26:35]
- Les professionnels RH utiliseront probablement des agents IA pour gérer des tâches complexes, collecter des informations et simplifier les processus.
- L’IA peut servir d’assistant de direction, organiser les tâches, lire les courriels et fournir des suggestions, tout en laissant la décision finale à l’humain.
- Les IA sont particulièrement performantes pour la synthèse d’information, ce qui les rend efficaces pour des rôles comme les vice-présidents ayant besoin d’une vision globale de l’organisation.
- Les assistants alimentés par l’IA (par exemple, les co-pilotes de Microsoft) feront gagner du temps et amélioreront la compréhension des enjeux de l’entreprise.
- Les entreprises peuvent utiliser l’IA pour accroître la productivité, mais devraient éviter la réduction d’effectif ; il vaut mieux augmenter la production avec la même force de travail.
- Les sociétés qui adoptent l’IA pour améliorer l’efficacité dépasseront celles qui réduisent leur personnel mais gardent la même production.
Les entreprises qui choisissent de réduire leurs effectifs et de supprimer du personnel tout en gardant le même volume de travail avec moins d’employés seront écrasées par celles qui conservent le même nombre de personnes mais augmentent considérablement la quantité de travail accomplie et la valeur offerte aux clients.
Jonathan Conradt
Découvrez notre invité
Jonathan Conradt est un expert chevronné en intelligence artificielle et en apprentissage automatique, actuellement conseiller du conseil d’administration chez Synerise, une entreprise spécialisée dans les solutions d’IA et de big data. Avant ce poste, il était Principal AI and Machine Learning Scientist chez Amazon, où il a élaboré et enseigné le programme de l’Université de l’Apprentissage Automatique d’Amazon. Son expérience étendue inclut des postes chez eBay en tant que directeur de la gestion de produit de l’ingénierie internet et e-mail, chez Google comme chef de produit ingénierie pour le navigateur web Chrome, et chez Microsoft comme chef de produit pour un produit de télévision sur IP. Jonathan détient huit brevets liés à l’apprentissage automatique et au marketing et fut l’un des créateurs de l’outil de management populaire StrengthsFinder. Il est également reconnu pour ses contributions à l’apprentissage automatique automatisé, en particulier avec des outils comme AutoGluon.

L’un des grands avantages de l’IA, c’est sa grande patience. Elle peut être une source précieuse d’informations car on peut lui fournir des données précises et exploitables, et l’IA peut répondre aux personnes en leur offrant ce type de perspectives.
Jonathan Conradt
Liens connexes :
- Rejoignez la communauté People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Connectez-vous avec Jonathan sur LinkedIn
- Découvrez Synerise
Articles et podcasts connexes :
- À propos du podcast People Managing People
- Le rôle de l’IA dans le talent, la confiance et l’avenir de l’expérience employé
- Exploiter les pionniers de l’IA pour transformer la formation et le développement de votre entreprise
- Le rythme des avancées de l’IA et ce que cela signifie pour le lieu de travail
- Naviguer le leadership à l’ère de l’IA
- Prendre de l’avance sur l’IA : comment les responsables RH adaptent leurs outils et systèmes
- Comment la génération Z va entraîner les entreprises dans l’ère de l’IA
Jonathan Conradt : [00:00:00] Au fond, une IA est un appel de fonction. C’est comme dans Excel, vous avez la fonction somme. Et vous l’utilisez, vous donnez la liste des colonnes ou des lignes à additionner, elle prend cela en entrée et produit une sortie. Et l’IA, ce n’est que cela.
David Rice : Bienvenue dans le podcast People Managing People. Notre mission est de construire un meilleur monde du travail et vous aider à créer des lieux de travail heureux, sains et productifs. Je suis votre hôte, David Rice.
Mon invité aujourd’hui est Jonathan Conradt. Il a récemment quitté Amazon où il a travaillé en tant que principal scientifique en IA. Nous allons parler d’IA, d’apprentissage automatique, de ce qui doit évoluer en termes d’éducation autour de ces technologies qui s’intègrent au quotidien dans le travail des gens.
Bienvenue Jon.
Jonathan Conradt : Merci.
David Rice : Pour commencer, parlez-nous un peu de vous, de votre parcours et de votre plus grand défi actuel ?
Jonathan Conradt : Oui, je baigne dans la technologie depuis longtemps.
J’étais dans l’équipe Chrome d’origine chez Google, j’ai rejoint l’équipe alors que nous étions environ [00:01:00] 40. Si vous avez déjà utilisé les versions Mac ou Linux de Chrome, c’était mon bébé. J’ai ensuite travaillé chez eBay où j’ai géré leur marketing et introduit l’IA et l’apprentissage automatique, sur site comme hors site.
Et les 12 dernières années, j’étais chez Amazon. J’ai fini par constater qu’il existait de super projets IA non validés, et d’autres projets, moins pertinents, qui, eux, l’étaient. Le principal problème, c’est qu’Amazon a des gens brillants, des vice-présidents intelligents.
Ils sont éduqués, issus de superbes parcours, maîtrisent parfaitement leur domaine, mais l’IA les déstabilisait. Ils ne savaient pas comment l’aborder ni ce que cela impliquait. Ils peinaient à prendre de bonnes décisions d’investissement. Du coup, d’excellentes idées étaient écartées, d’autres moins pertinentes, retenues, et parfois l’investissement n’était pas judicieux.
Pendant environ un an, j’ai [00:02:00] donc préparé un programme pédagogique et formé des vice-présidents, directeurs, partout chez Amazon sur le machine learning et l’IA. Puis j’ai réfléchi : si c’est si chaotique à l’intérieur d’Amazon, dans une entreprise tech, qu’en est-il à l’extérieur ?
J’ai donc quitté Amazon pour aider les gens à comprendre ce qu’est l’IA, où être prudent, où être ambitieux et les aider à en tirer le meilleur.
David Rice : C’est un contexte intéressant et très actuel pour cela.
Il y a beaucoup de choses que l’IA et le machine learning peuvent faire. Pour nombre d’entreprises, l’IA attire tous les regards car c’est la nouveauté, le sujet phare. Les idées foisonnent, mais il existe aussi de nombreuses solutions très pragmatiques, dont nous parlions avant cet appel, qui permettent de répondre à des besoins immédiats.
Auriez-vous des exemples en tête ? Et où les RH peuvent-ils agir pour un impact immédiat ?
Jonathan Conradt : Oui, [00:03:00] l’IA générative attire tous les regards, n’est-ce pas ? Mais l’apprentissage automatique traditionnel a aussi progressé récemment.
Parmi ces avancées, il y a l’auto-machine learning. En gros, les scientifiques ont observé qu’ils répétaient toujours les mêmes étapes, et ont pu automatiser cela. Il existe un excellent package open source appelé autogluon.
C’est surprenant. En l’analysant, j’ai eu une crise existentielle. Car je me suis rendu compte que, grâce à ce package, une personne ayant de bonnes bases en SQL et quelques connaissances en Python pouvait produire un modèle de classe mondiale du jour au lendemain, ce qui m’aurait pris des mois.
C’est très utile. En RH, il y a divers besoins. On peut vouloir classifier des choses. Par exemple, détecter les personnes qui bénéficieraient d’une formation leadership ou les employés [00:04:00] à risque de partir. Ces modèles peuvent faire cela.
Il y a aussi des prédictions chiffrées : combien de CV allons-nous recevoir ? Combien de personnes faut-il pour gérer l’entrepôt dans deux semaines ? Ces prévisions numériques, là aussi, c’est très performant. Le time series est également utile pour appréhender la saisonnalité des données. Je ne sais pas s’il y a une application directe en RH, mais certainement il existe des aspects saisonniers à y surveiller. Ce qui est remarquable, c’est qu’en trois lignes de code, toute personne disposant des données peut créer un modèle de classe mondiale. Je trouve ça inouï.
David Rice : Effectivement, et les RH collectent de plus en plus de données, surtout à mesure qu’on multiplie les outils numériques.
Et je sais que vous avez déjà évoqué l’IA responsable, et vous disiez que c’est [00:05:00] un sujet épineux quand il s’agit des RH. Pouvez-vous nous parler des plus grands défis éthiques de l’IA pour les métiers RH ?
Et quels sont les sujets à résoudre avant d’impliquer davantage l’IA dans les RH ?
Jonathan Conradt : Oui. Chez Amazon, il existe des partenaires RH, dédiés à votre équipe, précieux pour les conseils. En développant des modèles de machine learning utilisant des données clients, les RH et le juridique sont devenus des partenaires essentiels, car les scientifiques, nous, avons suivi un cours de recherche humaine il y a fort longtemps à l’université. Pour les RH, ces lois et préoccupations sont au cœur de leur métier. Il existe donc une occasion unique pour les scientifiques et concepteurs de modèles d’inclure les RH et de leur demander avis.
Comment gérer le genre, quelles sensibilités pour la question raciale ? Ces sujets sont maîtrisés par les RH [00:06:00]. Mais les difficultés existent également dans les projets RH eux-mêmes. Par exemple, une organisation RH peut vouloir automatiser la gestion des CV entrants, les classer plus efficacement. Mais il y a un danger : les modèles d’apprentissage automatique trichent. Ils dérivent systématiquement vers la solution la plus rapide.
Ainsi, un modèle pourrait détecter qu’indiquer sur un CV avoir joué au lacrosse au lycée est statistiquement corrélé à une promotion, un résidu de biais historique. On ne souhaite pas que ce genre d’élément devienne un critère de tri.
On ne s’attendrait pas à ce que ce mot soit important pour un modèle, mais, comme dit, les modèles trichent et vont repérer toutes ces subtilités. [00:07:00] Donc, l’IA responsable repose sur un ensemble de notions : comment gérer la relation entre nos objectifs de société et les individus impliqués ?
Qu’il s’agisse de clients, employés ou candidats. Comment gère-t-on leurs données ? Sommes-nous équitables entre sous-groupes ? Comment exposer honnêtement et de manière transparente le comportement du modèle d’apprentissage ? C’est un champ éthique passionnant. Les RH passent beaucoup de temps à penser l’éthique, la façon de bien traiter les gens.
Cette responsabilité est donc un domaine fascinant pour les RH, qui peuvent avoir une large influence sur les futurs dispositifs. Supposons que vous souhaitiez bâtir un modèle qui prédit quels employés actuels deviendront vice-présidents d’ici six ans. C’est très utile pour fidéliser et développer vos talents.
Mais en bâtissant ce modèle, il faut être [00:08:00] très vigilant : si tous vos vice-présidents actuels (donc vos données d’entraînement) sont issus d’universités prestigieuses ou sont hommes, ces facteurs seront présents dans les données.
Et, pour respecter l’éthique, il faudra exclure ces facteurs du modèle, empêcher l’inférence sur des critères inacceptables pour une vraie promotion. Oui, l’IA responsable est passionnante. Il existe des formations en ligne et de nombreux articles et la réglementation arrive. Elle existe déjà dans l’UE, elle arrive aux États-Unis, elle a déjà été présentée au Congrès — et là encore, les RH sont souvent en avance par rapport aux scientifiques, donc vous pouvez anticiper et les accompagner.
David Rice : Oui, c’est crucial. Comme vous le disiez, certains jeux de données perpétuent des biais. Récemment, un contact évoquait une étude où les femmes auraient [00:09:00] 75 % moins de chances d’expérimenter l’IA que les hommes. Ma première réflexion : quelles traces cela laisse-t-il dans les données ?
L’IA risquera alors d’ancrer ce préjugé que les femmes n’ont pas certaines compétences. C’est l’effet domino : chaque action entraîne une réaction, non ?
Jonathan Conradt : Oui, c’est fascinant. Prenez les grands modèles de langage comme ChatGPT d’OpenAI. Ils n’utilisent pas ce que vous tapez pour entraîner le modèle directement.
Les gens saisissent parfois n’importe quoi, de terrible, d’absurde, et les données d’entraînement sont le bien le plus précieux d’une entreprise IA. On ne souhaite pas les diluer ou les polluer. Cela dit, l’IA perçoit des signaux de l’utilisation qui en est faite.
Un signal fort : avez-vous reformulé votre question ? Supposons que vous interrogez OpenAI sur la guerre de Corée, qu’il réponde, puis que vous reformuliez la question différemment. C’est, pour eux, l’indice que la première réponse n’a pas convaincu. [00:10:00] S’ils finissent par répondre à une version qui vous satisfait, c’est bon signe. Mais il se peut qu’un biais de genre, de revenus ou géographique soit présent dans ces interactions. Le système apprend de fait à satisfaire le groupe dominant. Un bon exemple :
On raconte qu’OpenAI a relevé une utilisation inhabituelle de certains mots, plus fréquents que dans un dialogue standard. Quelqu’un a remarqué que ce style s’approchait de l’usage du langage au Kenya (ou un autre pays africain).
En fait, lors de la création des modèles, il y a une étape de renforcement par retour humain : on pose une question, on génère cinq réponses, puis on sélectionne la meilleure. Plusieurs effets s’installent.
Premièrement, on allait souvent vers la réponse la plus longue, pas forcément la meilleure, mais qui « semblait » l’être. Le modèle s’est donc mis à générer des réponses de plus en plus longues. Ensuite, on favorisait la tonalité linguistique connue, donc avec une majorité de contractuels dans ce pays africain, l’algorithme a fini par intégrer le style qui leur est familier, un peu différent de l’anglais britannique [00:11:00] ou américain.
Ce biais s’est repéré, au point de permettre la détection de textes IA par leur distribution lexicale — « étrange » du point de vue US ! Ainsi, de nombreux biais peuvent s’introduire dans l’IA. Par exemple, si davantage d’hommes s’en servent, elle pourra répondre d’une façon qui satisfait davantage les hommes que les femmes.
Ou bien elle favorisera des sujets propres à la majorité. Ou bien elle reproduira les dialectes des annotateurs humains.
David Rice : Passionnant.
Un sujet récurrent : les garde-fous (guardrails). On évoque souvent les garde-fous pour les employés. Parfois, je me demande s’il ne faudrait pas mettre plus de garde-fous pour les cadres décisionnaires eux-mêmes, pour éviter qu’ils n’investissent au mauvais endroit.
David Rice : Côté tech, jusqu’où peut-on mettre des garde-fous pour les employés ? Et une formation spécifique aux cadres est-elle nécessaire avant toute implémentation ?
Jonathan Conradt : Il y a beaucoup à démêler. D’abord, sachez qu’en science, nous parlons aussi de garde-fous. Il existe des modèles sentinelles qui, lorsqu’on tape « quelle est la meilleure recette pour fabriquer une bombe avec de l’engrais ? », [00:13:00] sont programmés pour reconnaître la violence/l’illégalité/les sujets éthiquement problématiques et les écartent automatiquement, sans traiter la demande plus loin. Inutile de faire tourner des modèles coûteux s’ils sont hors de propos légalement. Il existe un second garde-fou après la génération de la réponse IA, pour vérifier qu’on n’a pas piégé l’IA et obtenu une information interdite, comme la fabrication d’une bombe. Là encore, si la réponse IA dérape, on la supprime.
Donc oui, les garde-fous techniques existent. Côté employés, c’est délicat, car tout le monde dispose d’un téléphone et, personnellement, chez moi j’ai bâti une IA à laquelle j’accède sur mon mobile et qui me permet tout. Je peux discuter de tout ou importer des documents. Si l’on interdit totalement l’accès à ces outils au travail, les employés passeront outre.
Ils y recourront par eux-mêmes car ces outils sont trop utiles : 20 minutes pour rédiger un mail qui, avec l’IA, prend cinq minutes. L’interdiction pourra même être pire, car ils iront utiliser des modèles hors du contrôle de l’entreprise, sans visibilité ni possibilité de retour. Ils pourraient même envoyer des documents confidentiels à ces IA externes.
Quand vous lisez les conditions d’utilisation d’OpenAI, Google et consorts, tout ce que vous saisissez peut être utilisé par la société, indéfiniment et gratuitement, pour améliorer l’IA. Imaginez vos plans stratégiques, votre budget, vos listes de personnel… ce serait catastrophique !
Heureusement, il existe aujourd’hui des solutions : obtenir un compte entreprise chez la plupart des fournisseurs IA. Chez Amazon, mon ancien employeur, il y a un système qui permet d’avoir une IA interne bien cloisonnée. Personne ne partage de données sensibles avec Amazon.
C’est une très bonne voie. La plupart des entreprises proposent ou vont proposer cela. Mais quid des cadres dirigeants ?
Ce sont eux aussi qui risquent d’uploader des documents sensibles à l’IA, voire plus que les autres parfois. Difficile de savoir où résident réellement les modèles IA : sont-ils chez nous, protégés ? Ou bien hébergés à l’extérieur ? Difficile pour un cadre, sûr de ses compétences métiers, mais pas expert IT de discerner cela.
Une fois la formation réalisée (comme pour le phishing : ne cliquez pas sur ces liens !), il faut leur fournir un outil officiel, sécurisé et journalisé. Mais ce ne sont pas là des projets d’envergure.
Par projets, j’entends : remplacer tout le service clients par une IA. Certaines entreprises pionnières ont déjà tenté cela, à grands frais, souvent avec peu de succès, car ce sont des expérimentateurs précoces. Les entreprises qui y réfléchissent actuellement sont plutôt des suiveurs rapides (fast followers).
Elles peuvent observer ce qui fonctionne sur le marché, profiter de prix d’entrée largement dégonflés, et des connaissances sur la mesure d’impact. Par exemple, le service client :
Connaissez-vous quelqu’un de ravi de tomber sur un chatbot au lieu d’un humain ? Non. Surtout pas vos meilleurs clients. Il reste donc un fort besoin d’équilibre afin de ne pas sacrifier l’expérience pour un gain marginal de productivité. Je recommande d’avoir un modèle permettant d’identifier de façon fiable les cas vraiment coûteux et stratégiques (où il faut l’humain), et les demandes basiques (changer son mot de passe) gérées par l’IA.
La question des garde-fous pour les cadres est donc réelle, et c’est une des raisons pour lesquelles j’ai quitté Amazon pour accompagner les entreprises dans cette réflexion stratégique :
Quelles données avez-vous ? Quelle expérience ? Quel réel problème cherchez-vous à résoudre ? Voulez-vous générer des revenus, faire des économies ? Avez-vous d’abord essayé quelque chose de plus simple ?
N’hésitez pas à prendre rendez-vous avec moi, nous pourrons voir ensemble si je peux être utile.
Pour conclure, je distingue trois types d’entreprises : les expérimentateurs précoces (early adopters) qui dépensent beaucoup pour progresser, mais souvent échouent ; les entreprises sceptiques (« never ever ») qui pensent que l’IA est un effet de mode comme la crypto ; et enfin les suiveurs rapides (fast followers) qui observent le marché, attendent l’accalmie des prix et entrent, au bon moment avec les premières preuves tangibles d’impact.
Ce sont ces derniers qui vont réussir, car la performance des modèles va plafonner — le plateau sera vite atteint. Même en démarrant tard, la pente de progrès est si raide qu’ils arriveront à temps.
David Rice : Oui, la courbe d’apprentissage et la phase de rodage seront moindres : les balbutiements auront déjà eu lieu.
Parfois, je me demande si l’on comprend assez fondamentalement le fonctionnement du machine learning pour en tirer le meilleur parti ? Et que peut-on faire à court terme en matière de formation ?
Jonathan Conradt : Absolument pas. Même parmi les profils techniques, il y a une mauvaise compréhension. J’étais à l’Université de Pennsylvanie (Wharton), j’ai présenté à des étudiants en master ce qu’est le machine learning. Au bout d’une demi-heure, j’expliquais : au fond, une IA est un appel de fonction, comme dans Excel avec la fonction somme : vous donnez une liste, et elle fournit un résultat, tout simplement.
Donc, entre deux utilisations, cette fonction somme ne s’interroge pas sur ce qu’elle a précédemment calculé, elle ne complote pas, elle ne rêve pas… elle n’existe pour ainsi dire que lors de l’appel. L’IA est une entité mathématique — une fonction. Elle prend une entrée, la traite, donne une sortie. Une bonne part des effets « magiques » que nous observons sont liés à du code enrobant qui organise les données pour elle. Tout ça reste complexe.
C’est comme s’attendre à ce que tout le monde comprenne le fonctionnement d’un système d’injection de carburant — la plupart n’en ont même jamais entendu parler, et pourtant ils conduisent.
Il faut donc, pour chaque sous-groupe dans une organisation, leur apporter le juste niveau de compréhension. Certains seront des utilisateurs, d’autres des techniciens, d’autres encore manipuleront ces modèles en profondeur. Enfin, d’autres en seront bénéficiaires passifs. Ce sera délicat.
Les RH, souvent en charge de la formation, vont devoir cibler les bonnes audiences, décider des priorités pédagogiques. Former tout le monde de la même façon (« à la louche ») ne fonctionnera pas.
Chez Amazon, en enseignant à des vice-présidents, la question se posait : comment former les livreurs ou manutentionnaires, sans diplôme mais intelligents et travailleurs ? Comment les rassurer sur l’IA — il ne s’agit pas d’en avoir peur, car l’entreprise doit avancer, ne pas se faire distancer parce que tout le monde tremble devant la nouveauté ! La formation doit donc être adaptée à leurs besoins, à leurs questions, et ce sera très différent de celle des dirigeants.
David Rice : Un domaine où il y a un intérêt grandissant concerne le bien-être des salariés. J’ai parlé récemment à quelqu’un qui a déployé une technologie vocale pour signaler un burn-out ou [00:23:00] un stress. On a plein de données qui pourraient fournir des indicateurs comportementaux, je dirais.
Comment voyez-vous l’évolution de la prise en compte du bien-être au travail grâce à l’IA dans les prochaines années ?
Jonathan Conradt : Je m’intéresse beaucoup à ce sujet, je collabore aujourd’hui avec deux chercheurs sur une méthode pour mesurer et améliorer le bien-être des salariés. Un des grands avantages de l’IA est sa patience.
C’est une source précieuse car elle peut fournir des informations précises et exploitables, et l’IA peut ensuite répondre et soutenir les individus. J’ai travaillé ultérieurement chez Gallup où j’ai contribué à développer StrengthsFinder, un instrument permettant aux managers de mieux comprendre leurs équipes et donc de renforcer les relations professionnelles, le soutien mutuel, ce qui aujourd’hui relèverait du bien-être salarié.
[00:24:00] L’approche IA que nous développons consiste d’abord à dialoguer de manière interactive pour vraiment savoir où en sont les personnes. Frustrant, souvent, de ne cocher que des cases dans les questionnaires. À la fin, on peut douter de la compréhension réelle de nos réponses.
Là, nous donnons à chacun la possibilité de s’exprimer librement : « En parcourant la dernière section, racontez-moi vos ressentis, ce qui vous a semblé le plus important, ce que vous voudriez que nous comprenions. » Ce texte libre est très riche. J’ai vu à quel point le texte non structuré pouvait enrichir les modèles : j’avais fabriqué un algorithme qui devait prédire si un article scientifique m’intéresserait ou non à partir de son résumé — cela fonctionnait moyennement.
En utilisant une partie de l’IA (qui transforme les mots en vecteurs, des objets mathématiques à direction et magnitude, souvenez-vous des cours de maths !), j’ai repris tous les titres et résumés sous forme de vecteurs et je les ai injectés dans le modèle… La performance a bondi de 14%. Un saut considérable !
Imaginez cela pour une enquête de satisfaction salariés, où les réponses ouvertes sont analysées grâce à l’IA pour 14% de compréhension supplémentaire [00:26:00] — c’est immense !
David Rice : Oui. Je pense qu’il reste beaucoup de potentiel inexploité dans les données et les outils à disposition. Comment l’utiliser pour améliorer la perception du travail ou l’expérience des salariés — et comment peut-on faire évoluer le management ?
Jonathan Conradt : Une question récurrente : puis-je déléguer les RH ou le juridique à un agent ? Je réponds que les personnes les plus susceptibles d’utiliser ces « agents RH » seront les RH eux-mêmes, dont le métier est complexe et requiert de recouper beaucoup d’informations. Un agent, c’est une IA capable de faire des recherches seule : consulter une base, un logiciel métier, faire une recherche web… À terme, chaque salarié pourra disposer d’un assistant personnel.
Imaginez que tout le monde dans l’entreprise ait un assistant de direction qui gère l’administratif, trie les informations nécessaires pour répondre aux emails, suggère des formulations, etc. Mais c’est l’humain qui décide ! Vous pouvez réécrire, affiner, ajuster, si l’IA s’est trompée ou n’a pas compris le contexte.
Ce type d’outil va devenir très puissant.
C’est d’ailleurs paradoxal : l’IA remplace d’abord… les vice-présidents ! Pourquoi ? Leur mission est la synthèse d’informations. Toute l’organisation collecte de l’information, elle remonte, et c’est le ou la VP qui décide stratégiquement à partir de cette vue globale. Et cela, l’IA le fait souvent mieux que l’humain. Au début, ce sera un copilote (par exemple dans les outils Microsoft), un assistant IA. Ils vont faire gagner du temps, donner une meilleure visibilité de l’entreprise.
Attention pourtant : si vous gagnez en efficacité (par exemple des développeurs qui codent plus vite avec l’IA), deux choix s’offrent à vous : réduire la masse salariale pour un même volume d’activité, ou bien… faire avancer la ligne de coupe budgétaire et produire davantage pour vos clients. Les entreprises intelligentes miseront sur la deuxième option : rendre tout le monde plus efficace pour aller plus loin. Celles qui se contentent de licencier seront dépassées par la concurrence qui aura choisi d’accroître la productivité… les entreprises qui gardent le même personnel mais produisent beaucoup plus grâce à l’IA pulvériseront la concurrence qui fait le choix inverse.
David Rice : Super.
Jonathan, merci d’être venu. Avant de finir, j’ai deux petites traditions. [00:30:00] D’abord, vous pouvez nous dire où vous joindre, présenter vos projets, ce vous souhaitez promouvoir.
Jonathan Conradt : Oui ! On fournira un lien pour réserver 15 minutes avec moi, sur le sujet que vous voulez : racontez-moi votre entreprise, vos défis, j’adore ça ! Chez Amazon, je rencontrais plein d’équipes différentes, les aidais à envisager comment la data et le machine learning pouvaient améliorer leur quotidien. Idem, n’hésitez pas à réserver sur Calendly.
David Rice : Ce lien est dans la description de l’épisode. Contactez Jon, connectez-vous avec lui sur LinkedIn.
Ensuite, notre rituel podcast : c’est à vous de me poser une question ! Libre à vous, sur ce que vous voulez, lié au sujet ou non…
Jonathan Conradt : Volontiers ! L’IA progresse vite pour le montage vidéo/audio. Comment cela a-t-il changé votre quotidien podcast ?
David Rice : Eh bien, pour le podcast, c’est fou ce que l’IA peut faire sur le son : ça permet vraiment de fluidifier la production. Parfois ça dénature un peu la voix (consciemment ou involontairement), reste à savoir si c’est vraiment l’IA ou notre post-production humaine ! Le plus grand changement, c’est pour la création de contenu : de l’idée à la structure jusqu’à la production complète, tout le process s’est accéléré, repensé. Ce n’est pas vraiment « plus facile », car on cherche encore à exploiter le meilleur de l’IA et obtenir la bonne voix pour la bonne audience. Mais la progression est hallucinante depuis mes premiers tests sur ChatGPT.
Jonathan Conradt : C’est époustouflant n’est-ce pas ?
David Rice : L’évolution est fulgurante !
Jonathan Conradt : Même dans le montage des feuilletons télé, c’est une révolution : ils tournent des heures, et le montage est titanesque. L’IA fait tout le premier dérushage automatiquement. C’est incroyable.
David Rice : Incroyable. Oui, tous les grands studios de cinéma doivent investir massivement !
Jonathan Conradt : Certainement. Merci, David.
David Rice : Merci à vous, c’était un plaisir. J’espère qu’on pourra refaire ça.
Jonathan Conradt : Merci.
David Rice : À bientôt chers auditeurs. Rendez-vous sur peoplemanagingpeople.com/subscribe pour la newsletter. Et d’ici là, continuez à [00:33:00] expérimenter.
