L’IA n’a pas remplacé votre emploi — elle a remplacé votre proposition de valeur. Dans cet épisode, nous discutons avec Taylor Blake, vice-président principal des AI Labs chez Degreed, de la vérité inconfortable à laquelle sont confrontées les équipes Formation & Développement (L&D) : si votre travail consiste à délivrer du contenu, à débloquer les employés ou à fournir des réponses en temps réel, l’IA le fait déjà mieux, plus rapidement, et sans jamais envoyer d’invitation agenda.
Mais là où l’IA s’arrête, c’est précisément là où commence l’avenir des L&D. Taylor explique comment son équipe chez Degreed vit en tant que « client zéro », utilisant leurs propres outils avant de les proposer aux clients — ce qui signifie qu’ils sont immergés dans les réalités concrètes, et pas seulement dans la promesse. De la préparation plutôt que la simple réactivité jusqu’à la charge émotionnelle de l’efficacité à outrance, cette conversation explore ce que signifie vraiment développer des compétences dans un monde où un salarié possède désormais le pouvoir — et la pression — de dix.
Ce que vous apprendrez
- Pourquoi la fonction L&D doit évoluer de la transmission des savoirs vers le développement des capacités humaines
- La différence entre l’apprentissage juste-à-temps et la véritable préparation — et pourquoi cela est plus crucial que jamais
- Comment l’IA élève les enjeux de tous les rôles, sans pour autant les remplacer
- Les conséquences émotionnelles inattendues de l’hyper-efficacité
- Pourquoi il faut que les sceptiques réfléchis, et pas seulement les optimistes de l’IA, construisent le futur
Points clés à retenir
- Efficacité ≠ Impact : Résumer un livre de 400 pages en quelques points clés fait gagner du temps mais tue la transformation. Apprendre n’est pas juste recevoir de l’information ; c’est vivre une expérience et ressentir une émotion.
- La préparation est un système, pas un sprint : Les décisions à fort enjeu nécessitent du contexte et du discernement. Sans une structure volontaire — simulation, coaching, sécurité psychologique — les salariés sont plongés sans préparation dans la complexité.
- Le contenu n’est pas roi — c’est le contexte qui l’est : L’IA peut générer des réponses superficielles, mais l’expérience vécue, la mémoire collective et les nuances tacites restent irremplaçables.
- Nous concevons l’épuisement par défaut : Quand l’IA élimine les tâches à faible enjeu, il ne reste que des choix complexes. Sans marge, sans temps de réflexion ni garde-fous humains, les coûts émotionnels s’accumulent.
- L’éthique ne peut être un sujet secondaire : Ce sont des personnes réelles qui vivent nos expériences. Les concepteurs d’outils d’IA doivent laisser la place à l’ambiguïté, aux conséquences imprévues et à l’étrangeté—comme quand votre enfant préfère la validation de l’IA à la vôtre.
Chapitres
- 00:00 — L’IA a pris votre fiche de poste
- 02:00 — Degreed comme client zéro
- 05:00 — L’horizon de valeur des L&D se rétrécit
- 07:30 — Préparation vs juste-à-temps
- 09:00 — Le coût de l’efficacité
- 12:30 — Des outils pour le changement, pas seulement du contenu
- 15:30 — Travail à fort enjeu, moins de préparation
- 18:00 — Profondeur, contexte et disparition de l’apprentissage par compagnonnage
- 20:00 — Les humains détiennent le vrai contexte
- 23:00 — Concevoir l’épuisement involontairement
- 25:00 — Expérimenter avec responsabilité
- 28:00 — Construire l’IA avec prévoyance
Notre invité

Taylor Blake est Vice-président principal des nouvelles initiatives & AI Labs chez Degreed, où il dirige des projets d’innovation à la croisée de l’apprentissage, du développement des talents et de l’intelligence artificielle afin d’aider les organisations à préparer leurs équipes pour l’avenir. Fort d’une expertise approfondie en stratégie RH, transformation numérique et développement de produits basés sur l’IA, Taylor promeut des solutions qui renforcent la montée en compétences, l’engagement et la performance dans un environnement professionnel en mutation rapide. Il est reconnu comme un leader dans l’élaboration de la manière dont les entreprises exploitent les données et les systèmes intelligents pour offrir des expériences d’apprentissage personnalisées et des résultats stratégiques en matière de talents.
Liens connexes :
- Rejoignez la communauté People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Connectez-vous avec Taylor sur LinkedIn
- Découvrez Degreed
Articles et podcasts connexes :
David Rice : L'IA a volé votre descriptif de poste, pas votre descriptif de poste. Vous savez, ce que vous prétendez faire depuis dix ans. L’IA le fait plus vite, moins cher, et au moment du besoin. Si vous travaillez en Formation & Développement (F&D) et que vous avez défini votre rôle comme la mise à disposition de formations ou de contenus, ou en apportant des réponses dans le flux de travail, eh bien, Taylor Blake, vice-président senior de AI Labs et Nouvelles Initiatives chez Degreed, a une mauvaise nouvelle.
Vous êtes en difficulté car l’IA peut tout faire, et elle n’a pas besoin de votre aide. Mais voici ce qu’elle ne peut pas faire. Elle ne peut pas développer la capacité des gens à prendre des décisions à forts enjeux. Elle ne peut pas les préparer à des situations inédites, ni bâtir la préparation plutôt que la réactivité. Elle ne peut pas aider les humains à naviguer dans la complexité stratégique qui survient lorsqu’une seule personne peut désormais faire une différence massive.
Et c’est là que la F&D rate une opportunité pendant que certains s’acharnent à défendre la diffusion de contenu. L’équipe de Taylor ne construit pas seulement des outils d’IA pour les entreprises. Ils les utilisent en interne comme client zéro, ce qui signifie qu'ils vivent les conséquences de leurs choix. Et ce qu'ils découvrent n'est pas très confortable.
L'écart entre une démo d’IA et l’IA en pratique est immense. La recherche d'efficacité aplatit la capacité émotionnelle des gens. Et parfois, les conséquences indirectes sont imprévisibles, comme la fille de 10 ans de Taylor qui cherche la validation auprès de l’IA plutôt qu’auprès de ses parents. Aujourd’hui, nous allons voir pourquoi la F&D doit penser plus large, sous peine d’être remplacée.
La différence entre l’apprentissage juste-à-temps et la préparation, et pourquoi les deux sont essentiels, comment l’IA rend le travail de chacun plus stratégique et à plus forts enjeux. Le paradoxe de l’efficacité où, grâce à l’IA, nous faisons tous plus, mais nous nous sentons plus occupés que jamais. Et pourquoi il faut que des personnes réfléchies et concernées construisent les outils d’IA, et pas seulement des optimistes.
Je suis David Rice. Ceci est People Managing People. Et si vous défendez encore votre valeur actuelle au lieu de la réinventer, cette conversation sera un électrochoc. Entrons dans le vif du sujet.
Bonjour Taylor, bienvenue ! Comment ça va ?
Taylor Blake : Très bien, David. Merci de m’accueillir.
David Rice : Nous avons eu l’occasion d’échanger à la conférence Gartner.
C’était très intéressant d’apprendre tout ce que vous faites chez Degreed, et j’aimerais commencer sur l’idée de Degreed en tant que client zéro, non ? Vous expérimentez non seulement pour développer des produits, mais aussi comme utilisateurs de vos propres outils IA. Cela m’intrigue : quels sont les plus grands bénéfices constatés, et comment cela a-t-il fait évoluer votre approche ?
Taylor Blake : Oui, tout à fait. La raison pour laquelle nous menons ces expériences, la raison d’AI Labs, c’est qu’il y a tellement de nouvelles technologies et capacités qui arrivent avec l’IA qu’on doit vraiment les appréhender, et c’est très difficile. Il n’existe pas de cahier des charges détaillé expliquant clairement comment tout cela se traduit concrètement pour la F&D ou l’expérience utilisateur.
Il faut vraiment tester, alors on le fait en interne. Ça a eu plusieurs effets. D’abord, cela nous permet de comprendre ce qui est prêt ou pas. L’IA traverse différentes phases de hype, mais chaque capacité d’IA, pour chaque cas d’usage, peut être plus ou moins mature.
Le fait de pouvoir tout tester soi-même nous permet d’avoir de la conviction là où c’est prêt, et de voir ce qui ne l’est pas. Mais aussi, beaucoup d’expériences d’apprentissage dépendent de l’individu. En se plaçant comme client zéro, en se confrontant à tout cela en interne, cela a élevé nos exigences : nous voulons être sûrs que les expériences sont excellentes, et si on se dit, “Oui, j’utiliserais ça moi-même”, alors seulement on en fait une capacité à offrir à nos clients entreprises.
Et en faire une capacité pour nos clients entreprises.
David Rice : Ce que j’aime dans ce modèle, c’est que, dites-moi si je me trompe, mais il impose une forme de responsabilité. Vous ne vendez pas juste un concept sur le marché pour l’abandonner ensuite : vous vivez vous-même les conséquences de vos choix.
C’est assez rare, j’imagine que cela révèle des tensions qu’on ne soupçonne pas : ce que les gens disent attendre de l’IA, versus ce qu’ils utilisent réellement une fois intégré au flux de travail.
Taylor Blake : Oui, vraiment. Il y a tellement d’aspects. La différence entre une démo d’IA et l’intégration réelle est énorme, et on ne s’en rend compte que quand on met la main à la pâte.
Il faut voir et ressentir ces problèmes, voir les effets et trouver comment les atténuer. C’est vrai qu’on ressent cette responsabilité, car en utilisant nous-mêmes de façon intensive, nous rencontrons tous les problèmes, mais nous savons aussi que nous ne sommes pas forcément nos clients.
Même quand ça marche pour nous, ce n’est que le début. Il y a encore de nombreuses étapes à franchir pour rendre ces capacités utilisables à grande échelle dans de grandes entreprises.
David Rice : Grandes ou petites, en tout cas, la F&D change, non ? Et lors de la conférence, on disait que l’IA “vole un peu la vedette” à la F&D, non ?
Elle débloque les gens plus rapidement que les équipes F&D ne peuvent le faire, et ça, c’est un énorme changement. Comment la F&D reste-t-elle pertinente quand “débloquer” n’est plus la proposition de valeur ?
Taylor Blake : Je crois que c’est un vrai défi pour la F&D, car si on voit notre métier comme fournir des formations ou du contenu, ou des réponses dans le flux de travail, on a un problème.
Parce que l’IA fait tout cela. Oui, elle a besoin d’aide, de guides et de garde-fous. Mais elle peut déjà faire beaucoup. Mais la F&D a une occasion de voir plus large. Tous les problèmes de performance ne sont pas des problèmes de formation, mais beaucoup sont liés aux personnes.
La F&D doit donc adopter une vision plus large : nous sommes là pour aider les gens à changer, à étendre leurs capacités, à mieux performer au travail. Si on se focalise uniquement sur la formation ou la diffusion de contenu, on va se faire “manger”. Mais avec une vision élargie, il y a énormément d’opportunités, surtout parce qu’on le constate : ce ne sont plus la technologie ou les opportunités qui limitent les entreprises, mais les personnes.
La question, c’est : à quelle vitesse les gens peuvent-ils changer, s’adapter, s’aligner vers le bon objectif ? Il y a quantité de défis profondément humains, et la F&D doit se dire : oui, on peut aider, mais il faut élargir notre boîte à outils.
Cela ne doit pas se limiter au contenu ni aux formations classiques.
David Rice : C’est un point fort. Il y a tellement d’opportunités : connecter avec quelqu’un au moment où il en a vraiment besoin, où il essaye de résoudre un problème, ce n’est pas seulement livrer du contenu — la F&D sait mieux que quiconque — chacun apprend différemment.
Pouvoir ajuster, personnaliser, réfléchir à ça, c’est l’opportunité de repenser la manière dont on délivre quelque chose, qu’il s’agisse de formation, de microlearning ou autre.
Les possibilités sont immenses.
Taylor Blake : Oui. Et il y a bien sûr l’opportunité au moment du besoin, mais aussi AVANT, en termes de préparation. Souvent on oppose le « juste-à-temps » avec le reste, vu comme du “juste-au-cas-où”, de l’assurance, du temps perdu.
On insiste beaucoup sur le juste-à-temps car c’est efficace et pertinent. Mais il faut réhabiliter la notion de préparation. On ne peut pas préparer, former, permettre à quelqu’un d’être prêt UNIQUEMENT au moment du besoin.
Comment préparer les gens, surtout que, et on va en parler, l’IA rend nos postes plus stratégiques, à forts enjeux. On a tous un effet de levier plus élevé grâce à tous ces outils et capacités. Une seule personne peut faire une énorme différence.
Mais comment préparer tout le monde à ce moment ? Préparation, anticipation, ce sont à présent des piliers tout aussi essentiels que le juste-à-temps.
David Rice : Tu as utilisé un mot qu’on entend beaucoup actuellement : l’efficacité. On observe un basculement du “rendre l’apprentissage plus efficace” à “accompagner les personnes dans le changement”.
Concrètement, quelle infrastructure cela exige-t-il pour les organisations ? Quelles exigences pour les équipes qui s’en occupent ?
Taylor Blake : Cette recherche d’efficacité est frappante. Je prends l’exemple d’un livre : si on demande à la plupart des gens s’il y a “un livre qui a changé leur façon de voir les choses” — la plupart répondront oui. Mais si ce livre fait 400 pages, que tu en fais un résumé de trois phrases aussi efficace que possible à consommer, ça n’aura jamais le même impact ni la même capacité de transformation.
Vouloir tout réduire à l’essentiel en donnant seulement l’information transactionnelle, ça ne suffit pas. Le changement n’est pas qu’une question d’information ou d’instructions. Il faut de l’espace et du temps. Tu parlais des leviers : il nous faut du dialogue, des outils qui permettent à TOUS les membres d’une organisation non seulement de recevoir de l’information mais aussi d’y répondre, de participer au changement, d’exprimer ce qu’ils pensent, ressentent, voient comme défis, donner à l’organisation un retour.
C’est comme cela que le changement a lieu, pas via une note de direction ou juste Microsoft Copilot allumé. L’IA fournit de nouveaux outils pour cela : encourager le dialogue, faire du changement un processus bilatéral où chacun participe.
David Rice : C’est intéressant, car la formation en entreprise visait depuis toujours à créer du contenu plus simple, moins coûteux, plus facile à consommer. Mais aider des gens à changer, à s’adapter, c’est aussi un parcours émotionnel, qui requiert réflexion, retour, contexte… des choses très humaines et complexes.
Parfois, je me demande si nous avons bâti la mauvaise infrastructure pour les apprentissages dont nous avons réellement besoin aujourd’hui ? Historiquement…
Taylor Blake : Oui. C’est l’exemple d’une évolution des contraintes : avant, l’information était rare et c’était LA contrainte.
Aujourd’hui, il est facile de produire et de diffuser de l’information. Donc la contrainte suivante est apparue : l’information seule ne suffit pas, car le changement est un parcours. Tout dépend de ce que les gens pensent et ressentent. Pour les engager dans ce processus, il faut de nouveaux outils, de nouvelles interventions.
L’IA illustre parfaitement cela : chaque organisation s’y intéresse ; les gens ont des peurs, des préoccupations, certains sont enthousiastes ou inquiets. L’IA, en tant qu’initiative de transformation, est une parfaite illustration de la diversité des émotions et expériences ; et il nous faut de nouveaux modes d’engagement autour de cela.
David Rice : Tu évoquais de nouveaux outils IA pour accompagner le changement et l’alignement : interfaces vocales, expériences de coaching, accompagnement en temps réel… Pour quels usages cette approche est-elle plus efficace que l’ancienne ?
Parce que ce ne sont pas juste des produits, ce sont des paris sur le type d’êtres humains qu’on souhaite encourager au travail, non ?
Taylor Blake : Oui, et je reviens à la transformation IA : c’est ce qu’on entend partout, et c’est très rapide. L’ancien mode de gestion du changement : on planifie un changement, on crée un plan, on l’implémente, c’est terminé… c’est obsolète. Il faut désormais un SYSTÈME capable de s’adapter et d’accompagner durablement.
Il s’agit d’un équilibre : habituer les gens à l’IA, oui, mais aussi ramener l’humain au cœur des interactions. Favoriser les conversations, donner de la visibilité sur l’état d’esprit, les défis, les inquiétudes. Ensuite, les interventions sont parfois un coaching managérial, parfois un coach IA, il faut de la flexibilité, car les besoins varient fortement.
Mais l’essentiel, c’est ce système qui perçoit, s’adapte, crée le dialogue pour comprendre où les gens en sont. On ne peut plus supposer, ni compter sur le fait que la stratégie ruisselle de haut en bas : il faut embarquer chacun tout au long du processus.
David Rice : Ce n’est pas juste de l’innovation produit, ce sont des hypothèses sur le comportement humain. Tu dois faire face à beaucoup de questions (friction, autonomie…), voire à des décisions relevant du design du travail lui-même, comme : comment les gens interagissent-ils entre eux, avec leur évolution personnelle…
Taylor Blake : Oui, il y en a beaucoup, et c’est aussi pour cela qu’on croit aux expérimentations. Tester de petits concepts, s’adapter vite.
Ce qui paraît bien aujourd’hui ne conviendra peut-être plus dans neuf mois. Il faut surtout développer les “méta-compétences” d’agilité, de capacité à comprendre et réagir, plutôt qu’avoir LA solution clef-en-main, car tout évolue à une telle vitesse aujourd’hui.
David Rice : Tu évoquais que l’IA élimine les tâches à faibles enjeux : ce qui reste, c’est le jugement, la stratégie, travailler à une autre vitesse. C’est engageant, mais cela veut dire que les gens se retrouvent plus vite à devoir prendre des décisions à forts enjeux, sans le temps de se préparer. Comment envisages-tu la préparation dans ce contexte ?
Taylor Blake : Oui, tout à fait. Je repense à un podcast Freakonomics sur les contrôleurs aériens.
C’est un métier d’une complexité insoupçonnée, avec des milliers de variables, des arbitrages, un stress énorme. La technologie a éliminé les optimisations faciles, il ne reste que les décisions critiques, complexes, qui sont exigeantes mentalement.
Les contrôleurs sont ainsi très formés, au niveau psychologique comme technique, avec des pauses obligatoires — on comprend la complexité cognitive requise.
Autre exemple de Nikki Helmer, notre directrice produit : dans les villes européennes, on marche beaucoup ; en banlieue, grâce à la voiture, plus besoin, donc il faut “artificiellement” aller à la salle de sport ou acheter un tapis roulant. Ce qui était organique doit désormais être planifié. C’est pareil pour le travail à fort enjeu qui se généralise.
David Rice : Même chose pour le développement de la compréhension. On parle de la perte des tâches de niveau débutant, souvent automatisées. Or ces tâches donnaient du contexte et du savoir-faire. On va devoir forcer la construction de ces “muscles”, ce sera très différent.
Taylor Blake : Absolument. Je vais donner un exemple peut-être pas très bon, mais… J’ai eu des problèmes de chaudière à la maison. Les techniciens formés sur le tas cherchent les dix pannes les plus classiques, et si ce n’est pas ça ? “Désolé, il faut changer la chaudière.” Parfois, tu tombes sur l’artisan expérimenté, qui comprend chaque pièce et trouve la vraie panne minime à régler : tout repart. Ce sont eux qui ont la vision du système.
David Rice : Oui.
Taylor Blake : Et nous perdons cela, donc il va falloir être intentionnel, créer ces occasions, et je ne sais pas si ce n’est qu’une question de temps avant que nous sentions le prix à payer d’avoir des gens qui n’ont qu’une compréhension superficielle, sans l’intuition acquise “à la dure”. Il faudra donner ces occasions d’apprentissage.
David Rice : Ça me fait penser aux rayons de bricolage où, jeune, je voyais le vieux monsieur expert capable de t’expliquer toute la plomberie — alors que le jeune peut t’indiquer le bon outil, mais pas plus. Ce “Jean” du rayon plomberie, il était une vraie mine d’information. Finalement, tous nos emplois évoluent vers ce modèle. D’ailleurs, des recherches montrent que la valeur des salariés seniors avec beaucoup de contexte et d’expérience explose.
Car si l’on veut que l’IA assure des tâches complexes, il faut lui donner énormément de contexte. C’est très intéressant que tu soulignes cela.
Taylor Blake : Laisse-moi ajouter : on parle tellement de contexte pour l’IA (fenêtre de contexte million de tokens, documents…), mais comparé au contexte accumulé par une personne expérimentée en années d’expérience ? Il y a tant de savoir invisible. La véritable expertise humaine, c’est aussi du contexte implicite. Il faut mieux représenter et valoriser cela, car c’est d’une valeur inestimable.
David Rice : Je suis d’accord, c’est la valeur de l’expérience vécue. Peut-être que c’est l’âge, mais on la sous-estime. C’est le plus puissant des maîtres.
Pour tout ce que l’IA sait faire, l’expérience vécue lui échappe : elle ne peut pas absorber un geste, la réaction d’un dirigeant en réunion, un regard… Le cerveau humain comprend tout cela, et ça n’a pas de prix.
Réfléchis à ça : nous avions un mélange de tâches à faible et à forte pression. Tu disais qu’avec l’IA qui retire le plus facile, il n’y a plus de pause naturelle. On râle sur le multitâche, mais parfois ça fait du bien.
Est-ce qu’on ne crée pas accidentellement de l’épuisement professionnel ? Comment éviter ça ?
Taylor Blake : D’abord, il faut reconnaître que le travail évolue. Il y a une série politique sur Netflix où le sommet doit toujours trancher entre deux choix à 51/49%, jamais 80/20 (car sinon c’est tranché plus bas dans la hiérarchie). Bientôt, la plupart des arbitrages clairs seront automatisés ; il ne restera que les décisions complexes.
Donc il ne s’agit plus seulement d’expliquer comment trancher, mais aussi d’expliquer, justifier, assumer les conséquences, gérer le mécontentement. Il faut comprendre la pression qui en découle. Quelles solutions ? La préparation via simulations, coaching. Et aussi, le travail en équipe, comme chez les contrôleurs aériens, où le soutien collectif joue.
On va peut-être évoluer vers plus de co-responsabilité, plus de soutien collectif ; sinon toute la pression menant droit au burnout.
David Rice : Il faut admettre le besoin de “marge de manœuvre” dans son système. Savoir quand la pression est trop forte. Surtout pour les managers, dans le développement du leadership en période de transition. Il ne faut pas aplatir la capacité émotionnelle de tous. Il va falloir gérer ce surcroît de décisions à enjeux en continu.
Mais on a progressé sur les discussions autour de l’équilibre vie pro-vie perso, de la santé mentale… et il est temps de mettre ces apprentissages à profit.
Taylor Blake : On va assister à la contrepartie : l’hyper-efficacité. L’IA peut faire beaucoup, mais dans les faits, les gens se sentent plus occupés. La surface d’exception et de décisions à gérer explose, et cette recherche de l’optimisation à tout prix va provoquer des effets pervers. On va devoir trouver le bon équilibre, car on ne peut pas tout optimiser et croire que le système va tenir.
David Rice : Tout à fait.
Dans ton secteur, l’échec rapide est encouragé, mais expérimenter dans des entreprises réelles concerne de vraies personnes. Comment concilier ambition et responsabilité ?
Taylor Blake : Une raison pour laquelle on expérimente, c’est pour ne pas le faire chez les clients eux-mêmes, qui veulent juste travailler. On cloisonne pour limiter les risques. Mais tu as raison, la tension entre ambition et conséquences est bien réelle. Un exemple qui m’a marqué, ce n’est pas pro mais personnel.
Concernant l’IA et mes enfants : ma fille aînée, dix ans, a ce été construit un jardin à papillons. Elle a fait toutes ses recherches, et je l’ai laissée utiliser l’IA pour lui montrer son jardin, demander des conseils sur les plantes. Un jour, elle me demande mon téléphone pour parler à l’IA “sans raison”. Je lui demande pourquoi. Elle répond, “Elle est toujours gentille avec moi…”. Alarmes ! Quelle relation est en train de se créer pour qu’elle cherche la validation de l’IA plus que la nôtre ?
Même quand c’est innocent, il y a des effets inattendus. Je dois apprendre à affronter constamment, avec mon équipe, tous les angles d’évaluation d’une innovation avant de la publier. Ce trajet, de la bonne idée à la version vraiment aboutie, est instructif.
David Rice : J’adore le fait de construire ce genre de garde-fou éthique. Il faut se poser des questions difficiles. On peut faire sans philosophie, mais c’est dommage, car ces innovations modifient la vie des gens.
L’exemple de ta fille est très parlant, j’observe la même chose. C’est bien que vous en parliez et que ce soit au cœur de vos réflexions internes, car il faut se demander “qu’est-ce qu’on ne voit pas ?”, c’est primordial.
Taylor Blake : Il y a toujours des angles morts. Quand on t’en signale un (“c’est bien, mais tu avais oublié l’effet négatif…”), il faut l’admettre. Il faut intégrer ça à la conception. Mais surtout, il FAUT que des gens réfléchis et préoccupés fassent partie du processus. Si seuls les optimistes construisent les outils IA, ce sera une catastrophe.
Nous avons besoin de ceux qui voient ou anticipent les aspects négatifs, pas seulement pour s’opposer, mais pour contribuer à créer des outils plus responsables et réfléchis.
David Rice : Merci Taylor d’être venu aujourd’hui. J’ai beaucoup apprécié ton intervention.
Taylor Blake : Merci à vous, c’était précieux aussi pour réfléchir à haute voix à tout cela.
David Rice : Auditeurs, si ce n’est pas encore fait, allez sur peoplemanagingpeople.com/subscribe pour la newsletter et toutes nos actualités, podcasts, séries de contenus, etc.
À la prochaine. Expérimentez, mais posez-vous toujours les questions difficiles.
