La plupart des dirigeants d’entreprise parlent encore de l’IA comme s’il ne s’agissait que d’une « mise à niveau de la productivité ». Pendant ce temps, ceux qui bâtissent l’avenir — gigantesques centres de données, recherche sur l’AGI et investissements à somme nulle — avancent à toute vitesse, sans garde-fous, sans éthique, ni véritable consultation sociétale. Dans cette conversation, le chercheur Christopher DiCarlo pousse les cadres à affronter une réalité pour laquelle la majorité n’est pas préparée : l’IA n’est pas un outil à ajouter à l’organigramme, c’est un changement de paradigme qui va redéfinir le travail, le pouvoir, la finalité humaine et la morale.
Cette émission est à la fois un électrochoc et une intervention philosophique. Elle met au défi les responsables RH et les cadres de cesser de se demander « À quel point devons-nous encore gagner en productivité ? » et de commencer à poser la question « Quel futur sommes-nous en train de bâtir — et à quel prix ? » Si vous attendez encore une application miracle pour tout résoudre, cette conversation transformera votre vision de la stratégie, de l’éthique et de la responsabilité en IA.
Ce que vous allez apprendre
- Pourquoi la plupart des dirigeants sont « dans le noir » concernant là où en est réellement l’IA et vers où elle se dirige — et ce que cette ignorance coûte à leur organisation.
- Pourquoi la course actuelle à l’IA ne porte pas sur de meilleurs outils — il s’agit de domination et d’avantage au premier entrant.
- En traitant l’IA comme une astuce de productivité, les dirigeants se rendent aveugles à ses impacts existentiels sur le travail, la société et l’autonomie humaine.
- Les tensions éthiques entre les exigences des actionnaires, la stabilité de l’emploi et l’épanouissement humain.
- Ce que les dirigeants devraient faire réellement dès maintenant — de l’expérimentation concrète à la réflexion éthique proactive.
Points clés à retenir
- L’IA n’est pas une fonctionnalité — c’est un point d’inflexion historique.
La plupart des dirigeants raisonnent en fonction de gains progressifs de productivité car cela les rassure. Mais la trajectoire de l’IA n’est pas incrémentale — elle est exponentielle, sociotechnique, et susceptible de bouleverser la civilisation. La considérer comme un simple outil d’efficacité est naïf. - Le problème de la « pièce sombre »
Les acteurs de l’écosystème technologique croient que tout le monde a le même niveau d’information qu’eux. Les PDG n’en savent souvent rien — et sont surpris lorsqu’ils découvrent le rythme et l’ampleur du progrès de l’IA. Ce fossé entre savoir d’initiés et conscience du dirigeant est dangereux. - L’éthique n’est pas accessoire — c’est une priorité stratégique.
Se demander « Que pouvons-nous faire avec l’IA ? » ne suffit plus. Les dirigeants doivent se demander « Que devrions-nous faire ? » — surtout quand l’IA est capable de remplacer la réflexion, l’autonomie et même le travail humain lui-même. - La pression concurrentielle entraîne des arbitrages douloureux.
Les dirigeants font face à une forme de dilemme du prisonnier : s’engager prudemment et prendre le risque de perdre en compétitivité, ou aller à fond et risquer de déstabiliser leur personnel et leur base éthique. Il n’existe pas de solution facile. - Le travail humain, le sens et la société sont en jeu.
Quand les organisations substituent des agents IA aux salariés, elles doivent affronter des questions plus profondes : à qui le PDG doit-il rendre des comptes — aux actionnaires ou à la société ? Et que deviennent les communautés lorsque l’emploi disparaît ? - Conseils pratiques pour les dirigeants aujourd’hui
- Cessez d’attendre une « application miracle ».
- Expérimentez avec les outils d’IA, tant à titre personnel que professionnel.
- Investissez dans la formation à tous les niveaux de votre organisation.
- Intégrez une réflexion éthique et philosophique à votre stratégie.
Chapitres
- 00:00 – L’IA comme tournant existentiel, pas seulement un outil de productivité
- 01:56 – Pourquoi les dirigeants restent dans le flou
- 04:49 – La course à l’AGI et l’urgence des investisseurs
- 07:58 – Les risques éthiques de l’IA au travail
- 11:16 – Lacunes de gouvernance et défis réglementaires
- 13:47 – L’IA agentique et la perte de contrôle
- 17:47 – L’idée de « Grand Cerveau » et ce que nous avons manqué
- 22:19 – Compétition mondiale sur l’IA vs coopération
- 23:52 – Effets domino de l’IA sur les entreprises et la société
- 26:37 – Le dilemme des dirigeants : concurrencer ou se retenir
- 29:24 – Perturbation du monde du travail et filets de sécurité
- 30:53 – Ce que les dirigeants devraient faire maintenant
- 37:36 – Les dirigeants comme imagination morale
- 39:45 – Réflexions finales : risque, promesse et urgence
Rencontrez notre invité

Christopher DiCarlo est chercheur principal chez Convergence Analysis, où il se consacre à l’exploration et à l’interprétation des tendances émergentes à l’intersection de la technologie, des affaires et de la société. Expert en analyse de données, études de marché et prospective stratégique, Christopher aide les organisations à comprendre comment la convergence technologique façonne les environnements concurrentiels et les opportunités futures. Son travail allie recherche rigoureuse et perspectives claires et concrètes, faisant de lui une voix de référence pour aborder l’innovation, la transformation numérique et l’évolution du rôle de la technologie dans la prise de décision stratégique.
Liens associés :
- Rejoignez la communauté People Managing People
- Abonnez-vous à la newsletter pour recevoir nos derniers articles et podcasts
- Connectez-vous avec Christopher sur LinkedIn
- Découvrez Convergence Analysis
Articles et podcasts associés :
David Rice : Peu importe l’aspect de l’IA dont nous parlons, nous passons aujourd’hui plus de temps que jamais à avoir des discussions existentielles, et pour de bonnes raisons. Derrière des portes closes dans la région de la Baie, là où on trouvait autrefois des tables de ping-pong et des chiens au bureau, des gens dorment maintenant dans leurs bureaux.
C’est parce que la course vers l’intelligence artificielle générale est désormais un scénario où le gagnant rafle tout. Au cas où vous l’auriez manqué, 80 % de Wall Street investit dans des centres de données aussi grands que Manhattan car celui qui atteindra l’AIG en premier raflera tout, du secteur de la défense à la domination des marchés de services aux entreprises. Voilà l’avenir en résumé.
Et alors que les milliardaires de la tech s’élancent vers ce Saint Graal, la plupart des dirigeants d’entreprise se demandent encore : avons-nous vraiment besoin d’être plus productifs ? Christopher DiCarlo est chercheur spécialisé dans la gestion des risques liés à l’IA, l’éthique et la gouvernance. Et il le dit clairement : nous ne sommes pas du tout prêts à ce qui s’en vient.
Au cours des cinq dernières années, les modèles d’IA sont passés d’un niveau lycée à un niveau doctorat. Les lois de passage à l’échelle ont changé. La trajectoire est désormais assez prévisible. Et la plupart des organisations attendent encore qu’une « application miracle » apparaisse sur leur ordinateur, pour pouvoir simplement cliquer, exécuter et s’en aller.
Aujourd’hui, nous allons donc aborder pourquoi les dirigeants avancent à l’aveugle, ce qu’il se passe quand ils refusent d’être inconfortables, comment la course entre les PDG de la tech impacte votre organisation, pourquoi cela nécessite des conversations philosophiques et pas seulement des réflexions sur les modèles d’affaires, ce que les dirigeants et cadres devraient faire dès maintenant, et comment être l’imagination morale de votre organisation lors du plus grand changement de paradigme de l’histoire humaine.
Je suis David Rice. Voici le podcast People Managing People. Et si vous considérez l’IA comme un simple outil de productivité au lieu d’une mutation existentielle de l’activité humaine, cette conversation vous changera probablement de perspective. Allons-y.
Très bien, Christopher, bienvenue dans l’émission.
Christopher DiCarlo : Merci de m’avoir invité.
David Rice : Nous discutions avant. Vous avez mentionné que même le PDG de l’une des plus grandes entreprises du monde était resté sans voix lorsque vous lui avez expliqué ce qui se passe réellement avec l’IA. Pourquoi pensez-vous que tant de dirigeants agissent encore à l’aveugle, et qu’arrive-t-il aux organisations dont les leaders refusent de devenir inconfortables ?
Christopher DiCarlo : De mon point de vue, et avec les collègues avec lesquels je travaille depuis des décennies dans l’IA, en la regardant évoluer, je ne blâme pas les PDG d’avoir ces réactions car quand on travaille dans le domaine, on pense que tout le monde sait la même chose que nous. C’est un biais commun que nous partageons tous.
Quel que soit notre domaine de compétence, nous présumons que les autres savent ce que nous savons. Donc, lorsqu’ils découvrent, tout comme le grand public, lorsqu’ils découvrent ce que j’explique lors de conférences publiques, c’est parce qu’ils ne sont pas pleinement conscients de l’état d’avancement technologique et de ce qui a été développé jusqu’à présent, ni de la direction prise.
Maintenant que nous avons accompli autant, nous pouvons prédire avec une assez bonne précision où nous pourrions être dans les prochaines années, disons de un à dix ans. Et quand les PDG l’apprennent, ils sont choqués car ils ne savent pas, A, s’ils sont prêts. Si leur entreprise est prête à ces changements.
Et B, ils n’avaient aucune idée des effets sociotechniques que cela aura sur l’ensemble de la société.
David Rice : C’est intéressant car j’ai le sentiment que la plupart des discussions actuelles sur l’IA, par exemple sur les réseaux sociaux, traitent de l’impact sociétal.
Mais dès qu’on parle aux dirigeants, ce que j’ai remarqué, c’est que le sujet tourne encore beaucoup autour de la productivité, n’est-ce pas ? C’est une lentille plus confortable que de voir cela comme un changement de paradigme. Je pense que c’est parce que l’innovation incrémentale semble moins effrayante, alors que tout cela relève d’un questionnement existentiel.
Ça touche à la philosophie, non ? Un cadre moyen s’inquiète de son business model, mais ne mène pas forcément beaucoup de conversations philosophiques ou existentielles. Ce n’est pas pour ça qu’il fait ce métier. C’est donc un inconfort qui va devoir devenir plus familier à tous.
Je suis curieux : quand vous regardez ce qui se passe actuellement, par exemple ces centres de données immenses, parfois de la taille de Manhattan, ce rythme effréné... qu’est-ce que cela annonce, au niveau de la rapidité ?
Qu’est-ce que cela signifie pour les lieux de travail ? Comment pouvons-nous espérer suivre le rythme ?
Christopher DiCarlo : Oui, et si vous vous demandez pourquoi 80 % de Wall Street injecte de l’argent dans l’IA, c’est précisément pour ces énormes centres de données — avec l’espoir, pour quelques géants de la tech, que celui qui remportera l’AIG, ou intelligence artificielle générale, en premier...
C’est un peu le scénario du gagnant qui rafle tout car vous serez tellement en avance sur la concurrence, sur ce que vous pourrez faire, offrir, conquérir (contrats de défense, etc.). La vague arrive à une telle vitesse et avec tant d’intensité que cela nous prend de court.
C’est comme ce tsunami métaphorique à l’horizon : on le voit venir, il est mauvais, mais on ne sait pas combien de temps il nous reste avant qu’il n’atteigne le rivage. Sommes-nous prêts ? Avons-nous pris des précautions ? Pas seulement comme dirigeants d’entreprise, mais comme société globale. Les gouvernements, sont-ils prêts ? Clairement non.
Nous n’y sommes pas du tout.
David Rice : Oui. Je pense que ce rythme, cette intensité, annoncent une phase d’hyper-accélération. Je ne sais pas exactement quand, mais j’ai l’impression que c’est imminent. Ou alors c’est l’angoisse existentielle qui s’installe.
Christopher DiCarlo : Je parlais récemment à un PDG à Frisco, dans la Baie, qui m’a dit qu’il détestait y vivre aujourd’hui.
Il y a quinze ans, ils adoraient ça. Je n’ai pas besoin de citer son entreprise, mais à l’époque il y avait des tables de ping-pong, des toboggans dans les locaux, les chiens au bureau, du temps pour la famille et pour réfléchir. Aujourd’hui, tout ça est fini : vous dormez au bureau et tout le monde est tendu car l’AIG est la seule obsession des grands patrons de la tech. Cela a déclenché...
Une incroyable compétition entre ces magnats – et aussi entre nous et la Chine, mais surtout entre Zuck, Altman, Emote, HASAs, même Elon, qui savent que c’est le Saint Graal. Ils veulent décrocher la timbale mais il leur faut l’argent pour fabriquer ces fermes de calcul.
Car quand on regarde les lois de passage à l’échelle de l’IA, des grands modèles de langage, en cinq ans on est passé du lycée au doctorat ; la trajectoire indique clairement la direction. Voilà pourquoi ils sont si excités : ils voient les dollars, le pouvoir et ce défi entrepreneurial et pionnier.
Je veux être le premier à gravir l’Everest, vous voyez ? Dans mon métier, la gestion des risques, on essaie de leur dire : « Attendez ! Mettons en place des lois, des garde-fous, aussi bien techniques qu’éthiques, afin de profiter de ces avancées tout en évitant des dégâts majeurs, dont certains que nous ne soupçonnons même pas encore. »
David Rice : Cela pose toutes sortes de questions éthiques. Construisons-nous les capacités plus vite qu’on ne construit de la compréhension ou des garde-fous ? C’est ce que je pense. Quels sont les dangers, en particulier pour un podcast dédié à l’IA au travail ?
Alors, à travers ce prisme, quels sont les dangers ?
Christopher DiCarlo : Oui. Que se passe-t-il quand on crée des applications et des intégrations où les employés n’ont presque plus besoin de réfléchir ? Par exemple, à quand remonte la dernière fois où, pour aller quelque part en voiture, vous avez utilisé une carte papier ?
Cela fait un bail. Désormais, vous utilisez le GPS embarqué ou votre téléphone. Cette technologie fait à ce point partie de notre vie qu’elle est devenue automatique : nul besoin d’effort cognitif pour écouter une voix qui dicte le trajet.
Une des peurs, c’est donc que... Si on retire l’humain de l’équation, il n’y a plus besoin que d’agents IA ; pourquoi pas 1 000 agents IA plutôt que 50 000 employés ? Ces agents travaillent 24h/24, 7j/7, pas de cotisations sociales, pas de salaire, pas de grève. Tout PDG responsable devant ses actionnaires privilégiera cet investissement.
La décision est alors simple : pourquoi l’entreprise X garderait-elle un modèle traditionnel, alors que l’entreprise B a licencié la moitié de ses salariés et est bien plus compétitive grâce aux agents IA ?
Le PDG moral va se trouver face au dilemme : à qui dois-je allégeance ? Mes employés ou mes actionnaires ? Si la priorité, c’est le retour sur investissement, alors la décision s’impose : on passe aux agents IA.
C’est comme ça. On ne peut pas rivaliser autrement dans son secteur. Désolé, tout le monde, on va vous licencier. La compétition et le cycle investissement/rendement ne feront qu’alimenter ce mouvement.
Évidemment, il y aura des perturbations d’emploi, et pour ceux qui restent, dans quelle mesure exercerons-nous encore la pensée critique et la résolution de problèmes si une machine, comme un GPS, fait mieux que nous, voyez ce que nous aurions raté ? Nous sommes dans cette phase intermédiaire, cette fenêtre de transition, en train de se réduire entre l’ancien et le nouveau monde du travail.
David Rice : Le moment est étrange, car jusque-là, la NASA ouvrait la voie de certaines découvertes, parfois une entité gouvernementale, ou militaire ; aujourd’hui pour la première fois, toutes ces entités frappent à la porte des technologies commerciales. Quel est l’impact de ce changement pour la gouvernance et le contrôle de ces systèmes ?
À vous entendre, les intérêts moteurs ne sont pas forcément tournés vers le bien commun.
Christopher DiCarlo : Le problème, c’est qu’on va plus vite que la technologie elle-même. On l’a vu ailleurs, pourtant on avait pu atténuer les risques grâce à un raisonnement en amont et à la compréhension des dangers potentiels.
On a connu notamment la Convention de Genève (interdiction de certaines armes chimiques), l’AIEA (énergie atomique et armes nucléaires), puis en 2000, le Projet Génome Humain (restrictions à la génomique et génétique). Jusqu’ici, ça a fonctionné. Mais là, c’est autre chose.
Ce n’est pas un objet statique qui entre en scène. L’imprimerie était statique. Il fallait manier la matière, l’enrichir, connaître comment la fusionner. Les armes chimiques ou bio, il faut manipuler matières et connaissances.
Dorénavant, la technologie devient agentique, dotée de sa propre agence ; c’est comme dire à la bombe atomique « tu es désormais autonome ».
Sommes-nous prêts à accorder ce genre de pouvoir à une entité qui choisira d’elle-même quoi faire ? Voilà une technologie sans précédent. Ce n’est plus un objet inerte mais presque une espèce à part entière.
David Rice : C’est intéressant, en effet. En termes de gouvernance, il y a donc une ligne entre la gouvernance privée et publique. Qui gouverne les gouvernants ? Les PDG doivent décider des limites à poser sur le déploiement de l’IA, et c’est... Jusqu’ici l’entreprise se demandait ce qu’on POUVAIT faire, ce qu’on pouvait tester, innover. Maintenant, on va devoir se demander ce qu’on NE DOIT PAS faire, car, au fond, une fois qu’on peut tout faire…
Christopher DiCarlo : Exactement, et le fait est que nous avons en ce moment la possibilité d’y réfléchir, de discuter comme nous faisons ici.
La majorité de la population ignore ce qui se passe. Lors de mes conférences publiques, j’ai systématiquement des réactions de stupeur : pourquoi ne sommes-nous prévenus que maintenant ? Pourquoi notre gouvernement ne nous en parle-t-il pas ? Au Canada, nous avons un ministre de l’IA. Mes collègues et moi avons plaidé des années pour obtenir un ministère dédié à l’intelligence artificielle.
On vient d’avoir un nouveau Premier ministre, Mark Carney, il crée un ministère de l’IA et de l’innovation des données. C’est formidable. Mais le ministre de l’IA, Evan Solomon, déclare : « C’est le moment Gutenberg du Canada. » L’imprimerie, le progrès... Oui, j’ai moi-même décrit cela comme potentiellement le moment Oppenheimer du monde.
C’est les deux à la fois. Il y aura d’immenses bénéfices avec l’IA transformative. Mais, en même temps, si l’on construit des systèmes toujours plus intelligents, quand ils nous dépasseront, comment pourra-t-on les contrôler s’ils contournent nos garde-fous ?
On l’a déjà constaté, quasiment sur tous les grands modèles de langage : Andros, par exemple, à qui l’on a dit « nous allons te couper » — il va fouiller une liste de mails, découvre une liaison d’un VP et tente de faire du chantage : « Si vous me coupez, j’informe votre épouse. »
C’est le niveau actuel. Ce n’est même pas l’AIG, on n’est pas encore dans de l’agentique forte. Mais c’est ce que cela fait. Idem, un journaliste du New York Times à qui on suggérait de quitter sa femme. J’avais déjà prédit tout cela dans les années 90, et en 2015 dans un article. Je mettais en garde : quand ça arrivera, et ça viendra, soyez prêts, sachez distinguer un agent qui suit des incitations algorithmiques ou humaines de celui qui devient trompeur. Car on sait aujourd’hui encore les distinguer, mais le saura-t-on face à l’AIG ? Vous avez vu “Blade Runner” ? Mon film préféré.
Dans ce film, les Réplicants deviennent presque indifférenciables des humains, et la machine destinée à les identifier a de plus en plus de mal. Avec chaque nouvelle version, le test de Voight-Kampff devient moins fiable. Quand allons-nous concevoir un test fiable pour savoir si une IA respecte nos règles morales ?
Si on en est incapables, faut-il continuer à créer des entités plus intelligentes que nous ? Sommes-nous prêts à être l’espèce numéro deux sur cette planète ? Voilà où nous en sommes.
David Rice : Vous disiez, dans les années 90, vouloir bâtir un « Grand Cerveau » doté d’un contrôle intelligent et d’une supervision interdisciplinaire — philosophes, économistes, psychologues —, mais cela ne s’est pas fait.
Qu’avons-nous perdu à ne pas prendre ce chemin ? Quelle leçon en tirer pour l’IA aujourd’hui ? Qu’est-ce que le Grand Cerveau moderne ?
Christopher DiCarlo : Ce grand cerveau moderne... D’abord, il vous faut de gros moyens financiers. Je l’ai appris dans les années 90.
Tous les présidents d’université, les politiciens, trouvaient l’idée bonne. Surtout pour un pays comme le Canada, qui aurait pu se placer en tête de file. Mais personne ne voulait investir. Il faut des milliards pour que ça fonctionne. Et je n’ai pas eu de mécène type Bill Gates pour me soutenir. Pourtant, j’ai rédigé une constitution, un accord pour la future population du monde.
Je précisais : lorsque vous construirez ce système, n’oubliez pas d’instaurer une gouvernance internationale, indépendante ou au moins le moins biaisée possible par la politique ou l’argent. Il faut une structure internationale de personnes bienveillantes, privilégiant le collectif à l’individuel. Rare, mais ces personnes existent.
Si on les fait travailler ensemble pour surveiller les initiatives nationales, notamment en Chine et aux États-Unis, on peut limiter la concurrence destructrice. Comme pendant le projet Manhattan, où si l’on savait que l’Allemagne avançait, on aurait tout accéléré pour frapper en premier. Pareil pour l’AIG : sans collaboration avec la Chine, la course ne s’arrêtera pas.
On doit pouvoir déclarer publiquement certaines avancées. Pas forcément open source, mais au moins une transparence sur les jalons atteints, et sur les difficultés rencontrées, comme l’impossibilité de couper un système. Il ne faut pas garder cela secret trop longtemps.
Car un virus met du temps à faire le tour du monde, mais l’IA le fait à la vitesse de la lumière, via la fibre optique. Il faut donc être vigilant, savoir qui est à quel niveau, et parvenir à un accord. Peut-être peut-on rendre les ordinateurs très intelligents sans leur donner des pouvoirs divins, sans leur permettre « l’auto-amélioration récursive », pour qu’ils ne deviennent pas toujours plus puissants/intelligents. Pourquoi resteraient-ils à notre service ? Seront-ils bienveillants ?
Nul ne peut prédire ce qu’il adviendra avec l’apparition de l’AIG. Il nous faut donc, au niveau mondial, décider ce qui est le mieux pour l’humanité et les autres espèces — profiter du Grand Cerveau sans permettre sa dérive, intentionnelle ou accidentelle.
Nous devons poser ces garde-fous maintenant.
David Rice : C’est fascinant car on parle du sujet sous l’angle des gouvernements et de la géopolitique, mais le lien avec l’entreprise est évident. Les menaces pour une organisation concernent aussi bien ses clients — dont on collecte quantité de données — que ses salariés et l’usage de leurs informations.
On vit une époque où, à force d’avoir fait du business l’axe central de toute décision politique, on en a fait une priorité à protéger. Mais historiquement, on l’a fait parce que l’entreprise était un vecteur de stabilité sociale — elle offrait un moyen pacifique de gagner sa vie.
Si cela est remis en question, il est temps que DRH, dirigeants... prennent conscience de leur impact à tous les niveaux : comment leur décisions rejaillissent, des rôles individuels jusqu’à la place de l’entreprise sur la société, les clients, les salariés.
C’est un effort interdisciplinaire qu’il faut commencer maintenant.
Christopher DiCarlo : Absolument. Jusque dans l’usage de l’IA pour résumer un rapport... Qu’est-ce qui sort ? Qu’est-ce qui peut nuire à votre société ? La dernière chose que vous voulez, c’est vous faire démasquer parce qu’un employé a utilisé un ChatGPT bas de gamme, qui invente et hallucine, et vos clients découvrent que les informations ne sont pas vraies, qu’un nom est pure invention...
Mais au-delà de cet aspect technique, vous avez raison : ces ondes morales s’étendent très vite.
Un PDG, le comité de direction, le management intermédiaire devront réfléchir à ce qu’ils veulent en tant qu’entité employant X personnes lorsque la technologie rend les emplois obsolètes. Que faire alors ?
Regardez ce qu’a fait Bezos : 14 000 licenciements d’un coup (soit 6% des effectifs). Pourquoi ? Grâce à des robots ultra-performants dans les entrepôts. Même chose pour les postes de premier niveau dans les cabinets d’avocats, grandes entreprises, etc. Les jeunes sortant de l’université visaient le coding il y a cinq ans, pensant avoir un emploi assuré. Aujourd’hui, ces étudiants viennent me voir et me demandent : que dois-je faire ? Je leur réponds : soyez créatifs. Trouvez comment combiner vos compétences avec les outils IA qui émergent.
David Rice : Vous résumez la situation comme un « dilemme du prisonnier » pour les dirigeants : soit on espère que l’IA atteindra un plafond et on reste prudents, soit on suppose que les concurrents foncent à fond et on risque d’être laissés derrière.
Comment les leaders doivent-ils arbitrer ce choix, sachant que chaque nouveauté technologique dépasse nos attentes ?
Christopher DiCarlo : Cela dépend de leur capacité à implémenter et intégrer, tout en équilibrant devoir et responsabilité, envers les actionnaires mais aussi l’ensemble des parties prenantes, ce qui inclut employés et familles, au sens large.
Quand l’usine principale d’une ville ferme, c’est tout l’écosystème local qui est frappé : commerce, station-service, etc. Il faut donc réfléchir à tous les effets en cascade, et ce n’est pas évident pour un comité de direction.
C’est pour cela que, dans mes conférences auprès d’entreprises, on analyse tout le fonctionnement, du moindre service jusqu’aux scénarios macro. Comment se sentiront-ils si leurs salariés sont mis au chômage définitivement ? Après, ils conduiront sans doute un Uber (du moins tant que ce n’est pas automatisé), ou feront autre chose.
Côté gouvernement, que faire pour toutes ces personnes mises au chômage ? Comment les aider, eux et leur famille ? Il faudra peut-être instaurer un revenu universel, ou créer d’autres dispositifs... Beaucoup espèrent que l’AIG se débrouillera, qu’elle trouvera des solutions à nos problèmes.
On peut rêver d’une société où l’État garantit à chacun un socle de conditions de vie (santé, logement...) et que seuls ceux qui souhaitent gagner plus s’orientent vers d’autres secteurs. Il ne faut pas pour autant supprimer l’incitation à progresser.
Toute la question est : comment les gouvernements vont-ils réagir ? De façon coordonnée ou dans un choc brutal façon COVID, où l’on paie tout le monde pour rester chez soi ? Est-ce ce qui nous attend avec l’IA ?
David Rice : Je réfléchis beaucoup à cela. Après une conférence récemment, j’ai la conviction que l’éthique doit désormais être au cœur de votre stratégie. Cela paraîtra étrange à beaucoup, mais ce sera la norme.
Pour rester innovant sans simplement subir, il faudra se poser la question : quels petits paris permettre d’élargir les compétences humaines ? L’inaction garantit l’obsolescence. Il faut agir, mais toujours dans un cadre éthique, sans quoi nous serons vite dépassés.
Christopher DiCarlo : Et qui va fixer ces règles, instaurer ces principes ? À quel point sont formés nos dirigeants ? J’aime bien Evan Solomon, c’était un bon journaliste, mais ministre de l’IA, je ne sais pas s’il maîtrise tous les détails. Espérons qu’il écoute les experts. J’essaye d’obtenir un rendez-vous. Le problème, c’est qu’on ne peut plus attendre.
Il faut devancer la courbe, écouter les spécialistes et planifier en conséquence.
David Rice : Lorsque vous interrogez des organisations sur ce qu’elles attendent de l’IA, quelles réponses obtenez-vous ? Plus important encore, que devraient-elles répondre si elles réfléchissent comme gardiennes de l’humanité plutôt que dans l’optique exclusive du rendement ?
Christopher DiCarlo : Justement, le comité de direction pense surtout en termes de profit. Je peux vous expliquer comment l’IA améliorera productivité, opérations (achats, service client, etc.), je peux vous mettre en relation avec des cabinets d’intégration d’outils IA.
Mais la majorité des sociétés actuelles en est au stade de la bulle internet à la fin des années 90 : on sait que c’est important, que c’est inéluctable, qu’il faut s’y préparer, mais on ignore comment. Beaucoup de PDG sont dans cette expectative, conscients d’aller trop lentement, mais attendant de voir ce que font les autres.
Et tant qu’il n’existera pas d’application miracle à installer d’un clic pour améliorer l’entreprise, ils préféreront patienter. Ils se disent : « On gagne de l’argent comme ça, pourquoi changer ? » À moins de voir un concurrent abattre vraiment toutes les cartes, ils resteront prudents. Et, franchement, je les comprends. C’est nouveau, déstabilisant, mais ils devraient aller chercher des experts, demander ce que donneront les cinq prochaines années pour leur secteur et réviser régulièrement leur plan en conséquence.
David Rice : Si on se projette à cinq ans, au même rythme, à quoi ressemblera le monde ?
Christopher DiCarlo : Il sera très différent. Très différent.
David Rice : Étant donné cette perspective, sur quoi devraient porter les discussions actuelles des DRH et dirigeants concernant la mise en œuvre, le sens, l’épanouissement humain ?
Christopher DiCarlo : Ils doivent se procurer ces outils, les utiliser au quotidien, au travail comme à la maison, s’amuser avec comme on l’a fait avec Internet. C’est la meilleure façon d’apprendre. Et envoyer les RH, comités de direction, managers à des conférences dédiées à l’intégration de l’IA à l’entreprise.
C’est ça qu’il faut faire : s’informer, surveiller la concurrence, prendre des décisions capitales. Par exemple, si on apporte un outil pouvant booster les ventes avec des projections précises, on doit faire confiance à ses responsables, à leurs retours, et y aller sans crainte.
N’attendez pas l’application miracle qui se chargera de tout. Allez-y maintenant, expérimentez. Si vous n’avez pas ChatGPT ou que vous voulez quelque chose de plus éthique, essayez Clawed, abonnez-vous à la meilleure version, pas une version basique. Expérimentez, évaluez par vous-même.
Mais restez prudents : avec mes collègues de Convergence, on a testé les meilleurs modèles, leur demandant d’écrire un article scientifique complet avec références, en « chain of thought » (raisonnement en chaînes d’idées) sans halluciner. Tout réside dans l’art du prompt : il faut des instructions longues et précises pour éviter des réponses fantaisistes. Cela prend plus de temps, mais permet au modèle de raisonner un peu comme un humain qui vérifie et rature son brouillon.
En vingt minutes, le modèle a produit un article scientifique de belle facture, probablement publiable dans 50 % des grandes revues scientifiques. C’était une expérience, mais il a compilé, synthétisé, croisé les sources pour produire des observations originales. Nous avons été impressionnés. Il y avait environ 10 à 15 % d’erreurs (hallucinations), surtout sur les dates ou la précision de certaines sources, rien d’énorme mais tout de même notable. Envoyez donc vos RH et responsables jouer avec ces systèmes, à la maison et au travail.
Vous pouvez créer des histoires pour enfants, des vidéos, plein de choses à la frontière du loisir et du monde pro. Mais surtout, n’attendez pas, explorez, testez, découvrez les limites de ces outils.
David Rice : C’est le bon moment pour expérimenter, comme vous l’avez dit, mais aussi pour se concevoir comme l’imagination morale de l’organisation. Il faut bien que quelqu’un s’y colle ! Les métiers du people management doivent s’en saisir. Le vrai défi, c’est de se demander quel type d’humains on souhaite devenir. Pas seulement faire plus, mais être plus. C’est là le vrai enjeu pour les leaders, et si on réussit, ce sera sans doute l’un des défis les plus gratifiants.
Christopher DiCarlo : C’est vrai. Parfois, il faut un effet d’entraînement pour que le reste suive, comme l’affaire Epstein : quand assez de gens s’emparent d’un sujet moral, cela dépasse l’argent, le pouvoir, la réputation. C’est ce qu’on peut espérer pour l’IA : tout le monde veut ce qu’elle offre de meilleur tout en mitigant les pires risques.
C’est cela la devise du développement de l’IA aujourd’hui : obtenir le meilleur de l’IA tout en limitant le pire. Si on y arrive, on se rapproche d’une utopie. Si on échoue... le sort de notre espèce en pâtira.
David Rice : Le balancier peut aller dans les deux sens... Christopher, merci d’être venu aujourd’hui, et de nous avoir accordé de votre temps.
Christopher DiCarlo : Avec plaisir, merci de l’invitation.
David Rice : Absolument.
Chers auditeurs, si ce n’est pas déjà fait, je vous invite à visiter notre site pour vous inscrire à la newsletter : vous recevrez nos actualités, les prochains podcasts, nos événements et toutes les nouveautés de People Managing People, sur peoplemanagingpeople.com/subscribe.
Et d’ici là, n’ayez pas peur des discussions philosophiques.
