Skip to main content
Key Takeaways

Définition de la confiance: La confiance varie selon les entreprises ; une définition concerne la sécurité, tandis que la perspective des employés est souvent négligée.

La sécurité avant tout: Francis deSouza souligne que l’architecture de sécurité est fondamentale pour établir la confiance dans l’IA au sein des organisations.

Besoins de transparence: L’honnêteté dans les interactions entre fournisseurs et clients est essentielle, mais elle n’équivaut pas à l’équité ou à la voix des employés.

Le mot « confiance » est apparu des dizaines de fois lors de deux sessions sur l’IA d’entreprise à HumanX la semaine dernière. Ce qui est ressorti de ces sessions, c’est la preuve que la confiance ne revêt pas toujours le même sens au sein de l’organisation.

Pour Francis deSouza, COO de Google Cloud, la confiance commence par l’architecture de sécurité.

« Il n’existe pas de discussion sur l’IA sans une discussion sur la sécurité », a-t-il déclaré, expliquant comment les entreprises doivent faire face à de nouvelles surfaces d’attaque, des menaces agentiques et la nécessité de reconstruire les stratégies de données depuis la base avant de déployer l’IA à grande échelle.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Quand il décrit les employés qui téléchargent des outils en dehors du champ d’action de la DSI, il présente cela comme un problème de gestion des risques. La solution réside dans une plateforme agréée, gouvernée et auditable.

Lors d’une autre session sur la conception de systèmes d’IA visant à gagner la confiance des utilisateurs, Wendy Gonzalez de Sama a proposé une entrée différente. Elle a évoqué une conversation tenue avec un collègue juste avant de monter sur scène. L’inquiétude ne portait pas sur la perte d’emploi. Ce n’est pas une question de sécurité. Aucun modèle de menace ne l’aborde.

Ce n’est même pas une question de savoir si cela va me prendre mon travail. C’était plutôt : si les gens voient mes prompts, vont-ils penser que je ne suis pas aussi intelligent(e) ?

Wendy Gonzalez-47225

L’écart est flagrant

Voici le problème. Les déploiements d’IA en entreprise deviennent de plus en plus sophistiqués selon la définition technique de la confiance : sécurité, fiabilité, auditabilité, validation des modèles. Ils sont beaucoup moins développés sur le plan humain : les employés croient-ils que les systèmes qui structurent leur travail sont équitables, honnêtes sur leurs limites, conçus en tenant compte des personnes qui les utilisent ?

Les organisations confondent les deux. Bâtir une plateforme d’IA sûre, conforme, bien gouvernée, et le problème de la confiance semble résolu. Mais ce que l’on a résolu, c’est la définition du fournisseur, celle qui apparaît dans les audits de sécurité et les référentiels de conformité.

La définition de la confiance par l’employé reste en grande partie ignorée, et lors de la plupart des discussions sur l’IA en entreprise, à peine posée.

Christina Casioppo de Vanta a proposé ce qu’elle considère comme la définition la plus claire de la confiance en entreprise : la responsabilité de « tenir ses promesses ».

En d’autres termes, si vous avez dit que vous feriez X et que vous faites Y, il faut le dire. C’est une norme raisonnable, mais c’est une norme d’entreprise à entreprise sur la façon dont un fournisseur gagne la confiance d’un client. Ce que les employés sont en droit d’attendre, cela retient moins l’attention.

Le moment le plus franc de la session est venu quand Casioppo a décrit la méthode de Vanta en matière de transparence interne : annoncer d’emblée aux nouveaux embauchés qu’en cas de conflit, le client passe en premier.

La logique, c’est que la divulgation atténue le choc de se sentir moins prioritaire plus tard. C’est honnête. Mais divulguer n’est pas la même chose qu’être équitable, et connaître sa place dans la hiérarchie n’est pas la même chose qu’avoir voix au chapitre.

Gonzalez s’est rapprochée du modèle de confiance des employés quand elle a expliqué qu’elle donne la possibilité à des groupes de collaborateur·trices de tester différents outils, de partager ce qui fonctionne ou non, et d’en célébrer les réussites ou les échecs.

Elle a présenté cela comme un moyen de construire une confiance authentique plutôt que d’imposer une plateforme d’en haut. Cela diffère fondamentalement d’une adoption obligatoire et d’une logique purement statistique. Mais cela s’arrête encore à l’adoption.

La confiance, au sens où les DRH et COO devraient s’en préoccuper, va plus loin : les employés croient-ils que l’IA est déployée en tenant compte de leurs intérêts, que les décisions qu’elle influence sont équitables, et qu’il existe une voie de recours lorsque ce n’est pas le cas ?

Quand le système devient le décideur

La couche agentique rend la question encore plus pressante. Gonzalez a fait une distinction qui va droit au cœur du sujet.

Faire confiance à un résultat est une chose, faire confiance à tout un système en est une autre. — Wendy Gonzalez, Sama

Lorsqu'une IA répond à une question, un employé peut évaluer la réponse. Mais lorsque l'IA oriente le travail, signale des performances ou influence l'attribution d'opportunités, l'employé ne voit souvent pas du tout le système. Les normes de transparence pertinentes au niveau du modèle ne s’étendent pas automatiquement aux personnes qui vivent les conséquences de ses résultats.

DeSouza a décrit l’objectif à long terme comme étant la constitution d’une main-d’œuvre « bilingue » — maîtrisant à la fois sa fonction et l’IA. Il a cité les hackathons internes de Google, où l’équipe RH a remporté la victoire deux fois de suite, pour illustrer qu’une adoption large peut vraiment générer une maîtrise transversale des fonctions.

C'est un indicateur utile. Mais la maîtrise d’un outil ne se confond pas avec la confiance envers le système auquel il appartient. Les employés peuvent être des utilisateurs aguerris de l’IA tout en n’ayant aucune visibilité sur la façon dont l’IA est utilisée pour les évaluer, les classer ou les réaffecter.

La main-d’œuvre performante de demain sera bilingue, et ce dans chaque fonction. Chacun maîtrisera sa fonction et l’IA.

Francis Desouza-30202
Francis deSouzaOpens new window

Directeur général des opérations, Google Cloud

Les deux sessions étaient substantielles. Les intervenants étaient réfléchis. Ce qui frappe, ce n’est pas ce que l’un ou l’autre a pu méjuger, mais ce dont la discussion sur l’IA en entreprise, de façon globale, n’a pas encore fait place.

La sécurité et la conformité représentent des problématiques réelles, urgentes et véritablement complexes. Mais elles illustrent l’infrastructure de la confiance, non pas l’expérience de celle-ci. Pour les employés à qui l’on demande de bâtir leur vie professionnelle autour de ces systèmes, cette distinction fait toute la question.