Skip to main content
Key Takeaways

Vertrauensdefinition: Vertrauen wird in Unternehmen unterschiedlich definiert; eine Definition bezieht sich auf Sicherheit, während Mitarbeiterperspektiven oft übersehen werden.

Sicherheit zuerst: Francis deSouza betont Sicherheitsarchitektur als Grundlage für KI-Vertrauen in Organisationen.

Transparenzbedarf: Ehrlichkeit über Interaktionen zwischen Anbieter und Kunde ist entscheidend, bedeutet aber nicht automatisch Gerechtigkeit oder Mitsprache für Mitarbeitende.

Das Wort „Vertrauen“ tauchte in zwei Sitzungen zu Enterprise-KI auf der HumanX letzte Woche dutzende Male auf. Was aus diesen Sitzungen hervorging, ist der Beweis, dass Vertrauen innerhalb der Organisation nicht immer dasselbe meint.

Für Francis deSouza, COO von Google Cloud, beginnt Vertrauen mit der Sicherheitsarchitektur.

„Es gibt kein KI-Gespräch ohne ein Sicherheitsgespräch“, erläuterte er und beschrieb, wie Unternehmen sich mit neuen Angriffsflächen, agentischen Bedrohungen und der Notwendigkeit auseinandersetzen müssen, Datenstrategien komplett neu aufzubauen, bevor KI im großen Stil eingeführt wird.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Als er beschrieb, wie Mitarbeitende außerhalb des IT-Rahmens Tools herunterladen, stellte er dies als Risiko-Management-Problem dar. Die Lösung ist eine zugelassene Plattform, die gesteuert und prüfbar ist.

In einer separaten Sitzung zum Thema Gestaltung von KI-Systemen, die Vertrauen bei Nutzer:innen schaffen, bot Wendy Gonzalez von Sama einen anderen Ausgangspunkt. Sie schilderte ein Gespräch, das sie kurz vor dem Bühnenauftritt mit einem Kollegen geführt hatte. Die Sorge war nicht der Arbeitsplatzverlust. Es ist keine Sicherheitsfrage. Kein Bedrohungsmodell greift hier.

Es geht nicht einmal darum, ob mir die Arbeit weggenommen wird. Vielmehr war die Sorge: Wenn andere meine Prompts sehen, halten sie mich dann für weniger klug?

Wendy Gonzalez-47225

Die Lücke liegt offen zutage

Das ist das Problem. Die Einführung von Enterprise-KI wird auf der technischen Definition von Vertrauen – Sicherheit, Zuverlässigkeit, Nachprüfbarkeit, Modellvalidierung – immer ausgereifter. Wesentlich weniger entwickelt ist sie auf der menschlichen Ebene: ob Mitarbeitende glauben, dass die Systeme, die ihre Arbeit prägen, fair sind, ehrlich mit ihren Grenzen umgehen und mit Rücksicht auf die Menschen im Unternehmen gestaltet wurden.

Organisationen vermischen beides. Wird eine sichere, konforme, gut gesteuerte KI-Plattform gebaut, scheint das Vertrauensproblem gelöst. Doch gelöst wurde die Anforderung auf der Anbieterseite, wie sie in Sicherheitsprüfungen und Compliance-Frameworks auftaucht.

Die Mitarbeitendendefinition bleibt weitgehend unbeachtet und in den meisten KI-Diskussionen im Unternehmen auch weitgehend ungefragt.

Christina Casioppo von Vanta präsentierte, was sie als die klarste Auslegung von Enterprise-Vertrauen bezeichnete: „Accountability wie auf der Verpackung versprochen“.

Anders gesagt: Wenn angekündigt wurde, X zu tun, und in Wirklichkeit wird Y gemacht, sollte das gesagt werden. Das ist ein vernünftiger Maßstab, allerdings ist es ein Standard von Unternehmen zu Unternehmen, wie ein Anbieter das Vertrauen eines Kunden gewinnt. Was Mitarbeitenden zusteht, wird weitaus weniger diskutiert.

Der offenste Moment der Session kam, als Casioppo Vantas Ansatz zur internen Transparenz beschrieb: Neue Mitarbeitende werden von Anfang an darauf hingewiesen, dass im Konfliktfall Kund:innen Vorrang haben.

Die Logik: Die Offenlegung mildert späteren Schock, wenn man sich zurückgesetzt fühlt. Es ist ehrlich. Aber Offenlegung ist nicht das Gleiche wie Gerechtigkeit – und den eigenen Platz im Ranking zu kennen, ist nicht das Gleiche wie Einfluss darauf zu haben.

Gonzalez kam dem Vertrauensmodell aus Mitarbeitendensicht am nächsten, als sie beschrieb, wie Gruppen von Mitarbeitenden verschiedene Tools testen ließen, teilten, was funktioniert hat und was nicht, und beides feierten.

Sie sah das als Weg, echtes Vertrauen aufzubauen, statt eine Plattform von oben herab durchzusetzen. Das unterscheidet sich deutlich von der bloßen Einführungspflicht und der Messung von Nutzungszahlen. Aber es bleibt bei der Einführung stehen.

Vertrauen im Sinne von CHROs und COOs sollte jedoch weiter gehen: Glauben Mitarbeitende, dass KI in einer Weise implementiert wird, die auf ihre Interessen Rücksicht nimmt, dass die von ihr beeinflussten Entscheidungen fair sind und dass es Anlaufstellen gibt, wenn das nicht der Fall ist?

Wenn das System zum Entscheidungsträger wird

Die agentische Ebene verschärft die Dringlichkeit. Gonzalez zog eine Unterscheidung, die genau den Kern trifft.

Es ist das eine, einem einzelnen Ergebnis zu vertrauen – einem ganzen System zu vertrauen, ist etwas anderes.“ — Wendy Gonzalez, Sama

Wenn KI eine Frage beantwortet, kann ein Mitarbeiter die Antwort bewerten. Wenn KI Arbeit zuweist, Leistung meldet oder beeinflusst, wer welche Gelegenheit erhält, kann der Mitarbeitende das System oft gar nicht sehen. Die Transparenzstandards, die auf Modellebene sinnvoll sind, gelten nicht automatisch für die Menschen, die innerhalb der Modellergebnisse leben.

DeSouza beschrieb das langfristige Ziel als den Aufbau einer Belegschaft, die „zweisprachig“ ist – also sowohl in ihrer eigenen Funktion als auch im Umgang mit KI versiert. Er verwies auf Googles interne Hackathons, bei denen das HR-Team zweimal in Folge gewann, als Beweis dafür, dass eine breite Einführung echte Kompetenz in allen Funktionen hervorbringen kann.

Das ist ein nützliches Signal. Aber die Beherrschung eines Werkzeugs ist nicht das Gleiche wie Vertrauen in das System, zu dem dieses Werkzeug gehört. Mitarbeitende können sehr fähige KI-Anwender sein und dennoch keinerlei Einblick darin haben, wie KI eingesetzt wird, um sie zu beurteilen, einzustufen oder neu einzusetzen.

Die erfolgreiche Belegschaft der Zukunft wird in jeder Funktion zweisprachig sein. Jeder wird seine Funktion und KI kennen.

Francis Desouza-30202
Francis deSouzaOpens new window

Chief Operating Officer, Google Cloud

Beide Sitzungen waren substanziell. Die Vortragenden waren durchdacht. Bemerkenswert ist nicht, was einer von beiden falsch gemacht hat, sondern was das Gespräch über KI im Unternehmen als Ganzes noch nicht berücksichtigt hat.

Sicherheit und Compliance sind echte, dringende und durchaus schwierige Herausforderungen. Aber sie beschreiben die Infrastruktur des Vertrauens, nicht dessen Erfahrung. Für die Mitarbeitenden, die ihr Arbeitsleben um diese Systeme herum gestalten sollen, liegt genau darin die zentrale Frage.