Skip to main content
Key Takeaways

KI-Verantwortung: Für KI-Kompetenz gibt es keinen klaren Verantwortlichen; oft fühlt sich jeder zuständig und somit niemand.

Governance-Lücke: KI-Governance wird häufig unzureichend von operativ tätigen Personen begleitet.

Umschulungsbedarf: Unternehmen hinken bei der Neudefinition von Rollen hinterher, was Angst vor dem Überflüssigwerden bei Mitarbeitern auslöst.

HR-Herausforderung: Von HR wird erwartet, die KI-Transformation zu führen, aber oft fehlt es an technischer Expertise und Abstimmung.

Operative Abstimmung: Es besteht dringender Bedarf, die Lücke zwischen technischen Lösungen und menschlicher Anpassungsfähigkeit zu schließen.

Später Nachmittag bei der Transform – ein Raum voller HR-Führungskräfte wird mit einer einfachen Frage konfrontiert, auf die es keine einfachen Antworten gibt: Wer trägt die Verantwortung für KI-Kompetenz in Ihrem Unternehmen?

Die Antworten kommen über ein auf die Leinwand projiziertes Abstimmungstool herein. "L&D." "IT." "Geschäftsleitung." "Alle." Und dann eine große Portion Ehrlichkeit: "Niemand."

Einer der Sitzungsleiter blickt auf den Bildschirm und sagt, was ohnehin bereits alle im Raum wissen. 

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

"Es gibt eine riesige Lücke. Ich glaube nicht, dass es irgendjemand wirklich übernimmt." 

Ein anderer Teilnehmer mischt sich ein.

"Bestimmte Führungskräfte bestimmen alles, und das ist ein Problem, weil am Ende alle auf völlig unterschiedlichen Seiten stehen."

Die Abstimmungsdaten bestätigen das Gefühl im Raum. Unter den eigens zur Diskussion der Einführung von KI versammelten HR-Praktikern ist die häufigste Antwort auf die Frage „Wem gehört das?“ praktisch ein Unentschieden zwischen allen und niemandem.

Dies ist keine Konferenzsitzung über Versagen. Es ist eine Bestandsaufnahme der tatsächlichen Lage. Und die tatsächliche Lage, über die beiden größten Konferenzen dieses Frühlings hinweg, auf denen ich unterwegs war, und in Dutzenden Stunden Gespräche mit Führungskräften, Praktikern, Beratern, Investoren, Juristen und Entwicklern, ist: Diejenigen, die für die Einführung von KI verantwortlich sind, und diejenigen, die sie anwenden müssen, sprechen nicht auf nachhaltige, strukturierte Weise miteinander. Wenn sie es tun, beantworten sie häufig unterschiedliche Fragen.

Zu Beginn dieser Reise habe ich insgesamt vier Konferenzen von Anfang März bis Mitte April eingeplant. Die beiden auffälligsten davon sprechen vermutlich ganz unterschiedliche Zielgruppen an, liefern aber Antworten auf die Zukunft der Arbeit und die Herausforderungen, die sich daraus für Führungskräfte und Organisationen ergeben.

Die zwei Räume

Transform, das in Las Vegas stattfindet, wird oft als „HR-Sommercamp“ bezeichnet und bringt mehr als viertausend CHROs/Chief People Officers, Talentmanager und andere Personalverantwortliche zusammen, die ihre Organisationen durch die Umbrüche KI-basierter Tools steuern.

HumanX, zwei Wochen später in San Francisco, zog Gründer und Plattformentwickler an – jene, die die Tools liefern. Beide Zielgruppen sprechen dieselbe Sprache: KI-Einführung, Umschulung, Agenten-basierte Arbeitsweisen, aber die Begriffe haben je nach Raum eine andere Bedeutung.

Für die Entwickler steht die Fähigkeit im Mittelpunkt. Ständig wird gefragt: Was können diese Systeme? Wie schöpfen wir ihr volles Potenzial aus? Wie entwickeln wir uns von KI, die unterstützt, zu KI, die handelt

Ted Bailey, CEO von Dataminr, beschreibt sein Unternehmen als eines, das den Situation Room des Weißen Hauses und 30 internationale Militärs mit Echtzeit-Informationen versorgt. Seine Philosophie für autonome KI ist recht klar: Erstelle das bestmögliche Lagebild, aber die endgültige Entscheidung trifft der Mensch. 

Linda Tong, CEO von Webflow, schilderte, dass jedem Mitarbeitenden unbegrenzt Tokens zur Verfügung gestellt wurden und welches Ausmaß die Umstrukturierung des Unternehmens um agentenbasierte Arbeitsweisen hatte. 

Es ist keine ingenieurtechnisch beschränkte Fähigkeit. Jeder ist ein Gestalter.

Linda Tong-32902

In den vorwiegend auf Menschen fokussierten Sitzungen der Transform wurde jedoch eine andere Kernfrage gestellt: Nicht was die KI kann, sondern wer die Verantwortung übernimmt, wenn sie Fehler macht?

Shawn McIntire, Chief Legal Officer bei PEBL und Sprecher auf der Transform, brachte das Verantwortungsproblem in vier Worte: „Überall verantwortet, irgendwo haftbar.“ 

Er beschrieb damit, was passiert, wenn KI-Governance-Rahmenwerke von oben nach unten entwickelt werden, ohne die Basis zu erreichen. Der Governance-Ausschuss tagt. Die Nutzungsrichtlinie wird verfasst. Und dann, um zwei Uhr morgens, trifft jemand im Bruchteil einer Sekunde eine Entscheidung, die nie mehr im Ausschuss zur Sprache kommt. 

Ihre erste Verteidigungslinie sind Ihre Mitarbeitenden und Ihre Prozesse. Sie müssen auf die Ebene derjenigen gehen, die die Arbeit erledigen, mit den Modellen interagieren und jene Sekundenbruchteils-Entscheidungen treffen, für die das Governance-Komitee schlicht nicht anwesend sein wird.

S. McIntire-17497
Shawn McIntireOpens new window

Chief Legal Officer bei PEBL

Das ist die Verantwortlichkeitslücke. Und sie führt direkt durch den Raum zwischen den beiden Zimmern.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Wer übernimmt die Verantwortung?

Die Entwickler haben eine Variante dieses Problems auf technischer Ebene gelöst.

Jyoti Bansal, CEO von Harness, erläuterte die Schichten zwischen KI-generiertem Code und einem auslieferbaren Produkt. Acht Arten von Tests, acht Arten von Sicherheitsüberprüfungen, Deploy-Verifizierung, Rollback-Protokolle, Kostenoptimierung. Dreißig bis vierzig Prüfungen zwischen Code und Produktivsetzung. 

„Man kann kein Vertrauen ohne Überprüfung haben“, sagte er.

Auf demselben Panel ergänzte Jeff Wang von Windsurf, dass ein KI-Agent bei einem Fehler dieses Scheitern protokolliert und daraus lernt, es nicht zu wiederholen. Das System ist auf technischer Ebene selbstkorrigierend.

Man kann nicht umhin sich zu fragen: Welche Organisation hat dafür das Äquivalent für ihre menschlichen Prozesse geschaffen? Und ebenso: Wer führt systematische Prüfungen agentischer Aktivitäten über die Geschäftsprozesse hinweg durch? Wer überprüft das Muster der Entscheidungen eines Agenten im letzten Quartal so, wie ein Auditor Finanzberichte prüft? 

Die Entwickler-Sessions hatten detaillierte Antworten auf diese Fragen für Software-Pipelines. Im Bereich der organisatorischen Governance offenbarten die Praxis-Sessions jedoch eher Improvisation.

Bei Transform hat Victoria Reimers beobachtet, wie Unternehmen viel Aufwand in Governance-Komitees und Nutzungsrichtlinien stecken und gleichzeitig zu wenig in die Menschen investieren, die tatsächlich arbeiten. Ihr Rezept? Ganz einfach: Zehnmal so viel in Ihre Mitarbeitenden investieren wie ins Komitee. 

Das klingt wie ein Scherz, aber das von ihr bei Juniper Square beschriebene Modell – ein Team von zwölf Mitarbeitenden, die als interne KI-Expert:innen für alle verfügbar waren, die sich nicht sicher waren, ob etwas sicher oder skalierbar ist – ist eine der wenigen konkreten Architekturen, die ich gesehen habe, um die Lücke von unten nach oben und nicht vom Vorstand aus zu schließen.

Vergleiche mit der DSGVO kamen mehr als einmal auf. In gewisser Weise unterscheidet sich die Datenherausforderung, die KI mit sich bringt, kaum, sondern wirkt als Motor des Wandels und als Anlass für Unternehmen zu hinterfragen, was sie eigentlich mit den erhobenen Mitarbeiterdaten machen. 

Die Menschen wussten anfangs nicht, was sie (bei der DSGVO) tun sollten", sagte McIntire. „Aber es zwang Unternehmen dazu, sich anzusehen, wie sie mit personenbezogenen Daten umgehen."

Die Implikation ist, dass Regulierung letztlich die Verantwortungsfrage unabwendbar macht. Navrina Singh, Gründerin und CEO von Credo AI, die seit sechs Jahren Infrastruktur für KI-Governance bei Fortune-500-Unternehmen aufbaut, argumentiert jedoch, Organisationen sollten nicht auf diese Zwangsfunktion warten. Sie betont: Wer erst auf einen Vorfall wartet und dann in KI-Governance investiert, ist schon irrelevant.

Florian Douetteau, CEO von Dataiku, brachte das Kostenargument noch deutlicher auf den Punkt: Scheitern bei Menschen, Orchestrierung oder Governance bringt das gesamte agentische Investment zum Einsturz. 

Leute werden anfangen zu sagen: Wir haben dort viel Geld ausgegeben, und es gibt keine Kapitalrendite (ROI).

Florian D-45506

Zwischen Pipeline und Menschen

Währenddessen bewegt sich das Thema Umschulung in einem seltsamen Zwischenraum zwischen beiden Seiten.

Forschungen, die von der Brandon Hall Group bei Transform vorgestellt wurden, ergaben, dass 65 % der Unternehmen aktiv KI in zentrale Arbeitsabläufe integrieren, aber weniger als 30 % ihre Rollen oder Arbeitsstrukturen nennenswert so angepasst haben, dass sie diese Neuerungen widerspiegeln. 

Die Technologie entwickelt sich weiter, aber die menschliche Architektur rundherum hält nicht Schritt. Um es deutlich zu sagen: Es beschreibt Organisationen, die ihren Motor während der Fahrt umbauen, ohne den meisten Passagieren zu erklären, was passiert oder wohin es geht.

Amy Reichanadtner, Chief People Officer bei Databricks, beschrieb die Herausforderung ihres Teams mit Worten, die mir im Gedächtnis geblieben sind. 

Wir wollen für sie keinen Dschungel bauen", sagte sie im Hinblick darauf, KI-Tools flächendeckend einzuführen, ohne einen klaren Plan, wie sie zusammenhängen. „Die Mitarbeitenden brauchen eine Straße, keine Machete."

Es gibt einen Namen für das Gefühl der Mitarbeitenden, wenn diese Straße fehlt – das, was wir heute FOBO nennen: die Angst, obsolet zu werden. Laut zahlreichen Vortragenden ist das die häufigste Rückmeldung, die ihre Teams hören, wenn das Thema KI aufkommt.

Die "Builder-Sessions" behandeln die Einführung als im Grunde lösbares Problem von Zugang und Anreiz. Gib allen Token. Veranstalte eine firmenweite Challenge. Mache das Bauen zur Erwartung.

Das funktioniert nachweislich in Unternehmen, in denen bereits eine Kultur des Experimentierens vorhanden ist und in denen die Mitarbeitenden wissen, dass ihre weitere Rolle nicht infrage gestellt wird. Für alle anderen ist die Lage deutlich komplexer.

Robin Daniels, Chief Business Officer bei Zensai, sagte auf der HumanX: „Geschwindigkeit ohne Klarheit führt zu Chaos und nicht zu Transformation.“ 

Der Druck von Seiten der Entwickler, schneller zu implementieren, mehr einzusetzen und die Lücke zum Wettbewerb zu schließen, wird in Organisationen anders wahrgenommen, in denen noch niemand definiert hat, was als Nächstes kommt. 

Veränderungsmüdigkeit ist weniger erschöpfend, wenn man weiß, wohin es geht. Unklarheit ist erschöpfend.

IAN-06363
Isaac Agbeshie-NoyeOpens new window

Director, Foundation Programs bei SHRM

Des Schusters Kinder

Der "Literacy Workshop" bei Transform war auf seine Weise die ehrlichste Session auf beiden Konferenzen. Ein Raum voller HR-Praktikerinnen und -Praktiker, die gezielt an der Einführung von KI arbeiteten, stimmte ab, dass KI-Kompetenz allen gehört – was in der Praxis bedeutet, dass sie niemandem gehört. 

Eine Teilnehmerin aus einem Konsumgüterunternehmen sagte, ihre Organisation habe sich bewusst zurückgehalten, andere zunächst Fehler machen lassen und vom Vorstand erst letzten Monat den Auftrag erhalten, einzusteigen. 

Eine andere beschrieb ein Unternehmen, in dem jede Abteilung ihre eigene Verantwortung für KI-Kompetenz übernahm, weil die Alternative gewesen wäre, Leute zu entlassen. Eine dritte Person merkte an, niemand käme auf die Idee, zu fragen, wem die Finanzkompetenz in einer Organisation gehöre – und stellte die Frage in den Raum, ob allein dieses Framing schon Teil des Problems sei.

Was in der Session sichtbar wurde, ohne es klar zu benennen: Die HR-Funktion ist aufgefordert, eine organisationale Transformation anzuführen, für die sie selbst nur teilweise gerüstet ist. 

Wir sehen, wie in unseren Unternehmen überall KI eingeführt wird", sagte einer der Moderatoren. "Wir verstehen KI noch nicht einmal innerhalb unserer eigenen Funktion und sollen dann anderen Unternehmensbereichen helfen, KI einzuführen. 

Matt Poepsel, VP Talentoptimierung bei The Predictive Index, kam – aus einer anderen Richtung – zum gleichen Ergebnis.

Er beschrieb den Schaden, den er zu Beginn seiner Karriere als Manager angerichtet hatte, als er sich darauf konzentrierte, die Teamleistung zu steigern und sich übermäßig auf die technische Umsetzung fixierte. Er übersah dabei, was sein Team tatsächlich erlebte, und erst das Personalwesen half ihm zu erkennen, dass ihm dabei der Kontext fehlte.

„Was ich jetzt, all die Jahre später, feststelle, ist, dass ich dieselben Dinge in Organisationen sehe – aber jetzt geschieht es in größerem Maßstab und mit größerer Geschwindigkeit“, sagte er. „Und das liegt daran, dass dem Personalwesen dieser entscheidende Kontext genauso fehlt, wie er mir damals fehlte. Sie haben bestimmt schon Leute sagen hören, dass wir den Menschen im Prozess behalten müssen. Nun, ich sage, wir müssen einen Weg finden, das Personalwesen im Prozess zu behalten.“

Ich habe aus erster Hand gesehen, welchen Schaden ich persönlich angerichtet habe, obwohl es nicht meine Absicht war, als ich zu sehr auf die technischen Aspekte des Geschäfts fixiert war. HR-Fachleute verstehen und kümmern sich auf eine andere Weise um die menschlichen Komponenten als der durchschnittliche Manager, der zum Führen von Menschen befördert wird. Deshalb beunruhigt es mich, wenn ich sehe, dass das Personalwesen bei einer der größten Umwälzungen, die wir seit Langem erlebt haben, aus der Gleichung herausgelassen und nur transaktional oder für die Einhaltung von Vorschriften betrachtet wird.

Matt Poepsel-55239
Matt PoepselOpens new window

VP of Talent Optimization at The Predictive Index

Dies ist das altbekannte Schusterkinder-Problem – und es ist endemisch. Das Personalwesen ist die Funktion, die am meisten für die Anpassung der Belegschaft verantwortlich ist – aber am wenigsten positioniert, durch Ausbildung und unternehmensübliche Gewohnheiten, eine technische Transformation zu führen.

Stacy Eng, ehemalige Chief Learning Officer bei Chevron, beschrieb die Etablierung eines KI-Rats, zu dem der CIO, der CFO und eine kleine Arbeitsgruppe gehörten, speziell zur Schaffung von Governance darüber, welche Ideen verfolgt und welche verworfen werden sollten.

Ohne Governance herrscht Chaos. Wir können nicht das ganze Meer zum Kochen bringen.

Stacy-09512
Stacy EngOpens new window

Chief Learning & AI Enablement Officer

Das strukturelle Argument ist häufig, dass das Personalwesen in diesem Rat neben dem CIO und CTO sitzen muss – und nicht nachgelagert agieren sollte. Rasmus Hulst, CEO von Zensai, brachte bei HumanX das gleiche Argument vor. 

Holt den CHRO, den CTO und den CFO in denselben Raum“, sagte er, und merkte an, dass er das „fast nie tatsächlich gesehen“ habe.

Ironischerweise haben die Akteure bei HumanX dieses Problem in vielen Fällen intern gelöst. Vijay Tella, CEO von Workato, beschrieb 28 Agents, die in den Abläufen seines Unternehmens eingesetzt werden. Tong berichtete von der internen Kultur des universellen Bauens bei Webflow.

Dies sind Organisationen, in denen Technologiefunktion und Personalabteilung effektiv verschmolzen sind, wo CEO, CHRO und CTO zwangsläufig im selben Gespräch sind.

Sie sind jedoch kein nützliches Vorbild für ein Unternehmen mit 50.000 Mitarbeitern, in dem der CHRO immer noch erst nachträglich von KI-Einsätzen erfährt.

Die 40 Prozent

Die Frage, was mit den Menschen passiert, steht hinter allem.

Adit Jain, CEO von Leena AI, das KI-Kollegen für die Personalabteilung und Backoffice-Funktionen im Unternehmen einsetzt, lieferte eine der realistischeren Einschätzungen, die ich in zwei Wochen gehört habe. Bei der Automatisierung von Geschäftsprozessen wird in seinem Unternehmen regelmäßig beobachtet, dass 60 % der beteiligten Menschen in einem bestimmten Workflow überflüssig werden. 

Er sagte das ganz nüchtern, denn es geschieht bereits. Er beschrieb, was die besseren Kunden tun: Rund 20 % der verdrängten Mitarbeitenden können in den Prozess als menschliche Betreuer von KI-Systemen zurückintegriert werden, indem sie Aufsicht und Korrektur übernehmen, statt die eigentliche Arbeit. Die übrigen 40 % nannte er deutlich: „Darüber haben wir mit Kunden bereits mehrfach Gespräche geführt.“

Bei Transform kam eine Stimme aus einer anderen Richtung. Van Jones griff auf der Hauptbühne die Frage nach den Mitarbeiterzahlen auf – ohne sie zu beschönigen. 

Die Leute werden dazu übergehen, Personal abzubauen und Menschen durch Bots zu ersetzen, weil sie davon ausgehen, dass Menschen zu teuer sind und Bots günstiger sind," sagte er. "Ein Stück weit wird das passieren, das ist unvermeidlich. Aber bald werden alle die Bots haben. 

Sein Argument war struktureller, nicht gefühlvoller Natur. Sobald die Technologie zu einer Handelsware geworden ist – und das wird sie –, wird der entscheidende Unterschied wieder bei den Menschen liegen. Genauer gesagt bei denen, die die unsichtbare Arbeit erledigen: Empathie zeigen, Verbindungen schaffen und die emotionale Arbeit leisten, die Teams arbeitsfähig hält. 

Wenn Sie sie nur als Kopfzahl sehen und loswerden. In zwei Jahren werden die Teams, die die gleichen Bots nutzen wie Sie, aber bessere Leute haben, die besser zusammenarbeiten, Ihnen das Wasser abgraben.

Van Jones-96328
Van JonesOpens new window

Gründer von Magic Labs

Auf keiner der beiden Konferenzen wurde endgültig geklärt, wie die Strukturen von Organisationen aussehen sollen, die über reines Optimieren während des Übergangs hinausgehen wollen. Die Builder-Sessions lieferten detaillierte technische Rahmenwerke, um KI-Systeme verlässlicher zu machen. Die Praxis-Sessions stellten detaillierte Rahmenwerke bereit, um Mitarbeitende anpassungsfähiger zu machen. 

Die mittlere Ebene, die Governance- und Verantwortlichkeits-Infrastruktur, die diese beiden Bereiche verbindet – das organisatorische Gegenstück zur 30-schichtigen Qualitäts-Pipeline von Harness –, existiert in den meisten Unternehmen nicht. Und niemand hat die Aufgabe, sie zu schaffen.

Wo Risiken entstehen

Kit Krugman, SVP People and Culture bei Foursquare, beschrieb auf der Transform das wiederkehrende Problem der Personalabteilung: Schon immer war es schwierig, einen strategischen Platz am Tisch zu erlangen. KI, so argumentierte sie, bietet erstmals die Chance, das zu verändern – aber nur, wenn Personalabteilungen in der Lage sind, diesen Moment auch auf operativer Ebene zu nutzen. 

Eine Orchestrierungsebene wird eine der stärksten Umwälzungen in diesem Bereich sein. Aber zuerst muss die operative Basisebene funktionieren.

Kit Krugman-90621
Kit KrugmanOpens new window

SVP, People & Culture bei Foursquare

Diese Basis bestehend aus sauberen Daten, klaren Governance-Strukturen, eindeutig definierter Verantwortlichkeit und einer Belegschaft, die versteht, was von ihr erwartet wird und warum, versuchen die meisten Organisationen immer noch zusammenzutragen. Ohne systematische Vorbereitung auf KI riskieren Unternehmen es, in dieser zentralen Transformation ins Hintertreffen zu geraten. Die "Builder" sind schneller unterwegs, als diese Grundvoraussetzungen geschaffen werden können. Die Praktiker bauen sie unter laufendem Betrieb zusammen. Und genau in diesem Geschwindigkeitsunterschied liegt der größte Teil des Risikos.

Für die nächste Konferenzrunde wäre es vermutlich eine gute Idee, beide Gruppen zusammenzubringen und beide Perspektiven gemeinsam zu diskutieren.