Priorität Governance: Die Einführung von KI erfordert einen strukturellen Ansatz mit klarer Governance, um Chaos und Doppelarbeit zu vermeiden.
HR-Beteiligung: HR muss sich in der KI-Strategie behaupten und in Zusammenarbeit mit technischen Führungskräften die Themen Personal und Lernen vorantreiben.
Rolle des Managements: Das mittlere Management ist für die KI-Transformation entscheidend und benötigt kontextbewusste Führungskräfte, die den Prozess steuern.
Auswirkungen von Unklarheit: Wenn KI-Übergänge als fortlaufende Entwicklung und nicht als Störungen verstanden werden, verringert das Mitarbeiter-Burnout und Ermüdung durch ständigen Wandel.
Datenbasis: Eine starke, konsistente Dateninfrastruktur ist unerlässlich für eine wirksame KI-Einführung und zur Vermeidung systemischer Probleme.
Die Konferenzszene hat sich zu einer eigenen Art von Signal entwickelt. Was in diesen Räumen und auf diesen Bühnen gesagt wird, ist eine Essenz dessen, was im modernen Arbeitsumfeld passiert, was dort empfunden wird und was für die Zukunft prognostiziert wird.
Auch die Transform 2026 in Las Vegas machte da keine Ausnahme. In drei Tagen voller Sessions, Panels und Gespräche auf den Fluren kamen einige Dinge wirklich auf den Punkt. Natürlich gab es die üblichen, von Optimismus geprägten, abstrakten Grundsatzreden und pessimistische Eingeständnisse, aber auch ehrliche Reibungspunkte aus der Praxis von Akteur:innen, die mitten im Geschehen stecken.
Das hat die Woche für mich tatsächlich zutage gefördert.
1. Governance ist die unspektakuläre Arbeit, die entscheidet, ob all dies Bestand hat.
Niemand kommt zu einer Konferenz, um über Richtliniendokumentation zu sprechen. Und doch stellte sie immer wieder das tragende Element der KI-Einführung dar.
In einer "Kompetenz-zuerst"-Session am ersten Tag schilderte Stacy Eng, ehemalige Chief Learning Officer bei Chevron, den Moment, als ihrem Unternehmen klar wurde, dass Begeisterung allein ins Chaos führt. Man hatte allen Mitarbeitenden die Möglichkeit eröffnet, Ideen für den Einsatz von KI einzureichen – und das Ergebnis war tatsächlich eine Flut. Hunderte Ideen machten schnell deutlich, dass ein Rahmen zur Priorisierung benötigt wurde.
Die Lösung war struktureller Natur: Ein KI-Rat, der CIO, CFO und andere Führungskräfte zusammenbrachte, um zu entscheiden, was verfolgt, was auf Eis gelegt und was verworfen werden sollte.
Diese Erfahrung zog sich durch mehrere Sessions. Eine Vertreterin eines Nicht-Tech-Unternehmens schilderte, dass man zu Beginn des KI-Hypes ganz bewusst abwartete – "wir wollten, dass die anderen die Fehler machen" – bevor ein Vorstandsbeschluss zum Handeln zwang.
Amy Reichanadtner, Chief People Officer bei Databricks, beschrieb, wie sie die KI-Arbeit ihres Teams in drei explizite Ebenen unterteilt: Strategische Initiativen mit Unterstützung durch die Leitungsebene, funktionsübergreifende Prozessüberprüfungen und eine Sandbox-Zone für offene Experimente mit Leitplanken.
Ohne diese Struktur, so merkte sie an, hat man am Ende doppelte Tools im Personalbereich, die dieselben Probleme lösen sollen – und keine Methode, um herauszufinden, was tatsächlich wirkt.
Das Grundproblem ist, dass eine unvollständige Richtliniendokumentation eine schwache Basis für jedes KI-System darstellt, das darauf zugreift. Von der Notwendigkeit einer Governance für Agenten, die in Echtzeit Schritt halten kann, ganz zu schweigen.
2. Der Platz von HR am KI-Tisch wird nicht angeboten. Er muss ergriffen werden.
Einer der deutlichsten Frustpunkte der Woche: HR wird bei der KI-Strategie immer wieder außen vor gelassen, muss hinterher aber die Folgen managen.
Isaac Agbeshie-Noye wies darauf hin, dass nur ein sehr geringer Prozentsatz der HR-Profis ihre Rolle in der KI-Strategie versteht.
"Sie haben es an den CTO ausgelagert", sagte er. "Wir brauchen HR-Profis, die Bescheid wissen."
Eng betonte einen ähnlichen Punkt im Hinblick auf Organisationsgestaltung. KI-Einführung ist ein Ereignis für die Belegschaft, nicht nur eine technische Implementierung. Die Kompetenzen, die Psychologie, die Lernarchitektur sind Aufgabenfelder von HR.
"HR als diejenigen, die die Belegschaft verstehen, können das Lern- und Entwicklungssegment aufbauen. Sie sollten Teil des KI-Rats sein, gemeinsam mit CIO, CTO, und dafür sorgen, dass die menschlichen Aspekte von Veränderungen berücksichtigt werden."
Der HR-Ausblick 2026 der Brandon Hall Group zeigte, dass 65 % der Organisationen bereits dabei sind, KI in zentrale Arbeitsabläufe zu integrieren. Weniger als 30 % haben wirklich neu definiert, wie Rollen oder Stellenstrukturen im Unternehmen künftig aussehen. Genau in dieser Lücke muss HR aktiv werden – oder sie wird endgültig ausgeklammert.
3. Die Managementebene ist der Ort, an dem die KI-Transformation scheitert.
Die Session von Matt Poepsel war womöglich die ehrlichste der Woche. Er beschrieb, wie Führungskräfte ohne Kontext agieren, Entscheidungen im luftleeren Raum treffen und stellte das nicht als individuelles Versagen dar, sondern als systemisches: generische KI, die weder das Unternehmen, noch die Menschen noch die sozialen Dynamiken kennt.
"Wenn wir feststellen, dass Manager abkürzen", sagte er, "entsteht ein Vakuum – und das zeigt sich in allen Phasen des Employee Lifecycles."
Die Konsequenzen verstärken sich gegenseitig. Mitarbeitende wenden sich an ChatGPT, um Rat bei Führungsfragen zu bekommen, weil das Vertrauen so weit erodiert ist, dass sie nicht mehr glauben, von ihrer tatsächlichen Führungskraft eine ehrliche Antwort zu erhalten.
Claude Silver, Chief Heart Officer bei VaynerX, beschrieb, wie Personen in Führungspositionen befördert werden und das Unternehmen davon ausging, dass sie wissen würden, wie sie Raum für Angst, Unsicherheit und echte Gespräche schaffen.
Wir brauchen Führungskräfte, die genau das schaffen können", sagte sie. "Wir scheinen genau darüber hinwegzugehen.
Brian Elliott brachte es als Moderator der Veranstaltung auf den Punkt: „AI-Transformation ist ein Teamsport, der Zeit und Raum erfordert, damit Teams gemeinsam trainieren können. Ein AI-Champion, der in ein Team eingebettet ist und die Ziele des Teams kennt, ist wirkungsvoller als Trainingsprogramme.“
4. Unklarheit führt schneller zum Burnout als Arbeitsbelastung.
Change Fatigue wurde immer wieder genannt, aber die präzisere Diagnose kam von Agbeshie-Noye.
Dies hat praktische Folgen dafür, wie Unternehmen die AI-Transformation kommunizieren. Eng beschrieb eine Kommunikationsentscheidung bei Chevron, bei der AI nicht als Bruch, sondern als nächstes Kapitel einer fortlaufenden digitalen Reise dargestellt wurde, wodurch der Wandel als kontinuierlich und nicht als störend empfunden wurde.
Danny Guillory, Chief People Officer bei Gametime, ging noch weiter.
„Manchmal müssen wir weniger vorschreiben und uns bewusster mit den Rhythmen auseinandersetzen, die die Menschen erleben.“
Es gibt einen Unterschied zwischen der Vorbereitung der Belegschaft auf Veränderungen und ihrer Überforderung. Das Ziel all jener, die diese Herausforderung bewältigen wollen, liegt darin, Klarheit darüber zu schaffen, wohin die Reise geht – nicht nur Begeisterung zu wecken für all das, was möglich ist.
5. Die Datenebene ist kein technisches Detail. Sie ist das Fundament.
Jevan Soo Lenox, Chief People Officer bei Writer, sagte etwas, das mehr Aufmerksamkeit verdient hätte: „Wenn man nicht auf einer konsistenten, zuverlässigen Wissensbasis aufbaut – einer Datenebene, die zugänglich und ausbaubar ist –, dann wird alles andere scheitern.“
Er sprach nicht abstrakt. Er beschrieb, wie Unternehmen AI-Tools auf eine chaotische, unvollständige oder inkonsistente Dateninfrastruktur aufsetzen – und sich dann wundern, warum nichts wie versprochen funktioniert.
Giovanni Luperti, CEO von Humaans, brachte einen ähnlichen Punkt zum agentenbasierten AI zur Sprache: Die Systeme lernen von dem, was ihnen bereitgestellt wird. Füttert man sie mit chaotischen Eingaben, werden sie das Chaos systematisieren. Der Onboarding-Prozess ist ein Beispiel, das er nannte – hochgradig wiederholbar, hohes Automatisierungspotenzial, aber nur, wenn der zugrundeliegende Prozess klar definiert ist.
Sie möchten Agenten, die diesen Prozess dauerhaft ausführen und dabei lernen, es besser zu machen. Doch wenn es um komplexere Entscheidungen mit mehr Verantwortlichkeit geht, denke ich, dass diese Systeme noch nicht so weit sind.
Die wichtigste Frage, die sich Unternehmen stellen sollten, bevor sie irgendetwas aufbauen: Auf welcher Grundlage arbeitet die AI tatsächlich?
6. Führungsverantwortung bei der Einführung von AI muss messbar sein – sonst verschwindet sie.
Stacy Eng brachte es unmissverständlich auf den Punkt, was es braucht, um Führungskräfte von bloßem Anfeuern zu echter Verantwortung zu bewegen.
Peter Beard, VP Policy and Programs bei der U.S. Chamber of Commerce, ergänzte einen verwandten Punkt zur Sichtbarkeit. Wenn KI-Projekte im Fokus der Unternehmensführung bleiben – nicht um einzugreifen, sondern um zu signalisieren, dass Aufmerksamkeit besteht – verändert das das Verhalten in der gesamten Organisation. „Das wird Veränderung antreiben“, sagte er.
Das ist wichtig, weil die Lücke bei der Verantwortlichkeit real ist. Wenn die Einführung von KI nur als Kulturinitiative ohne Konsequenzen verstanden wird, wird sie als optional betrachtet. Wird sie jedoch in die Leistungsbeurteilung eingebettet, wird sie zur echten Aufgabe.
7. Das Signal im Recruiting bricht zusammen – und Masse ist nicht die Lösung.
Die Recruiting-Session mit Aaron Wang, CEO von Alex.com, brachte ein Problem ans Licht, das TA-Führungskräfte aktuell beobachten. Die Zahl der Bewerbungen ist explodiert – manche ATS-Systeme berichten von 750 Bewerbern pro Stelle –, während der Prozentsatz tatsächlich geprüfter Bewerbungen bei zwei bis drei Prozent liegt.
KI hat Bewerbungen reibungslos und ohne große Hürden gemacht. Die Kosten für eine Bewerbung liegen nun fast bei null. Mehr und mehr bewirbt sich auch KI im Namen der Kandidaten – manchmal massenhaft, manchmal mit Täuschungen.
Das Verkäuferargument lautet, dass KI-gestütztes Screening dieses Problem löst, indem alle Bewerber bearbeitet werden. Doch die schwierigere, im Workshop aufgeworfene Frage, die bislang unbeantwortet bleibt, ist: Welches Signal bleibt eigentlich übrig, wenn auf beiden Seiten KI vermittelt?
Nach Angaben von Wang könnte aktuell jede vierte Bewerbung betrügerisch sein. Diese Zahl – sofern sie stimmt – verdeutlicht, wie kaputt der obere Bereich des Funnels mittlerweile ist.
Das tiefere Problem ist nicht die Masse. Der Lebenslauf als Signal war bereits vor dem Aufkommen der KI auf dem Rückzug – und KI hat seinen Zusammenbruch beschleunigt. Screening in der Breite löst das Problem nicht, wenn die Eingaben unzuverlässig sind.
8. Menschliches Urteilsvermögen bleibt der entscheidende Unterschied – aber nur, wenn es verankert, nicht einfach vorausgesetzt wird.
Das durchgängigste Thema der Woche, das sich durch alle Sessions zog, war: Menschen urteilen besser als KI – aber dieser Vorteil ist nur dann relevant, wenn Organisationen ihn bewusst bewahren und fördern.
Matt Poepsels Ansatz war eindeutig.
Amy Reichanadtner nannte zwei Fähigkeiten, mit denen Menschen ihrer Meinung nach bestehen werden: vom Grundprinzip her zu denken und zu gestalten.
June Dinitz, Head of People in den USA und Kanada bei EPAM Systems, beschrieb den Wandel in der Beratungsbranche hin zu "vor Ort eingesetzten Ingenieuren" – also Menschen, die direkt beim Kunden sitzen und dessen gesamtes Geschäft verstehen, bevor technologische Lösungen vorgeschlagen werden.
Das bedeutet, Urteilsvermögen nicht als Soft Skill zu behandeln. Betrachten Sie es als Infrastruktur und schaffen Sie die Voraussetzungen, um es zur Geltung zu bringen, besonders in kleinen Teams. Lupertis Begriffspaar "Entscheidungs-Verbesserung versus Entscheidungs-Ersatz" ist dabei ein hilfreicher Blickwinkel. Alles Deterministische kann an Agenten abgegeben werden. Alles, was Kontext, Nuancen oder Folgen beinhaltet, muss weiterhin direkt vom Menschen verantwortet werden.
9. Die jetzt eintretende Generation erlebt etwas, das Ältere nicht vollständig nachvollziehen können – Führungskräfte müssen zuhören statt erklären.
Michael Walters, CHRO bei Samsung Semiconductors, gab einen Rat, der für alle vor 2000 Geborenen gilt.
Ich muss verstehen, dass ich nicht weiß, wie es ist, 2026 mit 25 Jahren zu leben. Deshalb muss ich viel zuhören.
Claude Silver beschrieb, wie sie beobachtet, dass jüngere Mitarbeitende zwar ins Unternehmen kommen, aber schnell wieder gehen – nicht wegen der Tätigkeit, sondern weil die Organisationen keine ehrlichen Gespräche über die Auswirkungen von KI auf ihre Zukunft, Karrierewege oder Zugehörigkeitsgefühl führen.
Während eines Gesprächs auf der Hauptbühne am zweiten Tag brachte Van Jones es auf den Punkt.
Lasst nicht zu, dass ihr diese Technologie nutzt, um Personal abzubauen. Jeder wird die Bots haben und am Ende bleiben wieder die Menschen. Ihr müsst stattdessen in die emotionale Arbeit investieren, um eure Teams zusammenzuhalten.
Das ist kein weiches Argument. Es ist ein strategisches. Wenn wir die Einführung von KI nur als Effizienzmaßnahme betrachten, verlieren wir die Menschen, die die aktuelle Automatisierungswelle überdauern werden.
KI-Kompetenz aufbauen und menschliches Vertrauen stärken sind keine konkurrierenden Prioritäten. Im Moment sind sie dasselbe Projekt.
