Skip to main content
Key Takeaways

KI-Einführung: Weniger als 30 % der Unternehmen, die KI einsetzen, erzielen signifikante Ergebnisse. Die Neugestaltung des Entscheidungsprozesses ist entscheidend.

Produktivitäts-Theater: KI erhöht die Geschwindigkeit, aber nicht die Qualität der Entscheidungen. Organisationen tappen oft in die „Humans-in-the-Loop“-Falle.

Organisationsdesign: KI erfordert die Veränderung von Entscheidungsstrukturen und nicht nur die Einführung neuer Werkzeuge, um Prozesse und Ergebnisse zu verbessern.

Verhaltensorientierter Ansatz: Menschliche Reaktion und Prozessintegrität sind für den KI-Einsatz entscheidend – es geht um mehr als nur die Einführung neuer Technik.

Führungswandel: KI erfordert anpassungsfähige Führung über tradierte Führungsmodelle hinaus – mit Schwerpunkt auf Begleitung statt Kontrolle.

Weniger als 30 % der Organisationen, die versuchen, KI zu implementieren, erzielen daraus bedeutende Erträge – eine Zahl, die sich hartnäckig hält, obwohl die Nutzung von Tools rapide zunimmt.

Paul Gibbons, Berater und Autor von „Adopting AI: The People-first Approach", beobachtet seit drei Jahrzehnten, wie Technologieprojekte aus immer demselben Grund ins Straucheln geraten.

The barriers are organizational. Silos, culture, mindset, skills.

PGibbons-53927
Paul GibbonsOpens new window

Vorstandsberater, Humankapital und KI-Einführung

Was in Analysen nach dem Scheitern nur selten auftaucht: Die Organisation hat nie neu gestaltet, wie sie Entscheidungen trifft.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Diese Beobachtung klingt abstrakt, bis man sich ansieht, wie das Scheitern von innen aussieht. Jurgen Appelo, Autor von „Human Robot Agent" und Gründer des Solo Chief-Newsletters, nennt das häufigste Muster Produktivitätstheater.

Führungskräfte verordnen die Einführung von KI-Tools. Teams lernen, sie zu nutzen, Zusammenfassungen vermehren sich, bei jedem Meeting gibt es Protokollanten. Dann stellt die Organisation – fast unbemerkt – fest: Alles geht schneller, aber grundsätzlich hat sich nichts verändert.

Companies are sprinkling AI on top of broken workflows and it shows.

Jurgen A-62887
Jurgen AppeloOpens new window

Gründer der unFIX Company

Die den Workflows zugrundeliegenden Entscheidungsflüsse – wer entscheidet was, welche Daten werden herangezogen, wo ist menschliches Urteilsvermögen nötig und wo werden einfach Routinen befolgt – bleiben völlig unangetastet.

Appelo nennt das die Mensch-im-System-Falle: Jede KI-Interaktion beginnt und endet immer noch beim Menschen, die Systeme kommunizieren nicht miteinander, und alles läuft mit der Geschwindigkeit des langsamsten Engpasses. Mit anderen Worten: Die Tools werden schlauer, aber die Architektur ändert sich nicht.

Wie sieht es aus, wenn sich wirklich etwas verändert?

Wenn das Tool leistet, aber die Organisation nicht

Carla Catelan leitet seit über zwanzig Jahren Talent-Akquise in großem Maßstab und steuerte Teams bei Hunderten von Einstellungen jährlich – unter anderem bei Thoughtworks, Cognizant und Hewlett-Packard. Wenn sie über KI im Recruiting spricht, sieht sie diese nicht als Werkzeug, sondern stellt die Gestaltungsfrage.

Leadership in an AI-first era is about designing decision architectures, creating systems where people, data, and AI collaborate to produce better outcomes.

Carla Catelan-52519
Carla CatelanOpens new window

Leiterin Talentakquise Americas bei Thoughtworks

Dieser Blickwinkel stammt aus einer hart erarbeiteten Erkenntnis.

Als Thoughtworks begann, prädiktive Analytik im Einstellungsprozess einzusetzen, entdeckte Catelans Team etwas Unerwartetes: Die Bearbeitungsdauer – also die Tage vom Ausschreiben bis zur Besetzung einer Stelle – war bereits gut, konstant im Bereich von 30 bis 35 Tagen. Geschwindigkeit war nicht das Problem. Also suchte das Team weiter nach den eigentlichen Ursachen.

Sie fanden heraus, dass Schwankungen in der Rollenbeschreibung zu schlechteren Einstellungsergebnissen führten – und das sogar zuverlässiger als die Kandidatenqualität. Unklare, aufgeblähte oder inkonsistent strukturierte Stellenbeschreibungen verzerrten das Lernverhalten der KI bereits im Vorfeld, was zu niedrigeren Konversionsraten, höheren späten Ablehnungen und schwächerer Frühauswahl führte – unabhängig davon, wer sich bewarb.

Die Kosten der Unklarheit

Die Kosten der Unklarheit

“Bevor ich mit prädiktiven Modellen arbeitete, habe ich unterschätzt, wie sehr mehrdeutige, inkonsistente oder aufgeblähte Stellenbeschreibungen Einstellungen und das Lernverhalten von KI-Systemen verzerren können,” sagt Catelan. “Mit KI bestimmen die Gestaltung der Stelle und die Qualität der Stellenbeschreibung jede nachfolgende Entscheidung.”

Die Lösung bestand nicht in einem neuen Modell. Thoughtworks hat seine Stellenbeschreibungen als das überarbeitet, was Catelan "prädiktive Artefakte" nennt: Anforderungen, die mit Rauschen statt Erfolg korrelierten, wurden entfernt und der Dateninhalt für das Modell geschärft. Die KI verbesserte sich, weil die Eingabedaten verbessert wurden.

Diese vorgelagerte Logik – die Qualität dessen, was in die Entscheidungsarchitektur gelangt, bestimmt die Qualität des Ergebnisses – zieht sich durch jede Anwendung, die Catelan gebaut hat.

KI wird eingesetzt, um Muster zu erkennen, Längsschnittdaten zu aggregieren und quantitative Signale zu strukturieren. Menschen behalten die Entscheidungshoheit über qualitative Urteile und finale Entscheidungen. Die Grenze zwischen beiden ist explizit und nicht vorausgesetzt.

Pilotprojekte skalieren nicht. Architektur schon.

Der häufigste Fehler, den Catelan bei Organisationen beobachtet, die dies replizieren wollen, ist, KI als eine Reihe von Pilotprojekten zu behandeln statt als grundlegende Veränderung, wie Arbeit entschieden wird.

Die meisten Unternehmen investieren viel in KI-Tools und erwarten Verbesserungen", sagt sie. "Aber sie behalten die gleichen Anreize, die gleichen hierarchischen Strukturen und das gleiche niedrige Datenverständnis auf Führungsebene bei. Das Ergebnis ist, dass KI entweder unter- oder falsch genutzt wird. Mächtige Modelle liefern Einblicke, die nicht vertraut, nicht verstanden oder nicht umgesetzt werden.

Thoughtworks begegnete dem, indem ein funktionsübergreifendes Arbeitsgremium ausschließlich für KI-gestütztes Entscheidungsdesign im Recruiting eingerichtet wurde.

Das Team arbeitet anhand expliziter geschäftlicher Zielvorgaben:

  • Steigerung der Umwandlungsraten im Recruitingprozess um 50 % durch prädiktive Segmentierung
  • Reduzierung der Interviewstunden um 30 %, indem Kandidaten mit niedriger Erfolgswahrscheinlichkeit im Prozess früher aussortiert werden.

Diese Zahlen sind nicht als Zielvorgabe gemeint. Sie sind der Auftrag.

Die Reihenfolge ist ebenso wichtig wie die Ziele. Bevor irgendeine Automatisierung eingeführt wird, kartiert die Gruppe, wo kritische Entscheidungen fallen, wer sie trifft, welche Daten notwendig sind und wo menschliches Urteil zentral bleiben muss.

Erst wenn diese Architektur klar ist, wird KI hinzugezogen – sie ergänzt gezielt einzelne Schritte statt unüberprüfte Prozesse pauschal zu überlagern.

"Wir gestalten Entscheidungsabläufe um, bevor wir mit der Automatisierung beginnen", sagt Catelan. "Nicht danach."

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Die 90 %, die die meisten Einführungen überspringen

Yannick Fouagou, Director of People Operations and Solutions bei Greenshield, gelangte aus einer anderen Richtung zur ähnlichen Erkenntnis. Sein Hintergrund liegt in der Elektronikentwicklung sowie in Qualitäts- und Sicherheitssystemen der Öl- und Gasindustrie – Umgebungen, in denen Prozessintegrität unverhandelbar ist und Fehler physische Folgen haben. Als er in die Mitarbeiterführung wechselte, brachte er diesen gleichen Anspruch in die menschenzentrierte Einführung von KI ein.

Überrascht war er davon, wie gering der Einfluss der Technologie im Vergleich zur menschlichen Reaktion darauf war.

KI-Einführung besteht zu 10 % aus Technologie und zu 90 % aus menschlicher Psychologie. Anfänglich habe ich angenommen, dass alle gleichermaßen bereit wären, diese Tools zu nutzen, aber ich habe schnell gemerkt, dass für KI dieselben Change-Management-Methoden wie seit Jahrzehnten nötig sind. Wenn man die menschliche Arbeit an Angst, Widerstand und der Veränderungskurve überspringt, scheitert selbst die fortschrittlichste Technologie.

Yannick headshot (1)-99460
Yannick FouagouOpens new window

Director of People Operations at GreenShield

Für Fouagou ist Entscheidungsarchitektur nicht nur eine Frage des Organisationsdesigns. Es ist ein Verhaltensthema. Sein Ansatz segmentiert die Anspruchsgruppen nach ihrem Stand auf der Adoptionskurve, begegnet ihnen dort und überführt die neue Arbeitsweise in formale Prozesse und Dokumentationen, damit der Wandel strukturell wird und nicht bloß ein kurzzeitiges Begeisterungshoch bleibt.

"Wir führen nicht einfach Tools ein", sagt er. "Wir überführen die neue Arbeitsweise in SOPs und Richtlinien, um Verantwortlichkeit sicherzustellen."

Diese Kodifizierung erzeugt eine Rückkopplungsschleife. Das System überwacht, wonach Mitarbeitende fragen, identifiziert fehlende Dokumentation und generiert Empfehlungen zur Schließung dieser Lücken. Die Wissensdatenbank lernt anhand der Nutzungsmuster der Menschen, die sie verwenden. So sieht Entscheidungsarchitektur aus, wenn die Verhaltensebene von Anfang an integriert statt nachträglich hinzugefügt ist.

Die Schleife, aus der Führungskräfte herausfinden müssen

Die Praktikerinnen und Praktiker, die dies auf Funktionsebene bearbeiten, haben Spielraum für Umgestaltung. Das eigentliche Problem liegt jedoch an der Spitze.

Gibbons hat KI-Lernprogramme für Führungsteams durchgeführt und fand die Ergebnisse ernüchternd. Als er eine Gruppe von zwölf Führungskräften fragte, wie viel formale Weiterbildung sie im vergangenen Jahr absolviert hatten, lag die Gesamtsumme bei drei Tagen für alle zusammen.

„Das reicht einfach nicht aus“, sagt er.

Das Problem ist mehr struktureller als individueller Natur. Erfolg, so argumentiert Gibbons, habe die meisten Top-Führungskräfte resistent gegenüber der Art von Lernen gemacht, die die Einführung von KI erfordert. Ihre Autorität basiert darauf, Dinge zu wissen. KI destabilisiert dieses Fundament.

Appelo beschreibt die Führungsherausforderung zwar anders, kommt jedoch zum selben Schluss. Wenn KI die Menschen bei den meisten analytischen Aufgaben übertrifft, geht es bei Führung nicht mehr darum, alle Antworten zu kennen.

Du musst nicht alle Antworten wissen

Du musst nicht alle Antworten wissen

“Führung bedeutet heute, die richtigen Fragen zu stellen, die passenden Rahmenbedingungen zu setzen und zu wissen, wann eingegriffen werden muss,” sagt er. “Das ist schwerer, als die Antworten zu kennen.”

Die meisten Führungskräfte wurden mit Management-Frameworks geschult, die auf relativ vorhersehbare Bedingungen ausgelegt waren. Appelo verweist speziell auf Transformationale Führung, ein Modell aus den 1970er-Jahren, das annimmt, dass Führungskräfte den Informationsfluss kontrollieren, Entscheidungen genehmigen und im Zentrum der Schleife stehen.

Genau dieses Modell muss für die Einführung von KI aufgebrochen werden. Führungskräfte in der Schleife werden zum Engpass. Führungskräfte über der Schleife, die steuern, anpassen und bei wirklich schwierigen Entscheidungen beurteilen, sind das, was die neue Architektur benötigt.

Gibbons bezeichnet den entsprechenden Wandel als Adaptive Führung. Gemacht für Geschwindigkeit, für das Entstehen von Neuem und für das Arbeiten ohne klares Endziel.

Wir wissen nicht, wie Pilotprojekte aussehen werden oder wie leicht sie sich skalieren lassen", sagt Gibbons. "Alte Führungskonzepte waren auf eine Vorhersehbarkeit ausgerichtet, die es heute nicht mehr gibt.

Eine Entscheidungsarchitektur für KI aufbauen

Die oben genannten Praktikerinnen und Praktiker arbeiten nicht mit einer gemeinsamen Methodik, doch die Ansätze folgen einer konsistenten Logik. So können Sie vorgehen.

Beginnen Sie mit der Entscheidung, nicht mit dem Tool

Bevor Sie eine KI-Anwendung auswählen, sollten Sie alle wichtigen Entscheidungen im anvisierten Workflow abbilden. Wem gehört welche Entscheidung? Welche Daten beeinflussen diese? Wo ist menschliches Urteilsvermögen wirklich notwendig und wo ist es nur Gewohnheit?

Catelans Team hat dies im Bereich Talentakquise getan, bevor prädiktive Modelle eingeführt wurden. Die Analyse ergab, dass die größte Fehlerquelle nicht im Auswahlprozess lag, sondern in den Stellenausschreibungen, die in diesen Prozess einflossen.

Prüfen Sie die Eingaben

KI lernt von dem, was ihr zugeführt wird. Wenn die Daten, die in ein Modell eingespeist werden, inkonsistent, aufgebläht oder schlecht strukturiert sind, spiegeln sich diese Mängel auch in den Ergebnissen wider. Catelans Überarbeitung der Stellenausschreibungen verbesserte die Modellleistung, ohne das eigentliche Modell zu verändern.

Untersuchen Sie die Qualität und Konsistenz der Eingaben aller Workflows, bevor Sie KI darauf einsetzen. Schlechte Daten skalieren sich heute schneller als je zuvor.

Setzen Sie unternehmensbezogene Ziele, keine Prozessmetriken

Vage Ziele führen zu vagen Ergebnissen. Catelans Arbeitsgruppe arbeitet mit konkreten Zahlen: 50 % höhere Konversionsraten im Bewerbungsprozess, 30 % weniger Interviewstunden.

Diese Vorgaben schaffen Druck, eine dauerhafte, systemweite Leistung zu erbringen und nicht nur punktuell zu experimentieren. Wenn Sie nicht formulieren können, was ein erfolgreich neugestalteter KI-Workflow für Ihr Unternehmen bedeutet, ist das Design noch nicht ausgereift.

Definieren Sie die Mensch-KI-Grenze explizit

Jede Neugestaltung benötigt klare Antworten auf zwei Fragen: Was übernimmt die KI und was übernehmen die Menschen? Catelans Prinzip lautet: KI strukturiert quantitative Signale und leitet Erkenntnisse ab, während Menschen qualitative Urteile fällen und endgültige Entscheidungen treffen.

Diese Grenze sollte dokumentiert, geteilt und überprüft werden, sobald das System reift. Ohne diese Klarheit zerfließt die Verantwortlichkeit und Fehler werden nicht mehr nachvollziehbar.

Implementieren Sie Governance, bevor Sie skalieren

Bauen Sie von Anfang an die Möglichkeit zum menschlichen Eingreifen, die Überwachung von Verzerrungen und Abweichungen sowie klare Verantwortlichkeiten für die Ergebnisse von Modellen in die Architektur ein. Fouagou kodifiziert Änderungen in Richtlinien, anstatt diese als informelle Praxis bestehen zu lassen.

Governance, die nachträglich hinzugefügt wird, tritt meist erst in Kraft, nachdem bereits etwas schiefgelaufen ist.

Behandeln Sie die Einführung als ein Verhaltensproblem

Fouagous 10/90-Beobachtung ist die Ebene, die die meisten Organisationen komplett überspringen. Technische Einführung und menschliche Akzeptanz sind nicht dasselbe Ereignis.

Segmentieren Sie Ihre Stakeholder. Identifizieren Sie, wo Widerstand wahrscheinlich ist, und gehen Sie vor dem Rollout, nicht erst währenddessen, darauf ein. Messen Sie nicht nur Effizienzgewinne, sondern auch, ob die gewonnene Zeit tatsächlich für höherwertige Aufgaben verwendet wird.

Es gibt eine Lücke, mit der sich die meisten Organisationen noch nicht auseinandergesetzt haben. Sie liegt zwischen den eingeführten Tools und der Entscheidungslogik, die unverändert geblieben ist.

Catelans Betrachtung der KI-Bereitschaft ist es wert, genauer betrachtet zu werden.

„Es bedeutet, konsequent bessere Fragen zu stellen“, sagt sie. „Welche Signale sind wichtig, wo besteht Unsicherheit und wie können Daten menschliche Entscheidungen unterstützen?“

Die Tools haben die Frage aufgeworfen. Die Gestaltungsarbeit ist das, was sie beantwortet.