Skip to main content

Nur 2 % der CHROs der Fortune 500 sind fest davon überzeugt, dass ihr aktuelles Leistungsbeurteilungssystem tatsächlich Verbesserungen bewirkt.

Diese Zahl ist zu einem verlässlichen Gesprächsthema auf HR-Konferenzen und in Präsentationen von Anbietern geworden – meist gefolgt von dem Versprechen, dass KI-gestütztes kontinuierliches Feedback das Problem lösen werde. Das Versprechen ist überzeugend. Die Ergebnisse bislang sind es nicht.

Die inzwischen berühmte Studie der NANDA-Initiative des MIT zeigte, dass rund 95 % der Pilotprojekte mit generativer KI nicht den Sprung in die Produktion schaffen. Eine separate Analyse der RAND Corporation beziffert die generelle Ausfallrate von KI-Projekten auf 80 %, wobei aufgegebene Projekte im Schnitt 4,2 Millionen Dollar an versunkenen Kosten verursachen. 

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Gartner stuft Unternehmens-KI jetzt für 2026 eindeutig in das „Tal der Enttäuschung" ein – eine Bezeichnung, die gut zu den Erfahrungen von CHROs passt: Tools, die in der Demo überzeugen, im Pilotprojekt akzeptabel funktionieren und bei der breiten Umsetzung im Unternehmen ins Stocken geraten.

Gerade der Bereich Leistungsmanagement ist besonders anfällig für dieses Muster, da der zu verbessernde Kernprozess – das jährliche Mitarbeitergespräch – selbst tief verwurzelt ist. Eine Software zu kaufen, die verspricht, Feedback in einen kontinuierlichen, KI-unterstützten Coaching-Prozess zu verwandeln, klingt auf den Folien der Anbieter überzeugend. 

Operativ erfordert dies jedoch eine grundlegende Neugestaltung, wie Führungskräfte ihre Zeit verwenden, wie Entscheidungen zu Vergütung und Beförderung getroffen werden und wie Mitarbeiter Verantwortung erleben. Die meisten Unternehmen überspringen diese Neugestaltung und erwarten, dass die Software das Problem löst.

Im Folgenden finden Sie einen praxisorientierten Migrationsrahmen, der dort ansetzt, wo Implementierungen tatsächlich scheitern:

  • Der Vorab-Audit, den die meisten Organisationen auslassen
  • Wie der Workflow der Führungskräfte künftig aussehen muss
  • Die Übergabearchitektur, die Coaching-Tools vor einem Missbrauch als Überwachungsinstrument schützt
  • Die fünf wiederkehrenden Fehlerquellen sowie ein realistischer Zeitplan für die Umstellung.

Das Audit

Bevor ein KI-Tool konfiguriert wird, brauchen drei Fragen eine ehrliche Antwort.

Daten

Die erste betrifft die Daten. Kontinuierliches, KI-unterstütztes Coaching setzt einen stetigen Strom strukturierter Eingaben voraus, etwa:

  • Dokumentierte 1:1-Notizen
  • Projektmeilensteine
  • Einträge mit Peer-Feedback
  • Updates zum Ziel-Tracking.

Wenn Führungskräfte diese Daten nicht bereits konsequent erfassen, hat die KI nichts Substanzielles zu analysieren. Kommt Unsinn rein, kommt Lärm raus.

Führungskompetenz

Die zweite Frage betrifft die Führungskompetenz. Ein KI-System, das ein Zeichen für Demotivation erkennt und eine Coaching-Maßnahme empfiehlt, nützt nur dann etwas, wenn die betreffende Führungskraft weiß, wie sie damit umgehen muss.

Wenn Ihre Führungskräfte derzeit schon Schwierigkeiten mit direkten Feedback-Gesprächen haben, wird ein KI-generierter Hinweis daran nichts ändern. Die Lücke wird lediglich schneller sichtbar – was durchaus nützlich sein kann, aber nur, wenn das Unternehmen einen Plan hat, um sie zu schließen.

Prozess

Die dritte Frage betrifft die Prozessarchitektur. Gibt es im bestehenden Leistungsmanagement-System klare Eskalationswege? Ab wann wird aus wiederkehrender Unterleistung ein Fall für HR statt für die Führungskraft? Wer entscheidet, wann eine Coaching-Maßnahme in einen Leistungsverbesserungsplan mündet?

Diese Übergabepunkte müssen definiert sein, bevor die KI beginnt, in großem Maßstab Auffälligkeiten zu melden, denn die Zahl der Hinweise wird jede Unklarheit in Ihren Prozessen innerhalb von wenigen Wochen offenlegen.

Die meisten Organisationen machen das falsch herum. Sie implementieren zuerst das Tool und wundern sich dann, warum die Akzeptanz stockt. Der klügere Weg beginnt mit einer Definition. Wie sieht exzellentes Führungsverhalten in einer Kultur kontinuierlichen Feedbacks aus? Erst dann sollte man prüfen, ob das Tool dies tatsächlich unterstützt. Wenn Sie diesen Schritt überspringen, haben Sie die Arbeit der Führungskraft nicht verändert. Sie haben ihr nur ein weiteres Dashboard gegeben, das ignoriert wird.

Matt Poepsel-55239
Matt Poepsel, PhDOpens new window

VP Talentoptimierung bei The Predictive Index

Eine nützliche Herangehensweise ergibt sich aus der umfassenderen Forschung zur Implementierung von KI. Ein Bericht des Weltwirtschaftsforums, der Anfang dieses Jahres veröffentlicht wurde, fand heraus, dass weniger als eines von fünf Unternehmen eine hohe Reife in irgendeinem Aspekt der Datenbereitschaft meldete und 72 % der Geschäftsleiter angaben, dass Datenfundamente und -pipelines ihr am schnellsten wachsender Bereich für KI-Investitionen sein werden.

Im Kontext des Performance Managements ist das Fundament die Bestandsaufnahme: Die Erfassung Ihrer Datenlandschaft, die Einschätzung Ihrer Führungskräfte und die Dokumentation Ihrer Prozessarchitektur, bevor das Tool eingeschaltet wird.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Wie die Woche einer Führungskraft nach der Migration aussieht

Das häufigste Versäumnis von Inhalten über kontinuierliches Feedback ist, dass sie abstrakt bleiben.

„Wechsel zu fortlaufenden Coaching-Gesprächen“ ist eine Anweisung, die einer Führungskraft nichts über den Dienstag sagt. Das Migrationsframework muss so konkret werden, dass ein CHRO anhand von Begriffen, die eine Führungskraft aus der ersten Reihe versteht, beschreiben kann, was sich im wöchentlichen Ablauf ändert.

In einer ausgereiften Umsetzung erzeugt die KI-Plattform eine fortlaufende Zusammenfassung der Aktivitäten jedes einzelnen Mitarbeiters, indem sie Daten aus dem Projektmanagement, Peer-Feedback und dokumentierten 1:1-Notizen heranzieht.

Montag

Der Montag der Führungskraft beginnt typischerweise mit einer 15- bis 20-minütigen Durchsicht dieser Zusammenfassungen. Das System hebt eine kurze Liste von Coaching-Momenten hervor, vielleicht fünf bis sieben bei einem Team von acht bis zehn direkter Mitarbeitenden, sortiert nach Dringlichkeit und Häufigkeit bestimmter Muster.

Aufgabe der Führungskraft ist es, diese Liste zu filtern. Manche Hinweise sind irrelevant. Ein Rückgang der Kollaborationsmetriken kann beispielsweise auf eine Projektphase zurückzuführen sein, in der konzentriertes Arbeiten gefragt ist – nicht auf mangelndes Engagement. Die KI weiß das nicht. Die Führungskraft schon.

Dieser Filterprozess ist der Punkt, an dem menschliches Urteilsvermögen unverzichtbar bleibt – und bei dem Umsetzungen scheitern, die KI als Ersatz für unternehmerisches Fingerspitzengefühl und nicht als dessen Unterstützung betrachten.

Dienstag – Freitag

Im Laufe der Woche führt die Führungskraft Einzelgespräche. Im alten Modell waren diese Treffen oft unstrukturierte Gespräche, geprägt von den gerade drängenden Themen.

Im migrierten Modell hat die KI für jede:n Mitarbeitende:n eine Coaching-Agenda vorausgefüllt und dabei Muster hervorgehoben, die der Führungskraft entgangen sein könnten: Ein Teammitglied, das diesen Monat dreimal Lob von Kollegen erhielt, aber kein Feedback zu Entwicklungsmöglichkeiten, oder jemand, dessen Zielerreichungsrate in den letzten zwei Sprints deutlich gesunken ist.

Der entscheidende Unterschied zum alten Modell ist nicht die Häufigkeit der Gespräche. Viele Führungskräfte hielten schon vorher wöchentliche Einzelgespräche ab. Der Unterschied liegt in der Qualität der Vorbereitung. Die KI übernimmt die Aggregation und Mustererkennung, was eine Führungskraft entweder nur unzureichend leisten konnte – weil die Datenmenge die menschlichen Kapazitäten überstieg – oder schlicht gar nicht getan hat.

Aber die Annahme dieses neuen Rhythmus geschieht in einer Uneinheitlichkeit, die den meisten Organisationen nicht bewusst ist. Laut Poepsel sind es meist diejenigen Führungskräfte, die sich bereits vorher für Coaching-Methoden engagierten, die wirklich von den kontinuierlichen KI-gestützten Einblicken profitieren.

„KI hat einfach nur das verstärkt, was ohnehin schon da war“, sagte er. „Für den Rest ist das Tool in ein Verhaltensvakuum gefallen.“

Er nannte das Verhaltensprofil als einen Faktor, den Organisationen regelmäßig übersehen: Ergebnisorientierte Führungskräfte betrachten das Tool eher als störend, während menschenorientierte Führungskräfte es eher in ihren Ansatz integrieren.

„Wenn Sie das Verhaltensprofil nicht in Ihre Einführungsstrategie einbeziehen, gestalten Sie für einen Führungsstil und wundern sich, warum die anderen nicht folgen“, sagte er.

Daten von Happily.ai, die 633 Führungskräfte aus 60 Organisationen untersuchten, zeigen, dass das Muster tiefer geht als nur der Coaching-Stil. Das Unternehmen fand heraus, dass die Betriebszugehörigkeit nahezu keinen Zusammenhang mit dem Engagement des Teams hatte, was bedeutet: Eine Führungskraft, die erst seit drei Monaten dabei ist und sich zuverlässig einbringt, übertrifft eine zehnjährige Führungskraft, die es nicht tut.

Das unterste Viertel der Führungskräfte in ihrem Datensatz zeigte keine allmähliche Minderleistung. Die Engagement-Werte ihrer Teams lagen bei null. Die Implikation für eine Umstellung auf kontinuierliches Feedback ist, dass die Technologie zwar am ersten Tag einsatzbereit sein kann, aber die Unterschiede im Führungsverhalten darüber entscheiden, ob Erkenntnisse oder Stille entstehen.

Allerdings verlagert sich der Zeitaufwand lediglich, anstatt zu verschwinden. Führungskräfte verbringen weniger Zeit mit hektischen Jahresendbewertungen. Ein unter Frühanwendern häufig genanntes Ziel ist eine Reduzierung des Gesamtaufwands für administrative Tätigkeiten im Zusammenhang mit Leistungsbeurteilungen um 20 %, wobei diese Zeit das Jahr über auf kürzere, fokussierte Coaching-Gespräche verteilt wird.

Die Gesamtstundenzahl sinkt nicht zwingend. Die aufgewendete Zeit wird jedoch produktiver.

Die dreistufige Übergabe

Einer der schnellsten Wege, eine KI-gestützte Coaching-Implementierung scheitern zu lassen, ist die Vermischung von Erkenntnis und Kontrolle.

Mitarbeiter, die feststellen, dass KI ihre Kooperationsmuster, Antwortzeiten auf E-Mails oder Teilnahme an Meetings ohne Kontext erfasst, werden das System als Überwachungsinstrument werten. Und sie liegen damit nicht falsch, solange das Unternehmen keine klaren Grenzen dafür gezogen hat, was erfasst wird, wer was sehen darf und wann ein Alarm über die Führungskraft hinaus eskaliert wird.

Die Unternehmen, bei denen dies funktioniert, arbeiten meist mit einem Drei-Stufen-Modell.

Führungsebene

Die erste Stufe ist die Führungsebene. Die KI stellt Coaching-Impulse, Musterzusammenfassungen und Entwicklungsempfehlungen direkt der Führungskraft zur Verfügung. Diese Daten sind für den Einsatz in Coaching-Gesprächen bestimmt. Sie werden nicht automatisch weitergegeben.

HRBP-Ebene

Wenn sich ein Muster über einen definierten Zeitraum, etwa 60 bis 90 Tage sinkender Leistungskennzahlen oder wiederholter nicht bearbeiteter Hinweise, fortsetzt, wird an die HRBP eskaliert. Die Eskalation löst ein Gespräch zwischen HRBP und der Führungskraft aus, nicht eine Überprüfung der Mitarbeiterdaten durch HR ohne Führungskontext.

Organisationsebene

Aggregierte, anonymisierte Daten fließen zur Personalplanung nach oben. Die Führung sieht Trends über Teams und Abteilungen hinweg, Risikomuster bei der Mitarbeiterbindung, Engagement-Tendenzen. Individuelle Mitarbeiter-Dashboards sind dabei nicht einsehbar.

Der Aspekt Transparenz ist ebenso bedeutend wie die Architektur. Mitarbeiter müssen wissen, was erfasst wird, wie die Daten genutzt werden und was sie selbst über sich sehen können. Um Integrationsprobleme zu vermeiden, sollten Unternehmen ihren Mitarbeitern Zugang zu ihren eigenen KI-generierten Zusammenfassungen geben. Das schafft eine gemeinsame Gesprächsbasis im Coaching – und kein einseitiges Kontrollwerkzeug.

Ein Grund, warum sich die Akzeptanz branchenübergreifend schwierig gestaltet, ist, dass Misserfolge bei der Einführung oft durch die Besorgnis der Mitarbeiter über Relevanz, Identität und Arbeitsplatzsicherheit ausgelöst werden – nicht durch technische Defizite.

Im Performance Management werden diese Sorgen verstärkt, weil es um persönlichere Daten geht: Wie sich jemand am Arbeitsplatz verhält, mit anderen zusammenarbeitet, Leistung bringt. Haben die Mitarbeiter das Gefühl, dass Daten gegen sie und nicht für sie genutzt werden, scheitert die Einführung unabhängig von der technischen Leistungsfähigkeit des Tools.

Fünf Versagensmuster und wie sie tatsächlich aussehen

Die Forschung zu KI-Projektmisserfolgen, verknüpft mit den Erfahrungen von Frühanwendern im Performance Management, zeigen fünf wiederkehrende Muster der Fehlentwicklung. Sie sind eine nähere Betrachtung wert, da sie in von Anbietern gesponserten Inhalten zu kontinuierlichem Feedback nie erwähnt werden – und weil in ihnen die realen betrieblichen Lernerfahrungen liegen.

Das Add-on-Problem

Das Unternehmen kauft das KI-Tool, schafft aber die jährliche Beurteilung nicht ab. Beide Systeme laufen parallel. Führungskräfte halten sich am Gewohnten fest.

Die KI-Plattform wird zum Ladenhüter, und bei der Verlängerung zeigt sich: geringe Nutzung, unklarer ROI.

Wer auf kontinuierliches Coaching umstellt, muss den jährlichen Beurteilungsprozess abschaffen – nicht ergänzen. Unternehmen, die beides laufen lassen, werden jedes Mal sehen, dass sich der Jahreszyklus durchsetzt: Er hat institutionelles Gewicht und ist mit Gehaltsentscheidungen verknüpft, wofür das neue System noch kein Vertrauen besitzt.

Das Lärm-Problem

Die KI meldet alles. Führungskräfte erhalten 10 bis 15 Benachrichtigungen täglich, können Signal nicht von Rauschen unterscheiden und ignorieren das System bald völlig. Ursache ist in der Regel eine falsche Schwellenkonfiguration beim Setup.

Die Plattform muss so eingestellt werden, dass Führungskräfte drei bis fünf umsetzbare Coaching-Momente pro Woche sehen – nicht pro Tag.

Lärm untergräbt Vertrauen

Lärm untergräbt Vertrauen

“Dieses Vertrauen muss man sich langsam verdienen – mit einigen hochwertigen Treffern. Man verliert es schnell mit einem einzigen gravierenden Fehler. Die meisten Plattformen überfluten Führungskräfte mit Erkenntnissen, bevor sie dieses Vertrauen aufgebaut haben. Implementierungen, die mit locker gefassten Filtern starten und planen, diese später zu verschärfen, erholen sich selten, weil der durch Informationsüberflutung entstandene Vertrauensschaden kaum umkehrbar ist.”

Die Vertrauenslücke

Führungskräfte erhalten einen von der KI generierten Coaching-Hinweis und glauben ihm nicht. Vielleicht meldet das System bei einer Mitarbeiterin oder einem Mitarbeiter ein mangelndes Engagement, obwohl die Führungskraft diese Person als Top-Performer betrachtet.

Statt der Sache nachzugehen, verwirft die Führungskraft die KI. Poepsel beschreibt eine typische Variante davon: Die KI meldet fehlendes Engagement anhand von Verhaltenssignalen wie Kommunikationshäufigkeit oder Teilnahme an Meetings, aber verfehlt den Kontext völlig.

Manche sind ruhig, weil sie vertieft arbeiten. Oder sie befinden sich in einer persönlichen Ausnahmesituation", sagte er. "Die Führungskraft reagiert pflichtbewusst auf die Warnung, führt ein unangenehmes Check-in-Gespräch, und der Mitarbeiter fühlt sich überwacht statt unterstützt. Dieser Moment der Fehlanpassung schadet nicht nur der Beziehung. Er untergräbt auch das Vertrauen der Führungskraft in das Tool.

Die Lösung ist Transparenz – darüber, wie die KI ihre Einschätzungen erstellt, auf welche Daten sie zugreift und was ihre bekannte Fehlerquote ist. Wenn man Führungskräften offen die Rate an Fehlalarmen mitteilt, statt die Genauigkeit des Tools zu vermarkten, entsteht das kalibrierte Vertrauen, das eine nachhaltige Einführung trägt.

Die Überwachungsreaktion

Dies wurde bereits im Abschnitt zur Übergabe angesprochen, aber es verdient es, als eigener Fehlermodus hervorgehoben zu werden. Es kann selbst dann eintreten, wenn die Organisation gute Absichten und eine vernünftige Datenarchitektur hat – sofern die Kommunikation an die Mitarbeitenden mangelhaft ist.

Ein Auslöser ist fast immer die Entdeckung und nicht die Offenlegung: Mitarbeitende erfahren, was überwacht wird, statt vorab darüber informiert zu werden.

Das Datenqualitätsproblem

Die KI analysiert unvollständige Datensätze. Die Hälfte der Führungskräfte im Unternehmen dokumentiert ihre 1:1s, die andere Hälfte nicht. Peer-Feedback erfolgt sporadisch. Zielverfolgung ist zwischen Teams unterschiedlich. Die KI erzeugt Erkenntnisse mit extrem unterschiedlicher Qualität – das untergräbt das Vertrauen in die Systemergebnisse im gesamten Unternehmen.

Dies ist das Prüfproblem aus Abschnitt eins in großem Maßstab – und genau deshalb ist der Datenhygiene-Schritt vor der Migration unverzichtbar.

Kompensations- und Beförderungsentscheidungen ohne jährliche Bewertungen treffen

Das ist die Frage, die CFOs und Vergütungsausschüsse nervös macht – und die die meisten Inhalte zum Thema kontinuierliches Feedback ausklammern. Wenn man das Jahresgespräch abschafft, wie trifft man dann Beförderungs- und Vergütungsentscheidungen?

Die Kurzfassung: Man ersetzt eine einzelne, entscheidende Bewertung durch eine Reihe dokumentierter, weniger riskanter Einschätzungen, die sich über die Zeit ansammeln.

In einem migrierten System führt die KI ein stets aktuelles Leistungsprotokoll, das Coaching-Gespräche, Zielerreichungsdaten, Peer-Recognition und Bewertungen der Führungskraft über das Jahr hinweg aggregiert.

Wenn ein vierteljährlicher oder halbjährlicher Entscheidungspunkt erreicht ist, stehen der Führungskraft und der HRBP mehr, aktuellere und detailliertere Nachweise zur Verfügung als ein rückblickendes Jahresgespräch je liefern könnte.

Die ausführlichere Antwort: Das erfordert eine grundlegende Neugestaltung des Kalibrierungsprozesses. Kalibrierungssitzungen, in denen Führungskräfte jedes Jahr die Bewertungen ihrer Teammitglieder gegen eine erzwungene Verteilungskurve verteidigen, sind für eine Welt geschaffen, in der Leistungsdaten dünn und subjektiv sind.

Im kontinuierlichen Modell verschiebt sich das Kalibrierungsgespräch vom Streit um Bewertungen zur Betrachtung von Entwicklungspfaden: Entwickelt sich diese Person positiv? Hat sich ihre Entwicklungsgeschwindigkeit verändert? Wo klaffen Unterschiede zwischen dokumentierter Leistung und ihrer Vergütungsgruppe?

Poepsel sieht darin die ungelöste Spannung im Zentrum der Debatte über kontinuierliches Feedback.

Die meisten Organisationen haben das Jahresgespräch nicht ersetzt. Sie haben kontinuierliches Feedback darüber gelegt und sprechen von Transformation", sagte er. "Die KI sollte menschliches Urteilsvermögen unterstützen, indem sie Muster sichtbar macht, Entwicklungslinien erkennt und Inkonsistenzen zwischen den Bewertungen der Führungskräfte aufdeckt. Die Entscheidung muss aber weiterhin der Mensch treffen. Wenn Organisationen etwas anderes suggerieren, beseitigen sie nicht Vorurteile – sie verschleiern Verantwortung.

Das oft zitierte Gallup-Ergebnis, dass Beschäftigte, die wöchentlich Feedback erhalten, 2,7-mal wahrscheinlicher engagiert sind, wird gerne als Begründung für kontinuierliches Feedback herangezogen. Aber Engagement allein löst das Vergütungsproblem nicht.

Die eigentliche Frage ist, ob kontinuierliche Daten tatsächlich zu besseren Beförderungs- und Gehaltsentscheidungen führen. Erste Belege aus Unternehmen, die die vollständige Umstellung vollzogen haben, sprechen dafür – mit einem Vorbehalt: Die Qualität der Daten hängt vollständig davon ab, ob Führungskräfte das System wirklich das ganze Jahr durchgehend genutzt haben.

In Organisationen mit uneinheitlicher Einführung ist der kontinuierliche Datenfluss tatsächlich schlechter als das alte System, da er eine Illusion von Gründlichkeit vermittelt, die auf unvollständigen Eingaben basiert.

Ein realistischer Zeitplan für die Migration

Basierend auf den oben dokumentierten Ausfallmustern und den Erfahrungen von Organisationen, die diese Migration durchlaufen haben, sieht die Sequenzierung ungefähr so aus.

Monate 1-3 sind die Prüfungsphase. Kartieren Sie Ihre Datenlandschaft. Beurteilen Sie die Bereitschaft der Führungskräfte. Dokumentieren Sie Ihre derzeitigen Eskalations- und Entscheidungsprozesse.

Diese Phase ist unspektakulär und führt zu keinen sichtbaren Ergebnissen, weshalb sie oft übersprungen wird. Organisationen, die sie überspringen, kehren in der Regel nach neun Monaten an diesen Punkt zurück – sie haben dabei sowohl ihre Glaubwürdigkeit als auch ihre erste Verlängerungsperiode verloren.

Monate 4-6 sind für das Redesign der Prozesse vorgesehen. Hier wird der Arbeitsablauf für Führungskräfte neu gestaltet. Wie sieht der wöchentliche Rhythmus aus? Welche Übergabeprotokolle gelten? Wie funktioniert die Kalibrierung? Wer sieht welche Daten?

Diese Fragen werden beantwortet, bevor irgendein Anbieter ausgewählt wird, denn die Antworten legen die Anforderungen fest.

Monate 7-9 sind die Pilotphase. Eine Gruppe von Führungskräften testet den neuen Prozess mit der ausgewählten Plattform. Ziel des Piloten ist es nicht, zu beweisen, dass das System funktioniert, sondern festzuhalten, wo es scheitert.

Jeder Fehler, jede Umgehungslösung und jede Unklarheit wird protokolliert. Implementierungen, die den Piloten zur Erfolgsgeschichte machen wollen statt zum Fehlerprotokoll, optimieren für das falsche Ergebnis.

Monate 10-12 sind für Anpassung und breitere Einführung vorgesehen. Die Protokolle werden auf Basis der Pilot-Erkenntnisse überarbeitet. Die Einführung wird ausgeweitet, wobei realistische Erwartungen an die Organisation gestellt werden.

Die meisten Implementierungen erreichen zum Ende des ersten Jahres 60-70 % der angestrebten Übernahmequote. Bis zur vollen Reife, bei der das System der primäre Mechanismus für Leistungsmanagement ist und nicht mehr nur Ergänzung zu den alten Prozessen, dauert es 18 bis 24 Monate.

Ehrliche Einschätzungen meiner Gesprächspartner zeigen: Die meisten Organisationen erreichen etwa 60 % des vorher erwarteten Nutzens aus dieser Migration. Das ist trotzdem lohnend, wenn das Messrahmenwerk an die Realität angepasst wird.

Der Zeitaufwand der Führungskräfte für Verwaltungsarbeit sinkt. Die Qualität des Feedbacks, gemessen an Präzision und Schnelligkeit, steigt. Die Klarheit für Mitarbeitende, wo sie stehen, verbessert sich. Aber nichts davon passiert in 90 Tagen – und gar nichts davon passiert nur durch das Hinzufügen eines Tools zu einem Prozess, der nicht dafür geschaffen wurde.

John-David Lovelock von Gartner sagte dieses Jahr, dass KI in Unternehmen meist von ihren bestehenden Softwareanbietern verkauft werde, und nicht als Teil eines neuen Projekts gekauft wird – weil zuerst die Berechenbarkeit des ROI steigen muss, bevor Organisationen auf transformationale Anwendungsfälle setzen.

Leistungsmanagement ist ein Prüfstein für diese These. Das Tool ist nicht die Transformation. Die Neugestaltung des Prozesses ist es. Das Tool macht den neuentworfenen Prozess skalierbar. Und die Organisationen, die dies immer noch als reine Beschaffungsentscheidung behandeln, bauen auf dieselbe Grundlage, die schon ein System ohne Glaubwürdigkeit hervorgebracht hat.