Skip to main content

Die meisten KI-Projekte scheitern nicht an schlechter Technologie. Sie scheitern daran, dass gute Technologie auf unvorbereitete Menschen trifft.

Im letzten Jahr sorgten MIT-Forschungen weltweit für Schlagzeilen, als herauskam, dass 95 % aller Pilotprojekte mit generativer KI keinen messbaren ROI liefern. Die hohe Fehlerquote hat nichts mit den Fähigkeiten der Modelle zu tun. Organisationen führen KI-Tools im Eiltempo ein – ohne Governance-Struktur, ohne Verantwortung für Schulungen, ohne klaren Zweck, der den Teams vermittelt wird. Innerhalb weniger Wochen brechen die Systeme zusammen, weil die Menschen nicht vorbereitet sind.

Menschen nutzen die Tools uneinheitlich, was zu extrem unterschiedlichen Ergebnissen führt. Die Qualität sinkt massiv. Mitarbeitende werden abhängig von Systemen, die sie nicht verstehen, und ihre Kernkompetenzen verkümmern. Unter dem Druck, Ergebnisse zu liefern, geben sie offizielle Tools ganz auf und greifen auf beliebige private KI-Anwendungen zurück, die ihnen leichter erscheinen.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Heute kennen wir das als Schatten-KI.

Die Kosten beschränken sich nicht nur auf vergeudete Entwicklungszeit. Es geht um Produktivitätsverluste, sinkende Ergebnisqualität, Compliance-Risiken und strategische Fehlleitungen.

Warum KI-Pilotprojekte scheitern

Führungskräfte betrachten die Einführung von KI als Technologiedepolyment, dabei ist sie in Wirklichkeit eine organisatorische Transformation.

Deployment ist eine technische Aufgabe. Sie benötigen die richtigen Daten für das gewählte Tool, klären Lizenzen und Zugänge und schalten das System frei.

Transformation ist eine menschliche Herausforderung. Sie betrifft Verhaltensweisen, Arbeitsweisen, persönliche Identitäten und Fähigkeiten. Die eigentliche Arbeit findet im Denken, Entscheiden und Zusammenarbeiten der Menschen statt, nicht im Tool selbst.

Ich halte es nicht für klug, generative KI als reine Technologie-Einführung zu betrachten. Es ist vielmehr eine Change-Management-Übung, weil es darum geht, Menschen dazu zu bringen, anders über ihre Arbeit nachzudenken und ihr Verhalten zu ändern. Und letztlich sollen diese Verhaltensweisen zu Gewohnheiten werden.

PMP – Podcast Guest – Glen Cathey-64375
Glen CatheyOpens new window

SVP of Talent Advisory at Randstad Enterprise

Wer die Transformationsarbeit überspringt, bekommt Chaos, getarnt als Innovation.

Der Druck, schnell zu handeln, ist real. Alle gehen davon aus, dass ihre Wettbewerber davonzuziehen drohen, also sparen sie sich die mühsame Arbeit an System- und Prozessdesign. Manche Unternehmen entscheiden sich bewusst für einen lockeren Umgang von oben, angetrieben vom Wunsch, Kosten zu sparen, Effizienz zu steigern oder als Vorreiter wahrgenommen zu werden.

Das Ergebnis? 42 % der Unternehmen stellten 2025 ihre KI-Initiativen ein – ein starker Anstieg gegenüber nur 17 % im Vorjahr.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Die drei Fähigkeitslücken, die den KI-ROI zerstören

Die Qualifikationslücke ist nicht ein einziges Problem. Es handelt sich um drei klar unterscheidbare Fähigkeitsdefizite, die sich zu organisatorischem Scheitern aufschaukeln.

1. Technisches Urteilsvermögen für Deployment-Entscheidungen

Ihr Team muss verstehen, wann das Tool sinnvoll eingesetzt werden sollte – und wann nicht. Das ist etwas anderes, als nur zu wissen, wie man es bedient.

Zu oft fehlt den Menschen das Urteilsvermögen, zu beurteilen, ob KI-Ergebnisse ausreichend gut, im Kontext passend oder überhaupt die richtige Frage beantworten. Sie können nicht unterscheiden zwischen „das Tool hat etwas erzeugt“ und „das Tool hat etwas Nützliches erzeugt“.

Das hat nichts mit SQL-Kenntnissen oder Versionierung zu tun. Es geht darum, das nötige Augenmaß für kluge KI-Einsatzentscheidungen im echten Arbeitsalltag zu entwickeln.

Taylor Blake, SVP of AI Labs bei Degreed, verweist auf eine grundlegende Diskrepanz.

„Der Unterschied zwischen einer KI-Demonstration und KI in der Praxis kann riesig sein. Und man weiß es einfach nicht, bevor man es selbst ausprobiert hat und die Probleme am eigenen Leib erlebt“, sagt er.

2. Qualitätsstandards und Bewertungsrahmen

Die meisten Organisationen zeigen den Menschen, wie das Tool funktioniert. Das reicht aber nur, um an der Oberfläche zu kratzen.

Was fehlt, ist die Fähigkeit, Ergebnisse an sinnvollen Standards zu messen. Ohne klare Qualitätsrahmen greifen viele zu: „Es hat etwas produziert, also verwende ich es.“

Die ROI-Lücke ist deshalb relevant, weil Ihr tatsächlicher Ertrag daraus resultiert, Menschen bei ihrer wertvollsten Arbeit besser zu machen, nicht aus der reinen Steigerung von Output. In einer Welt, in der jeder Zugang zu den gleichen Tools hat, macht es den Unterschied für Ihre Geschäftsergebnisse, wenn Sie eine Umgebung schaffen, in der Mitarbeiter KI strategisch einsetzen.

3. Kreative Anwendung und Problemlösung

Die meisten Schulungen scheitern an diesem Punkt völlig. Sie lehren Funktionen, anstatt kreative Problemlösung zu inspirieren.

Vielleicht hat jemand kein Problem damit, Marketing-Texte zu verfassen, wenn die kreative Richtung vorgegeben ist. Aber sobald es darum geht, Optionen zu analysieren und eine Richtung festzulegen, geraten sie ins Stocken. Genau darin liegt ihre größere Chance – hier kann KI ihren Arbeitsansatz grundlegend verändern.

Das Präsentieren verschiedener Funktionen, um zu kreativer Anwendung zu inspirieren, hilft Mitarbeitenden, ihre zeitintensivsten Herausforderungen anzugehen. Genau dort findet die eigentliche Transformation statt.

Die Identitätskrise, die Sie ignorieren

Persönliche Identität taucht in den meisten KI-Einführungsplänen nicht auf. Sie sollte es aber.

Wenn KI beginnt, Teile einer Rolle zu übernehmen, schafft das tiefe Unsicherheit und Angst. Menschen fürchten sich davor, was passiert, wenn sie sich nicht an Veränderungen in der Arbeitswelt anpassen. Diese Angst zeigt sich auf zwei zerstörerische Arten.

1.) Sie widersetzen sich oder sabotieren die KI-Initiativen des Unternehmens. Nicht offen, sondern durch passive Nicht-Nutzung, Umgehungslösungen und leises Untergraben offizieller Systeme.

2.) Sie wenden sich Tools zu, die sich leichter bedienen lassen – unabhängig davon, ob diese Tools wirklich dem Unternehmensinteresse dienen. So entsteht das "Shadow AI"-Problem: 90 % der Beschäftigten nutzen täglich persönliche KI-Tools wie ChatGPT für berufliche Aufgaben, während nur 40 % der Unternehmen offizielle LLM-Abonnements haben.

Die Zahlen zur Mitarbeiter-Unsicherheit sind erschütternd. 65 % der Beschäftigten sind besorgt, dass KI ihren Job ersetzt. Rund zwei Drittel sind beunruhigt, nicht zu wissen, wie man KI ethisch einsetzt. Diese Unsicherheit untergräbt die Einführung direkt: Bis zu 70 % aller KI-bezogenen Veränderungsinitiativen scheitern an Widerstand durch Mitarbeitende oder unzureichender Unterstützung durch das Management.

Justin Angsuwat, Chief People Officer bei Culture Amp, hat in der KI-Einführung seines Unternehmens für einen KI-Coach etwas Unerwartetes beobachtet.

Sometimes assuming that the senior or high performing folks would be the first to jump on and kind of master AI is an assumption that’s not always coming to fruition because I think unlearning how you’ve done things is actually pretty hard. If you’ve been doing the same thing for 20 years, part of your identity is wrapped up in how you get to that answer.

Justin Angswat, Chief People Officer at CultureAmp
Justin AngsuwatOpens new window

Chief People Officer at Culture Amp

Das Paradox ist hart: Menschen sind gleichzeitig besorgt, den Anschluss zu verlieren, und untergraben aktiv die Systeme, die ihnen eigentlich zum Erfolg verhelfen sollen.

Menschliche Arbeit zuerst erledigen

Für eine COO oder CHRO, der kurz davor steht, KI-Tools einzuführen, beginnt der Eingriff mit Kommunikation und Vertrauensaufbau.

Die Mitarbeitenden müssen verstehen, warum Sie es so machen, was sie dadurch gewinnen und wie diese Veränderung ihre Zukunft – im Unternehmen und beruflich – prägt.

Vielleicht überzeugen Sie nicht alle sofort. Aber Transparenz bildet die Grundlage für echte Akzeptanz.

Angsuwats Team konzentrierte sich darauf, zunächst Vertrauen aufzubauen, bevor die perfekte Umsetzung im Vordergrund stand.

„Unser Ziel war es, das Vertrauen der Mitarbeitenden im Umgang mit KI zu stärken, weil es ziemlich schwierig ist, einen Aha-Moment zu messen“, erklärt er. „Es ging absichtlich ums Lernen, ums Ausprobieren, einfach mal zu machen. Es sollte kein fertiges und perfektes Ergebnis herauskommen, das hat wirklich den Druck genommen.“

Das entscheidende Umdenken ist, dass Menschen die Zusammenarbeit mit KI als Chance begreifen, neue Kompetenzen zu entwickeln und ihren Kernbeitrag zu überdenken – nicht als Bedrohung ihrer aktuellen Rolle, sondern als Möglichkeit, sich zu etwas Wertvollerem weiterzuentwickeln.

Aber Training allein reicht nicht. Das musste Angsuwat auf die harte Tour lernen.

„Interessant war: Selbst als wir dieses sechswöchige Programm durchgeführt haben, sind manche mitgegangen, haben fleißig die kleinen Prompts bearbeitet, ihr Computergame gebaut – und dann, im normalen Alltag, waren sie plötzlich wieder verunsichert.“

Dazu bedarf es, dass die Führungskraft schwierige Aufgaben bereits vor dem Rollout löst – und nicht erst handelt, wenn Probleme entstehen.

Cathey betont, wie wichtig es ist, Raum für Experimente zu schaffen.

„Ich denke, es ist wirklich wichtig, dass Unternehmen erkennen, dass Menschen bei Veränderungen zunächst langsamer werden müssen, um anschließend schneller zu werden. Niemand wird innerhalb eines Tages vom Anfänger zum Profi. Es braucht einen Prozess, und Sie müssen Ihren Mitarbeitenden Raum und Zeit geben, um sicher und experimentierfreudig zu lernen.“

Der Governance-Blindpunkt

Wenn die Führungsebene Werkzeuge bereitstellt, ohne klare Zuständigkeiten, Verantwortlichkeitsstrukturen oder Einblick in Nutzungsmuster, entsteht ein regelrechtes Durcheinander.

Die meisten Unternehmen haben keine Nachverfolgung darüber, welche Arbeit tatsächlich mit der Technologie erledigt wird oder wie sie genutzt wird. Das ist ein Rezept für eine Governance-Krise.

Ohne einen AI-Governance-Rahmen sind Unternehmen von Reputationsschäden durch inkonsistente oder problematische Ergebnisse betroffen, verlieren das Vertrauen der Kunden bei nachlassender Qualität, erleiden finanzielle Verluste durch Fehlinvestitionen und Nachbesserungen und riskieren regulatorische Strafen bei Nichteinhaltung gesetzlicher Vorgaben.

Die operative Gefahr ist unmittelbar: Ohne klare Governance-Strukturen kann keine Verantwortlichkeit zugewiesen werden, wenn KI-Systeme versagen oder negative Folgen haben. Verantwortlichkeiten zu etablieren ist essenziell, um Probleme zu adressieren und Systeme langfristig zu verbessern.

Die Kompetenzlücke geht über individuelle Fähigkeiten hinaus. Es besteht die Notwendigkeit, unternehmensweite Systeme aufzubauen, die für Transparenz, Verantwortlichkeit und kontinuierliche Verbesserung sorgen.

Die 5,5-Billionen-Dollar-Frage

Über 90 % der globalen Unternehmen werden bis 2026 mit kritischen Kompetenzengpässen konfrontiert sein. Die prognostizierten Verluste durch anhaltende Kompetenzlücken: 5,5 Billionen Dollar an globaler Marktleistung.

Das mag theoretisch oder reißerisch klingen, aber laut World Economic Forum haben heute 94 % der Führungskräfte KI-kritische Kompetenzdefizite. Einer von drei berichtet von Lücken von 40 % oder mehr.

Der Wettbewerbsdruck ist real, doch der übereilte Einsatz ohne Aufbau von Kompetenzen verschärft das Problem. Organisationen, die externe Partnerschaften eingehen, erreichen Erfolgsquoten bei der Implementierung von 67 % im Vergleich zu 33 % bei interner Entwicklung. Die Haltung „wir bauen es selbst“, die bei traditioneller Software funktionierte, sabotiert den Erfolg bei KI bewusst.

Unterdessen melden 75 % der Unternehmen, dass sie sich dem Punkt der Veränderungssättigung nähern, ihn erreicht oder bereits überschritten haben. Der durchschnittliche Mitarbeitende erlebte in den letzten Jahren zehn geplante Veränderungen im Unternehmen, gegenüber nur zwei im Jahr 2016. Über die Hälfte der IT-Fachkräfte gibt an, die Einführung von KI in den letzten 24 Monaten beschleunigt zu haben.

Die menschlichen Kosten zu schnellen Handelns verschärfen die technischen Fehler zusätzlich.

Vier Schritte, damit Ihre Pilotprojekte nicht scheitern

Wenn Sie als COO oder CHRO demnächst KI einführen möchten, sollten Sie diese Schritte vor dem Start unternehmen. Es lohnt sich auch zu überlegen, wie Sie KI in Ihren Change-Management-Prozess integrieren können.

1. Definieren Sie die Transformation, nicht nur die Implementierung

Kartieren Sie, welche Arbeitsabläufe sich tatsächlich ändern werden. Ermitteln Sie, wessen Aufgaben betroffen sein werden und wie. Definieren Sie Erfolg über reine „Toolinstallation“ hinaus und legen Sie klare Zuständigkeiten für Schulung, Steuerung und laufende Unterstützung fest.

2. Bauen Sie die Kommunikationsinfrastruktur auf

Teilen Sie mit, warum Sie diesen konkreten Ansatz wählen. Erklären Sie, welchen beruflichen Nutzen Mitarbeitende haben und gehen Sie direkt auf Identitäts- und Ängste ein. Richten Sie Feedbackschleifen ein, um Probleme frühzeitig zu erkennen.

3. Die ersten 30 Tage: Systeme zum Kompetenzaufbau schaffen

Gehen Sie über reine „So funktioniert es“-Schulungen hinaus zu „So denken Sie mit dem System“. Helfen Sie den Mitarbeitenden, ihre wertvollsten Probleme zu identifizieren, und legen Sie Qualitätsstandards sowie Evaluierungsrahmen fest. Zeigen Sie kreative Anwendungsbeispiele auf, die zu strategischem Einsatz motivieren.

Geben Sie den Menschen die Erlaubnis, zu Beginn langsamer zu werden. Erkennen Sie, dass Verhaltensänderungen Zeit benötigen und Menschen einen geschützten Raum zum Ausprobieren brauchen, ohne Angst vor Produktivitätsverlusten.

4. Kontinuierlich: Governance und Transparenz aufbauen

Verfolgen Sie tatsächliche Nutzungsmuster und Ergebnisse. Bauen Sie Verantwortlichkeitsstrukturen für Qualität, Compliance und Überwachung von KI-Abweichungen auf. Entwickeln Sie Feedbackmechanismen zur Systemverbesserung. Gehen Sie Schatten-KI an, bevor sie zur Krise wird.

Kritische Realität: Nur 15 % der US-Mitarbeitenden berichten, dass ihr Unternehmen eine klare KI-Strategie kommuniziert hat. Wenn Ihr Team nicht erklären kann, warum Sie das machen und welchen Vorteil es bringt, sind Sie bereits im Rückstand.

Die Brücke, die Sie bauen müssen

Adoptionen scheitern, weil Organisationen Tools schneller einführen, als sie die menschliche Infrastruktur aufbauen, um diese effektiv zu steuern, umzusetzen und zu nutzen.

Die Fähigkeitslücke ist offensichtlich und die Kosten lassen sich messen, während der Wettbewerbsdruck weiter zunimmt. Die Lösung besteht jedoch nicht darin, die Einführung von KI zu verlangsamen. Vielmehr muss die Entwicklung menschlicher Kompetenzen parallel vorangetrieben werden. Das bedeutet, dies als die organisatorische Transformation zu behandeln, die es tatsächlich ist – und nicht als ein reines IT-Projekt mit einem festgelegten Go-Live-Termin.

Wenn Sie es richtig machen, verwandeln Sie KI in einen dauerhaften Wettbewerbsvorteil. Überspringen Sie die menschliche Arbeit, gehören Sie zu den 95 %, deren Pilotprojekte niemals eine Rendite erzielen.

Führungskräfte tun so, als müssten sie sich zwischen Geschwindigkeit und Bereitschaft entscheiden. In Wirklichkeit wählen sie zwischen nachhaltiger Transformation und teurem Scheitern.