Erfolgsquote von KI: Nur 5 Prozent aller KI-Initiativen erreichen die gewünschten Geschäftsergebnisse, was auf systemische Probleme hinweist.
Organisatorische Bereitschaft: Das Scheitern von KI-Projekten liegt oft daran, dass Organisationen nicht auf den Wandel vorbereitet sind.
Problemdiagnose: Unternehmen identifizieren das eigentliche Problem häufig falsch und setzen dadurch KI falsch ein.
Einbindung der Stakeholder: Die frühzeitige Einbindung von Stakeholdern kann Widerstände verhindern und die Akzeptanz von KI-Tools erhöhen.
Governance-Kompetenz: Das Verständnis für verantwortungsbewusste KI-Nutzung ist für Entscheidungsträger ohne technischen Hintergrund entscheidend.
Sie haben es inzwischen sicher schon gehört. Gartner schätzt, dass nur 5 % der KI-Initiativen die versprochenen Geschäftsergebnisse liefern.
Diese Zahl wird oft genannt, wenn über KI gesprochen wird – entweder als Anklage gegen die Technologie oder als Beweis für unsere begrenzte Fähigkeit, sie effektiv einzusetzen.
Beverly Wright beobachtet dieses Muster schon länger, als die meisten der heutigen KI-Anbieter existieren. Sie begann Anfang der 1990er Jahre in den Entscheidungswissenschaften, als es im Land drei Studiengänge und vielleicht 20 Absolventen pro Jahr gab.
„Wir hatten ein ähnliches Problem“, sagte sie letzte Woche bei der Optimized AI Conference in Atlanta. „Aber jetzt ist das Problem im großen Maßstab und mit Automatisierung. Es ist ein noch größeres Problem.“
Wright verbrachte Jahrzehnte in Data-Science-Positionen bei Southern Company und Cox Communications, bevor sie in die Executive Education an der Georgia State University wechselte. Ihre Diagnose, warum KI-Investitionen immer wieder scheitern, widerspricht dem, was die meisten Technologieanbieter hören wollen: Das Problem ist organisatorisch.
Tut mir leid, Anbieter. Das ist nicht euer Problem, das ihr lösen müsst.
Das eigentliche Problem ist selten das, mit dem Sie angefangen haben
Wright eröffnete ihre Session mit einer Geschichte über Aufzüge. Vor langer Zeit gab es in Gebäuden häufig Beschwerden, dass die Aufzüge zu langsam seien. Die offensichtliche Lösung schien, schnellere Aufzüge einzubauen. Doch das eigentliche Problem war nicht die Geschwindigkeit. Es war Langeweile. Wer gezwungen ist, still zu warten oder noch schlimmer, mit Fremden, dessen Langeweile lässt die Wartezeit unnötig lang erscheinen.
Wie wurde das Problem gelöst? Mit Spiegeln. Das war alles. Keine Ingenieurskunst nötig.
Diese Lücke zwischen dem offensichtlichen und dem wahren Problem ist genau der Punkt, an dem die meisten KI-Initiativen scheitern. Unternehmen definieren eine geschäftliche Herausforderung, reichen sie an ein Datenteam weiter und erwarten, dass das Modell die Diagnose übernimmt. Das klappt aber nicht.
„Das tatsächliche Problem zu finden, ist viel schwieriger, als wir denken“, sagte Wright.
Auf KI zu setzen, noch bevor klar ist, welche Entscheidung damit unterstützt werden soll, ist aus ihrer Sicht der erste von drei Gründen, warum 95 % aller Initiativen scheitern.
Der zweite Grund ist Nachvollziehbarkeit. Wenn ein Taschenrechner eine Lösung ausgibt, kann man sie noch selbst plausibilisieren. Man schätzt die ungefähre Dimension dessen, was man fragte. KI-Systeme, die auf neuronalen Netzen basieren, erlauben diese Art der intuitiven Prüfung nicht mehr.
Das ist überall relevant, aber besonders in regulierten Branchen, in denen eine menschliche Kontrolle gesetzlich vorgeschrieben ist. Wie Wright beobachtet, wird diese Anforderung in der Praxis erfüllt, indem KI zur Bewertung von KI eingesetzt wird. Der Mensch in der Schleife versteht aber meist nicht gut genug, was das Modell tut, um Fehler zu erkennen.
Die dritte Fehlerquelle ist die, die niemand eingestehen will: Die Organisation war schlicht nicht bereit.
Wright unterscheidet zwischen technologischer Befähigung und kultureller Befähigung und stellt fest, dass Unternehmen diese als aufeinanderfolgend statt parallel behandeln. Sie bauen zunächst etwas und fragen dann, ob die Menschen bereit sind, es auch zu nutzen. Zu diesem Zeitpunkt lautet die Antwort meist nein, und die Investition verstaubt im Regal.
Als Vergleich zieht sie Tornados heran: Nur etwa 0,1 % richten tatsächlich großen Schaden an, aber die Angst vor diesem kleinen Bruchteil prägt, wie alle darauf reagieren. Widerstand gegen Veränderung funktioniert ähnlich. Das wahrgenommene Risiko, etwas Neues zu übernehmen, erscheint größer als das real bewiesene Risiko, beim Alten zu bleiben – auch wenn die Zahlen genau umgekehrt liegen.
Es entsteht meist mehr Schaden durch Nichtstun. Sie glauben, sie meiden Risiken, aber das höhere Risiko besteht im Nichts-Tun.
Es sollte niemals ein „Ta-Da“ geben
Wenn Wright darüber spricht, was wirklich funktioniert, gibt es keine Kommentare zum Technologie-Investment. Sie schildert stattdessen, wie Organisationen das Verhältnis zwischen Erkenntnis und Handeln neu aufbauen.
Beginnen Sie mit der Entscheidung, nicht mit dem Tool
Wright spricht ganz offen über den Vorstandsdruck, bei dem Unternehmen KI-Initiativen ankündigen, um den Aktienkurs zu bewegen, und dann genau diese Ankündigung zum Ziel wird.
Das ist der falsche Grund, ein KI-Projekt zu starten, sagte sie. „Man muss eine echte Strategie entwickeln, die sagt: So werden wir Probleme lösen – und möglicherweise setzen wir dafür KI ein oder eben auch nicht.“
Treffen Sie das Unternehmen dort, wo es steht
Dies widerspricht dem Wunschdenken, das viele Diskussionen über digitale Transformation dominiert. Organisationen entwerfen eine Roadmap für einen zukünftigen Zustand und versuchen dann, die aktuellen Abläufe daran anzupassen.
Wrights Argumentation geht in die entgegengesetzte Richtung: Verstehen Sie, was tatsächlich vorhanden ist, und bauen Sie KI-Lösungen, die dieser Realität zugutekommen.
Beziehen Sie Interessengruppen von Anfang an ein
„Es sollte keinen Ta-da-Moment geben“, sagte sie. Das Modell, bei dem ein Datenteam isoliert arbeitet und am Ende ein fertiges Produkt präsentiert, ist ein sicherer Weg zur Ablehnung.
Wenn ein Tool bei den Menschen ankommt, die es nutzen sollen, hatten sie keinen Einfluss auf dessen Gestaltung. Widerstand ist nicht irrational. Er ist das vorhersehbare Ergebnis von Ausgrenzung.
Das Governance-Problem
Wright unterscheidet zwischen zwei Arten von KI-Anwendern, die es heute in den meisten Organisationen gibt: diejenigen, die aus dem Bereich Daten und Analytik kommen und durch ihre technische Kompetenz bei KI gelandet sind; und diejenigen, die aus operativen oder funktionalen Bereichen stammen, oftmals ohne das Fundament, um zu erkennen, wenn etwas nicht stimmt. Die Entwicklung einer KI-Readiness-Strategie erfordert das Verständnis für diese verschiedenen Anwendergruppen.
Diese Lücke ist ein Governance-Problem und sie liegt bei den Menschen, die das Geschäft führen, nicht beim Datenteam. Wenn diejenigen, die KI-Ergebnisse überprüfen sollen, nicht verstehen, was sie prüfen, ist die Prüfung reine Show. Und Show, wiederholt über genug Initiativen, erklärt, wie es zu einer Erfolgsquote von 5 % kommt.
Die Lösung, die Wright empfiehlt, ist Kompetenz, nicht Vertiefung. Führungskräfte im operativen Bereich müssen keine neuronalen Netze verstehen. Sie müssen wissen, wie verantwortungsvoller Einsatz aussieht, wo die Leitplanken liegen und warum es diese Leitplanken gibt.
„Es macht es tatsächlich unmöglich, Dinge zu vermasseln“, sagte sie und beschrieb, wie dieser Ansatz bei nicht-technischen Zielgruppen ankommt. „Und das gilt für uns alle."
Die meisten Organisationen haben ein Jahrzehnt damit verbracht, eine Dateninfrastruktur aufzubauen. Die Kluft zwischen dieser Investition und den tatsächlichen Geschäftsentscheidungen ist organisatorisch – und kein Plattform-Upgrade kann sie schließen.
