Skip to main content
Key Takeaways

Unsichtbare KI: Mitarbeitende nutzen eigenständig Chatbots ohne Freigabe, wodurch sich ein inoffizieller KI-Stack in Organisationen bildet.

Gestaltungsbeschränkung: KI sollte Arbeitsstrukturen grundlegend verändern und nicht nur auf bestehende Prozesse aufgesetzt werden, um eine wirksame Einführung zu ermöglichen.

Herausforderungen bei der Einführung: Frühere IT-Kontrollmechanismen greifen nicht mehr, da KI-Tools durch vorhandene Vorkenntnisse kaum Schulung erfordern.

Technologie-Resistenz: Organisationen tun sich schwer mit der Einführung von KI und konzentrieren sich zu sehr auf Technologie statt auf die Neugestaltung von Arbeitsabläufen.

Dringlichkeit bei KI: Verschaffen Sie sich jetzt einen Überblick, wie Teams KI tatsächlich nutzen, um Einschränkungen zu erkennen, Geschäftsunterbrechungen zu vermeiden und Innovation zu fördern.

Führungskräfte in verschiedenen Branchen machen denselben Fehler bei der KI-Einführung.

Sie behandeln es wie eine Beschaffungsentscheidung. Diese Plattform kaufen. Jenen Agenten testen. Dieses Feature dem Stack hinzufügen.

Das Problem reicht tiefer als die Auswahl von Tools. Laut dem MIT-Bericht zum Stand von KI in Unternehmen 2025 nutzen Mitarbeitende in mehr als 90 % der Unternehmen persönliche Chatbot-Konten für tägliche Aufgaben, häufig ohne Zustimmung der IT, während nur 40 % der Unternehmen offizielle LLM-Abos besitzen. Ihre Mitarbeitenden haben das Fundament Ihres KI-Stacks bereits gebaut – nur eben ohne vorher zu fragen.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Dadurch entsteht eine kuriose Realität: Die Technologie, deren Einführung viele Führungskräfte noch planen, läuft längst im Unternehmen. Bis ein KI-Tool-Kommittee gegründet ist, haben Teams ihre Lieblingslösungen schon gefunden und in die tägliche Arbeit integriert.

Das Architektur-Problem

Wer KI als reine Beschaffungsentscheidung betrachtet, verpasst die Chance zur Neugestaltung.

Gabriela Mauch, Chief Customer Officer und Leiterin Produktivität bei ActivTrak, sieht dieses Muster immer wieder.

Teams können sich transformative KI-Anwendungsfälle vorstellen, stoßen jedoch auf organisatorische Infrastrukturen, die nicht für KI-gestützte Arbeit ausgelegt sind. Wenn die Führung nur die Toolnutzung misst, sieht sie diese unsichtbaren Decken nicht.

Das Ergebnis: KI wird einfach auf bestehende Organisationsstrukturen aufgesetzt, anstatt Arbeit grundlegend zu verändern. Fähigkeiten verkümmern statt sich weiterzuentwickeln.

Die Alternative verlangt, klare Verantwortungsbereiche für KI und für Menschen zu schaffen. KI sollte Analysen übernehmen, Berichte entwerfen, Routinearbeiten erledigen. Sie soll den Menschen informieren und Fragen stellen, die sie selbst nicht im Kontext versteht. Die letzte Entscheidung obliegt immer jemandem mit Verantwortung.

Verantwortlichkeit ist wichtig, weil KI ihren Job nicht verlieren kann. Im März 2024 lernte Air Canada diese Lektion, als eine Kundin klagte, nachdem der Chatbot der Fluglinie fehlerhafte Angaben zu Sondertarifen bei Trauerfällen gemacht hatte. Das Gericht entschied, dass Air Canada für die Fehler des Chatbots haftbar ist. Jeder Reputationsschaden für die KI war nur vorübergehend – das Unternehmen trug die rechtlichen Folgen.

Das ist die Design-Beschränkung, die in den meisten KI-Diskussionen ausgeblendet wird.

Warum erfahrene Führungskräfte stolpern

Führungskräfte, denen Cloud-Migration und ERP-Einführungen erfolgreich gelungen sind, begehen bei KI-Anwendungen Anfängerfehler. Drei Faktoren machen diese Welle anders.

  • Das Tempo ist beispiellos. Gartner prognostiziert, dass bis Ende 2026 40 % der Unternehmensanwendungen KI-Agenten eingebettet haben werden – gegenüber weniger als 5 % im Jahr 2025. Das ist eine Verachtfachung in nur einem Jahr. Kaum hat man eine Entwicklung verstanden, bringt die nächste schon radikal neue Möglichkeiten.
  • Die ethische Komponente ist komplex. Jede Einführung verlangt die Frage: Kann KI das so gut wie Menschen? Was würde es brauchen, um dahin zu gelangen? Sollten Menschen die Kontrolle behalten?
  • Das Einführungs-Muster ist umgekehrt. Frühere Unternehmenssoftware erforderte Schulungen, Zertifizierung, kontrollierte Einführung. KI-Tools erfordern kaum Spezialisierung, da sie von Menschen ohnehin genutzt werden.

Das ist die grundlegende Herausforderung. Bisher steuerte die IT den Rollout neuer Technologien. Nun läuft die Basis Ihres Stacks längst unbeobachtet und ist weitgehend unsichtbar.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Die Lücke zwischen Ankündigung und Nutzung

Ein häufiges Problem ist der Glaube, dass nach Verkündung einer neuen Strategie sofort alle wissen, wie sie anders arbeiten sollen.

„Das erleben wir oft bei KI“, sagt Iris Cremers, CHRO bei GoodHabitz. „Sobald die Unternehmensleitung sagt: ‚Wir setzen KI ein‘, wird angenommen, dass plötzlich alle klüger und effizienter arbeiten. Doch tatsächlich brauchen Menschen und Teams Zeit, klare Orientierung und praktische Lernmöglichkeiten.“

Ohne angemessene Unterstützung wirken neue Technologien komplex oder bedrohlich. GoodHabitz entwickelte darum ein unternehmensweites Trainingsprogramm mit ihrer Goodlearn KI-Lernplattform, um einen einfachen und sicheren Einstieg sowie Kompetenzaufbau zu ermöglichen.

„Dadurch konnten wir Ängste abbauen und sie durch Neugier und Begeisterung ersetzen, als wir diese neuen Werkzeuge in unseren Arbeitsalltag integriert haben“, sagte Cremers.

Sharon Steiner, CHRO bei Fiverr, bringt es anders auf den Punkt.

„Das größte Missverständnis ist, dass Führung KI oft als Technologie- oder Effizienzstrategie betrachtet, Teams sie jedoch als grundlegenden Wandel ihrer Arbeit erleben“, sagte sie. „Führungskräfte fragen: ‚Welche Tools sollen wir einführen?‘, während Mitarbeitende fragen: ‚Wie verändert das meine Rolle, meine Fähigkeiten und wie werde ich bewertet?‘“

Was sich auf Teamebene tatsächlich abspielt, ist Experimentieren. Menschen nutzen KI bereits, um schneller zu arbeiten, neue Fähigkeiten zu erlernen und Probleme in Echtzeit zu lösen.

Wenn Technologieentscheidungen die organisatorische Realität ignorieren

Mauch berichtete von einem Beispiel eines Kunden aus dem Finanzdienstleistungsbereich, der unternehmensweite KI mit den üblichen Technologieansätzen eingeführt hatte: Toolzugang, Schulungen, Use-Case-Bibliotheken und Multiplikatoren. Sechs Monate später stagnierte die Nutzung und der ROI blieb aus, obwohl 70 % aktive Nutzung verzeichnet wurde.

Das Unternehmen wollte KI einsetzen, um Kundenanfragen automatisch nach Komplexität zu sortieren und entsprechend weiterzuleiten, was eine echte Transformation der Arbeitsabläufe darstellen würde. Das war jedoch nicht möglich, weil:

  • Die IT die API-Arbeiten zum Zugriff auf Kundendatensysteme nicht priorisiert hatte
  • Genehmigungsabläufe durch Vorgesetzte nicht dahingehend geändert wurden, dass KI die Routing-Entscheidungen treffen darf
  • QA-Prozesse weiterhin nur für menschliche Arbeit ausgelegt waren
  • Die Teamkoordination sich weiterhin um individuelle Aufgabenverteilung drehte

„Das Management behandelte dies stets als ‚Change Management-Details, die man später noch lösen kann‘“, sagte Mauch. „Gleichzeitig wurde in weitere Technik wie fortschrittliche Modelle, zusätzliche Tools und mehr Integrationen investiert. Das eigentliche Hindernis war aber nicht technischer Natur.“

Mitarbeitende tauchten in Adoptionsmetriken als „aktive KI-Nutzer*innen“ auf, weil sie KI weiterhin für einfache Aufgaben verwendeten. Doch die hochrelevanten Anwendungsfälle, die tatsächlich den ROI vorantreiben würden, hatten sie aufgegeben.

Die langfristige Perspektive, die niemand einnimmt

Wenn ich von einer langfristigen Perspektive auf KI spreche, meine ich damit zwei konkrete Dinge.

Personelle Veränderungen

Eine Unternehmensberatung identifizierte ihre besten KI-Anwender – Berater, die das Dreifache des normalen Outputs erbrachten – und belohnte sie mit Beförderungen, Boni und Präsentationen vor dem gesamten Team. Klassische Talentförderung.

Drei Monate später war die KI-Nutzung in den Teams dieser Top-Leute tatsächlich zurückgegangen.

„Das Unternehmen belohnte individuelle Produktivitätszuwächse, sodass die Leistungsträger ihre KI-Techniken für sich behielten“, erklärte Mauch. „Warum Kollegen bei der KI-Nutzung unterstützen, wenn das nur mehr Konkurrenz um die nächste Beförderung schafft? Die Firma verpasste die Chance, KI-Mentoren zu etablieren.“

Daraufhin wurden Anreize auf Teamebene statt auf Einzelproduktivität umgestellt. Boni wurden daran geknüpft, Teammitgliedern beim Ausbau ihrer KI-Fähigkeiten zu helfen. Für Beförderungen musste belegt werden, dass man andere gecoacht hatte.

Mit dieser Änderung begannen die Top-Leute aktiv, ihr Wissen weiterzugeben, und die KI-Einführung in den Teams beschleunigte sich. Einzelne Stars sind wertvoll – aber nur, wenn ihr Wissen sich in der Organisation multipliziert und nicht als individueller Wettbewerbsvorteil eingeschlossen bleibt.

Organisatorische Weiterentwicklung

Führungskräfte lieben Fünfjahrespläne, aber wir haben keine Ahnung, wie die Welt am Ende dieses Jahres aussieht.

Bauen Sie Flexibilität in Ihre Planung ein. Die Entwicklung Ihres Talentprofils und wie Sie Ihre Beschäftigten weiterentwickeln, sorgt dafür, dass Sie flexibel bleiben. Das Gegenteil wäre, KI als zentralen Baustein Ihrer Strategie zu überbetonen, um dann festzustellen, dass Sie Menschen brauchen, damit es funktioniert – und plötzlich sind die benötigten Fähigkeiten am Arbeitsmarkt schwer zu finden.

Planen Sie zweijährig und schauen Sie, was passiert. Die Veränderungsgeschwindigkeit ist für längere Horizonte zu hoch.

Wie man baut, wenn das Fundament sich schon bewegt

Man muss kommunizieren.

„Hören Sie auf, Adoption als binär zu betrachten, und beginnen Sie damit, die tatsächlichen Auswirkungen zu untersuchen“, sagte Mauch. „Die meisten Organisationen haben jede Menge Grundnutzung, aber fast keine transformative Nutzung – und dort entsteht der eigentliche Mehrwert.“

Die meisten Führungskräfte verfolgen Logins, Anfragen und Lizenzzahlen, aber nicht Verhaltensveränderungen. Echter ROI entsteht, wenn KI Arbeitsabläufe umgestaltet – wofür es notwendig ist zu verstehen, ob die Technik tatsächlich das Arbeitsverhalten verändert hat, und nicht nur, ob der KI-Tool-Einsatz gestiegen ist.

Die Analystin, die KI nutzt, um Abschnitte eines Berichts zu entwerfen, hat ihren Workflow noch nicht transformiert. Die Analystin, die ihren gesamten Analyseprozess um KIs kontinuierliche Überwachung herum neugestaltet hat, allerdings schon.

Steiner legt Wert auf das Lern-Gespräch.

Fragen Sie Ihre Teams, wie sie KI heute nutzen, wo sie Fähigkeiten ausbauen möchten und welche Unterstützung sie für ihr Wachstum benötigen“, sagte sie. „Geben Sie den Menschen Raum, um zu experimentieren, weiterzulernen und Selbstvertrauen im Umgang mit diesen Werkzeugen zu gewinnen.

Während Sie noch Umstrukturierungsoptionen analysieren, versuchen einige Ihrer Mitarbeitenden bereits zu lernen. Sie eignen sich neue Fähigkeiten an, ohne zu wissen, ob es die richtigen sind. Sie können sie in die gewünschte Richtung lenken und ihnen helfen, Kompetenzen aufzubauen, die das Unternehmen benötigt.

So verstehen Sie nicht nur, welche Tools sie nutzen und wo sie echten Mehrwert schaffen, sondern auch, wie die Organisation ihre Aktivitäten besser unterstützen kann.

So bleiben Sie am Puls der Veränderungen und können das Thema Ethik kontrolliert steuern. Sie gewinnen Klarheit über die Richtung, anstatt sich von Hypes mitreißen zu lassen.

Und statt „Wir hängen hinterher, wir müssen das machen, um mitzuhalten“ arbeiten Sie nach dem Prinzip: „Hilft uns dieses neue, glänzende Ding wirklich, unsere Vision für die nächsten zwei Jahre zu verwirklichen?“

Der Wechsel vom Reagieren hin zum gezielten Handeln erfordert ein vollständiges Umdenken bei der Governance.

Governance als Ausrichtung, nicht Kontrolle

Wenn Sie entdecken, dass ein:e Mitarbeiter:in einen eigenen KI-Workflow erstellt hat, sehen Sie das als Zusammenarbeit.

„Behandeln Sie Schatten-KI als Marktforschung, nicht als Compliance-Problem“, sagte Mauch. „Ihre Mitarbeitenden, die nicht freigegebene Tools einsetzen, zeigen Ihnen, dass sie Lösungen für echte Probleme gefunden haben, die Ihre offiziellen Werkzeuge nicht abdecken.“

Poll: How is your org handling AI adoption?

How is your organization handling AI adoption?

Cremers und ihr Team bei GoodHabitz sind diesen Weg gegangen, nachdem sie festgestellt hatten, dass Mitarbeitende bereits externe KI-Tools nutzten.

Statt alles zu blockieren, haben wir uns für einen offeneren und unterstützenden Ansatz entschieden,“ sagte sie. „Wir luden alle ein, die bereits ein externes Tool nutzten, uns dieses mitzuteilen. Dann prüften wir, ob es sicher eingesetzt werden kann. Bestand es den Sicherheitstest, stellten wir es der gesamten Organisation zur Verfügung, damit alle davon profitieren können.

Das förderte Vertrauen, senkte Risiken und zeigte, dass das Ziel ist, den Mitarbeitenden intelligenteres Arbeiten zu ermöglichen – nicht sie zu kontrollieren. Und wie zu erwarten, hatten einige Mitarbeitende nützliche Tools entdeckt, von denen das Unternehmen noch nichts wusste.

„Goodlearn hat auch geholfen, indem es allen ein grundlegendes Verständnis für einen sicheren und verantwortungsvollen Umgang mit Informationen vermittelt hat – und wie sie erkennen, welche Tools vertrauenswürdig sind“, sagte Cremers.

Mauch empfiehlt einen dreistufigen Ansatz:

Verstehen, bevor Sie standardisieren

Stellen Sie fest, was tatsächlich genutzt wird und warum – nicht um zu bestrafen, sondern um daraus zu lernen. In einem Fall entdeckte ActivTrak, dass ein Produktteam ein nicht genehmigtes KI-Coding-Tool vier bis fünf Stunden täglich einsetzte.

Statt es abzuschalten, fragte die Leitung nach dem Warum. Das Team hatte spezifische Funktionen entdeckt, die dem „offiziellen“ Tool fehlten, und daraus eigenständig anspruchsvolle Workflows entwickelt, die niemand sonst erreicht hatte.

Risikolevel differenzieren

Nicht jede Schatten-KI birgt das gleiche Risiko. Die Analystin, die KI für Gliederungsentwürfe einer Präsentation nutzt, birgt ein anderes Risiko als jemand, der Kundendaten (PII) über ein nicht freigegebenes Tool verarbeitet. Legen Sie einfache Kriterien fest:

  • Welche Daten werden verarbeitet?
  • Welche Entscheidungen können aus den KI-Ergebnissen abgeleitet werden?
  • Wie ausgereift ist das Urteilsvermögen des Nutzenden bezüglich angemessener Nutzung?

Lassen Sie risikoarme, aber wertvolle Anwendungen weiterlaufen, während Sie angemessene Leitplanken aufbauen.

Governance gemeinsam mit den Anwender:innen gestalten

Beziehen Sie Nutzer:innen von Schatten-KI in die Ausarbeitung von Richtlinien ein. Sie verstehen die praktischen Abwägungen zwischen Sicherheit und Nutzen besser als jede Führungskraft. Fragen Sie beispielsweise:

  • Was würde Ihnen fehlen, wenn wir das Tool sperren würden?
  • Welche Bedenken haben Sie?
  • Welche Kontrollmechanismen würden Sie vorschlagen?

Dadurch entstehen Lösungen wie abgeschirmte Umgebungen (Sandboxes), in denen Teams nicht genehmigte Tools mit synthetischen Daten erproben können, bevor sie für die Produktion freigegeben werden.

Die Realität ist: KI ist längst Teil unserer Arbeitswelt. Wer das unterbinden will, bringt das Unternehmen ins Hintertreffen statt in Kontrolle“, sagte Steiner. „Governance bleibt wichtig, aber in einer KI-geprägten Umgebung muss sie den Fortschritt ermöglichen – nicht ausbremsen.

Damit diese Prozesse funktionieren, müssen sie in bestehende Systeme eingebettet werden. Kann es ein Formular im internen Dokumentationszentrum sein? Können berechtigte Prüfende in Slack innerhalb eines definierten Zeitraums Ideen absegnen? Wird die Freigabe Teil des bestehenden Workflows, sinkt die Hürde und es fällt leichter, Ideen auf Klarheit, Zielbezug und Geschäftserfolg zu prüfen.

Sie müssen Transparenz von experimentierfreudigen Mitarbeitenden belohnen. Wenn jemand etwas teilt, was keine gute Anwendungsweise der Technologie ist, darf daraus keine Strafe resultieren.

Wie "zu spät" tatsächlich aussieht

Sie haben keine Zeit zu verlieren.

„Zu spät“ bedeutet, Funktionen erst zu veröffentlichen, nachdem Ihre Wettbewerber sie schon vor sechs Monaten eingeführt haben. Es bedeutet, dass Ihre besten Leute frustriert sind und einen Wechsel in Betracht ziehen. Es bedeutet, dass Führungskräfte sich wie überforderte Vermittler:innen zwischen Strategie und Umsetzung fühlen.

Vor allem aber bedeutet es, dass Sie KI nicht als Lösung für echte Probleme im Unternehmen einsetzen können.

Manche Unternehmen erleben genau das schon. Deshalb setzen sie auf Entlassungen und kurzfristige Gewinne. Sie haben keine klare Vision für den langfristigen Erfolg und bauen das Geschäft ab, während sie noch nach Lösungen suchen.

Eine Untersuchung von Reco AI ergab, dass zwei Shadow-AI-Tools eine mittlere Nutzungsdauer von 403 bzw. 401 Tagen aufwiesen. Das ist deutlich über ein Jahr kontinuierlicher Nutzung ohne formale Genehmigung oder Aufsicht. Nach 100 Tagen ständiger Nutzung ist ein KI-Tool kein Test mehr. Es ist fest in die zentralen Geschäftsprozesse eingebettet. Es zu entfernen, ist nicht nur eine IT-Aufgabe, sondern birgt das Potenzial, die Geschäftstätigkeit zu stören.

Das ist es, was zu spät aussieht: Die Unfähigkeit, etwas zu regeln, das bereits etabliert ist.

Der erste Schritt

Steiner hat einen klaren Rat für Führungskräfte, die sich im Rückstand fühlen.

„Die wirkliche Frage ist nicht, ob man anfangen sollte, KI zu nutzen, sondern wann und wie, und die Antwort lautet: jetzt und mit Experimentierfreude“, sagte sie. „Dies ist kein Moment, um abzuwarten und zu beobachten. KI verändert sehr schnell, wie Arbeit geschieht.“

Fangen Sie das Gespräch darüber an, wie Ihre Teams mit KI arbeiten. Welche Tools sie verwenden. Wo sie einen Mehrwert erkennen. Was sie sich wünschen, aber aktuell nicht umsetzen können.

Eine ebenso einfache Frage wie „Was würden Sie mit KI tun, wenn es keine organisatorischen Einschränkungen gäbe?“ kann unsichtbare Hürden aufdecken.

„Wir sehen immer wieder Menschen, die sich transformative Einsatzmöglichkeiten vorstellen, aber durch Datenzugang, Genehmigungsprozesse oder durch für Anfänger-Risiken konzipierte Governance-Richtlinien blockiert werden“, sagte Mauch.

Dieses Gespräch offenbart, wo Ihre unsichtbare Grundlage bereits existiert. Es zeigt Ihnen, welche Experimente skalierbar sind und welche eine Neuausrichtung benötigen. Es hilft Ihnen zu erkennen, ob Sie auf solidem Fundament oder auf technischem Schuldenberg bauen.