Skip to main content
Key Takeaways

Kompetenzlücke: Organisationen scheitern nicht an der technischen Fähigkeit, sondern daran, die richtigen Menschen in Entscheidungspositionen zu bringen.

Beteiligung beim Design: Es ist entscheidend, die richtigen operativen Mitarbeiter als Kernteam bei der Entwicklung von Agenten einzubeziehen.

Sich potenzierende Probleme: Kleine Kontextfehler von KI-Agenten summieren sich über die Zeit und beeinträchtigen Kundenzufriedenheit und Vertrauen.

Vorteil der Kleinen: Kleinere Unternehmen können agentische KI mit weniger Komplexität und Aufwand einführen als große Unternehmen.

Infrastruktur-Bedarf: Eine erfolgreiche KI-Einführung braucht mehr als nur Technologie; sie erfordert organisatorische Fähigkeiten und hochwertige Daten.

Wenn Organisationen agentische KI einführen, steht die Technologie im Mittelpunkt. Sie sprechen über Agenten, Orchestrierungsschichten und Multi-Modell-Architekturen.

Worüber sie selten sprechen: die Menschen – und was passiert, wenn Dinge auf eine Weise schiefgehen, die niemand vorhergesehen hat?

Das Problem ist nicht technischer Natur, aber vielen Führungskräften wird das erst klar, wenn sie schon mitten in der Implementierung stecken und zusehen, wie die Kundenzufriedenheit sinkt und Qualitätskennzahlen nachlassen.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Die Kompetenzlücke bei agentischer KI

Fragen Sie die meisten Führungskräfte nach ihrer Bereitschaft für agentische KI, sprechen sie über ihre KI-Ingenieure und Data Scientists. Sie erläutern ihre Cloud-Infrastruktur und den Auswahlprozess für Modelle.

Weniger wird hinterfragt, ob sie den Menschen, die tatsächlich verstehen, wie Agenten das Geschäft beeinflussen, auch die nötige Befähigung geben.

Hier liegt die wahre Kompetenzlücke. Nicht die technische Fähigkeit, sondern der organisationale Einfluss.

Die Frage ist nicht: „Haben wir KI-Ingenieure?“ Die Frage ist: „Haben wir die richtigen Personen, die Entscheidungen treffen?“

In den meisten Organisationen lautet die Antwort nein.

Nur 14 % der Organisationen haben agentische Lösungen einsatzbereit, obwohl 30 % Möglichkeiten prüfen und 38 % Pilotprojekte durchführen.

Agenten-Design im luftleeren Raum

Was passiert, wenn technische Teams Agenten ohne Input von denen entwerfen, die die eigentliche Arbeit verrichten? Sie vereinfachen zu sehr.

Ein Prozess, der auf einem Flussdiagramm klar erscheint, enthält unsichtbare Schichten von Urteilsvermögen. Die Servicekraft, die weiß, wann eine Regel angepasst werden muss. Die Betriebsleiterin, die einschätzen kann, welche Ausnahmen wirklich zählen. Die Analystin, die aus unvollständigen Daten die richtigen Schlüsse zieht.

Diese Entscheidungen basieren auf Gefühl und Erfahrung. Sie wirken wie einfaches „Wenn-dann“-Denken in einem Entscheidungsbaum.

Aber die Menschen in diesen Rollen verstehen etwas, das Agenten schwer nachahmen können: Kontext.

Sie wissen, dass eine Regel zwar meistens gilt, es aber Ausnahmen gibt. Situationen, in denen man anders handeln muss.

Francisco Marin, Mitgründer von Cognitive Talent Solutions, beschreibt die Herausforderung, vor der sein Team beim Aufbau von HR-Agenten stand:

We observed that there were some agentic capabilities deployed for core HR processes like payroll or regulatory compliance. But we were missing that generation of use cases that affect people analytics, and especially those that were aligned with the network framework.

PMP – Podcast Guest – Francisco Marin-31423
Francisco MarinOpens new window

Co-founder of Cognitive Talent Solutions

Sein Team baute nicht nur technische Lösungen. Sie schufen Systeme, die widerspiegeln, wie Arbeit tatsächlich abläuft – nicht, wie sie auf dem Organigramm aussieht.

Wenn Sie Agenten entwickeln, ohne zunächst implizites Wissen offenzulegen, bekommen Sie keine sofortigen Fehler. Es entstehen Probleme mit „Zeitverzögerung“.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Join the People Managing People community for access to exclusive content, practical templates, member-only events, and weekly leadership insights—it’s free to join.

Name*

Kumulierte Qualitätsprobleme

Der Agent trifft eine Entscheidung, die technisch korrekt, aber im Kontext falsch ist. Für sich genommen ist das noch nicht schlimm.

Aber mit der Zeit summieren sich solche kleinen Qualitätsverluste.

Sie merken es erst, wenn die Kundenzufriedenheitsbefragungen eintreffen. Wenn Sie ein Muster in den Daten erkennen. Wenn der Schaden bereits in Ihrem System verbreitet ist.

Dann geht es nicht mehr nur um die Korrektur eines Agenten. Es geht um den Wiederaufbau von Vertrauen.

95 % der generativen KI-Pilotprojekte liefern keinen messbaren ROI. Die Ursache sind nicht fehlerhafte Modelle. Schlechte Integration und Zielkonflikte führen zum Scheitern dieser Initiativen.

Übersetzt: Organisationen beziehen die richtigen Menschen nicht in das Design ein.

Wer tatsächlich mitentscheiden muss

Die Person, deren Rolle automatisiert werden soll, muss dabei sein.

Nicht als Berater. Nicht als Nachgedanke. Sondern als zentraler Bestandteil des Designteams.

Sie muss helfen, den Agenten zu steuern. Ihre Erfahrung teilen. Das Wissen über Ausnahmen sichtbar machen, das in keiner Dokumentation steht.

Dan George, der zuvor als CHRO tätig war, bevor er Cognitive Talent Solutions mitgründete, erklärt die Tragweite.

Ich habe diesen Prozess in der Vergangenheit manuell durchgeführt. Als ehemaliger CHRO war ich bei verschiedenen Organisationen für People Analytics verantwortlich. Ich musste Listen erstellen und sie an Personalentwicklungs- oder andere Talent-Engagement-Teams weiterleiten.

Dan George Headshot small
Dan GeorgeOpens new window

Chief Experience Officer bei Cognitive Talent Solutions

Seine Erfahrungen beim Aufbau von Agenten haben ihm gezeigt, dass Automatisierung ohne gelebte Erfahrung zu Systemen führt, die zwar funktional wirken, aber in der Praxis scheitern.

„Wenn es einen automatisierten, autorisierten Ort gibt, an den ein Administrator einfach gehen und nur klicken, klicken, klicken kann, erleichtert das den Prozess enorm und hilft uns, aus der Routine herauszukommen, immer wieder die gleichen klassischen Mentoren und Mentees auszuwählen.“

Um dorthin zu gelangen, mussten jedoch die Menschen eingebunden werden, die die Feinheiten des Mentorings wirklich verstanden – nicht nur die technischen Anforderungen der Datenverarbeitung.

Lisa Jones, Geschäftsführerin von EyeMail, hat eine ähnliche Lektion beim Einsatz von KI in ihrem Unternehmen gelernt. „Wir haben jede Abteilung gefragt: Wo spürt ihr Reibung oder Wiederholung? Wo könnte KI euch helfen, Kreativität oder Klarheit zu fördern? Womit würdet ihr gern mehr Zeit verbringen, wenn KI den Rest übernimmt?“

Dieser Ansatz hat branchenübergreifend von Marketing bis Betriebsideen ausgelöst und jedem Team die Verantwortung und Gestaltung überlassen, wie KI im Arbeitsalltag zum Einsatz kommt.

Die beste Möglichkeit, Erfahrungswissen einzubinden, ist direkte Beteiligung. Und diese Beteiligung muss zwei Dinge vereinen, die in den meisten Organisationen getrennt sind: Qualifizierung und angemessene Vergütung.

Agenten-Design und Personalentwicklung lassen sich nicht voneinander trennen

Die meisten Unternehmen behandeln dies als separate Initiativen. Agenten-Design passiert in der IT. Upskilling in HR. Vergütung gibt es im Jahresgespräch.

Diese Fragmentierung verhindert die Akzeptanz.

Man muss all das bündeln, um die Leistungsfähigkeit aufrechtzuerhalten. Agenten-Design ist eine neue Kompetenz. Zu verstehen, wie Agenten die eigene Produktivität und Wirkung steigern, ist wichtiger, als sie selbst programmieren zu können.

Wenn man diese Aspekte nicht zusammenführt, gibt es meist zwei Ergebnisse.

  • KI-Sabotage – Zynische Beteiligung untergräbt die Initiative. Menschen wissen, dass das System scheitert, und sorgen stillschweigend dafür.
  • Rufschädigung – Es spricht sich herum, dass Wissen abgegriffen wird, ohne in Mitarbeitende zu investieren. Die Arbeitgebermarke nimmt Schaden, den man nicht leicht reparieren kann.

Jones beschreibt, wie EyeMail diese Falle vermieden hat.

Wir haben keine offiziellen Schulungshandbücher verteilt. Stattdessen haben wir AI Curiosity Circles geschaffen – wöchentliche Sitzungen, in denen Teammitglieder Entdeckungen teilten, Prompts austesteten und emotionale Wirkung untersuchten. Das waren keine reinen Technik-Trainings, sondern Storytelling-Labore.

Lisa Jones image
Lisa Jones Opens new window

Geschäftsführerin von EyeMail

Während KI repetitive Aufgaben übernimmt, vertiefte sich das Team von Jones noch stärker in Storytelling, Innovation und Kundeneinfühlungsvermögen.

„Neugier wurde zu einem Kernwert“, sagte sie. „Die Teammitglieder fühlten sich engagierter, wertgeschätzter und inspiriert zu experimentieren.“

Man muss alles miteinander verknüpfen, damit es für die Menschen als Investition in sie wahrnehmbar wird – nicht als Ersatz für sie.

Warum kleinere Organisationen im Vorteil sind

Große Unternehmen haben bereits umfangreich mit RPA und prädiktiver KI automatisiert. Sie haben komplexe Systeme mit mehreren Genehmigungsebenen, Compliance-Anforderungen und rechtlichen Vorgaben aufgebaut.

Agentische Architekturen in diese Komplexität einzufügen, erhöht exponentiell die Ausfallrisiken.

Kleine Teams haben Vorteile, wenn es um KI-Implementierung geht. Es gibt weniger Prozesse, weniger Entscheider, weniger Compliance-Hürden.

Die beste agentische Architektur ist nicht übertrieben komplex. Je schlanker sie ist, desto weniger kann kaputtgehen.

Agenten arbeiten am effektivsten, wenn sie mit klaren Grenzen und minimalen Abhängigkeiten operieren können. Wenn sie Entscheidungen treffen können, ohne sich durch komplexe Genehmigungsprozesse kämpfen zu müssen. Wenn sie auf Daten zugreifen können, ohne fünfzehn verschiedene Systeme abgleichen zu müssen.

Kleinere Organisationen haben dies standardmäßig. Großunternehmen müssen es gezielt aufbauen.

Fast die Hälfte der Unternehmen nennt die Durchsuchbarkeit von Daten (48 %) und die Wiederverwendbarkeit von Daten (47 %) als Herausforderungen für ihre KI-Automatisierungsstrategie. Ihre Daten sind nicht dafür aufbereitet, von Agenten genutzt zu werden, die Geschäftskontext benötigen.

Die Kluft zwischen CEO und CISO

CEOs sind optimistisch. 67,1 % glauben, dass KI-Tools ihnen helfen werden, bessere Entscheidungen in der Cybersicherheit zu treffen. 60,2 % denken, ihr Unternehmen sei besser aufgestellt als die Konkurrenz, um auf KI-Bedrohungen zu reagieren.

CISOs sind vorsichtig. Nur 58,6 % teilen dieses Vertrauen. Lediglich 19,5 % glauben, dass KI die Cyberabwehr stärken wird – bei den CEOs sind es hingegen 29,7 %.

Diese Lücke sagt alles über die organisatorische Bereitschaft aus.

Diejenigen, die für Sicherheit, Compliance und operationelle Risiken verantwortlich sind, sehen Probleme, die dem C-Level oft verborgen bleiben. Sie wissen, dass Agenten neue Angriffsflächen eröffnen. Dass Multi-Agenten-Systeme schwer zu debuggen sind und Governance-Modelle für autonome Entscheidungen im großen Stil noch nicht existieren.

Nur 14 % der CISOs fühlen sich vollständig darauf vorbereitet, KI in die Cybersicherheits-Operationen zu integrieren. Über 50 % geben mangelnde Unterstützung durch CIOs und CEOs als größte Herausforderung an.

Ob Ihre Organisation sich wirklich darüber im Klaren ist, was bei der Implementierung tatsächlich nötig ist, zeigt sich zuerst genau hier.

Was die Kluft tatsächlich bedeutet

Wenn Ihr CEO optimistisch und Ihr CISO besorgt ist, haben Sie ein strategisches Problem bezüglich der Verantwortung für KI.

Die Geschäftsseite sieht Chancen. Die operative Seite sieht Risiken. Und niemand hat bislang die Brücke zwischen beiden gebaut.

Dies zeigt sich in Entscheidungen zum Rollout, Ressourcenzuteilung und dabei, wie Geschwindigkeit gegenüber Sicherheit priorisiert wird.

Marin und George haben diese Brücke in ihren Agenten-Design-Prozess eingebaut. Als ich nach Einwilligung und Transparenz bei ihren HR-Agenten fragte, erklärte George:

„Wir müssen bei allem, was wir mit agentischer KI tun, das richtige Maß an Einwilligung und ethischer Nutzung dieser automatischen Prozesse sicherstellen.“

Marin ergänzte: „Wir haben mit dem Team regelmäßig darüber diskutiert, welche Feinheiten jeder Anwendungsfall mit sich bringt. Beim Talentbindungs-Agenten zum Beispiel haben wir darüber gesprochen, ob es sinnvoller ist, diese Erkenntnisse auf aggregierter Ebene bereitzustellen oder auf individueller Ebene und dann die direkte Führungskraft zu benachrichtigen.“

In den meisten Organisationen wird diese Brücke von der Führungsebene gebaut, aber es sind nicht CEO und CISO an der Spitze. Vielmehr ist es die Partnerschaft zwischen CHRO (Menschen und Prozesse) und CIO (Datenqualität und Best Practices), die es ermöglicht, Chancen auf risikominimierte Weise zu realisieren.

Organisationen, die diese Lücke frühzeitig schließen, sind schneller. Sie bauen Governance-Rahmenwerke, bevor sie sie benötigen. Sie investieren in Beobachtbarkeit und Monitoring und schaffen klare Eskalationswege, falls Agenten Entscheidungen außerhalb ihrer Grenzen treffen.

Die agentische KI-Infrastruktur

Agenten benötigen mehr als nur APIs und Datenpipelines. Sie brauchen eine Infrastruktur, die die meisten Organisationen nicht haben.

Identitäts- und Berechtigungsverwaltung, die für mehrere Agenten funktioniert. Tool-Kataloge, mit denen Agenten Fähigkeiten entdecken können, ohne Integrationen fest zu programmieren. Richtlinienkontrolle, die unabhängig davon greift, welcher Agent eine Entscheidung trifft.

Und Beobachtbarkeit, durch die sich Probleme erkennen lassen, wenn mehrere Agenten auf unerwartete Weise interagieren.

Dies ist auch kein vorübergehendes Problem – 65 % der Führungskräfte nennen die Komplexität agentischer Systeme zwei Quartale in Folge als das größte Hindernis.

Es ist wichtig, sich klarzumachen, dass Infrastruktur nicht nur Technologie bedeutet, sondern auch organisatorische Fähigkeiten.

Jones hat dies beim Aufbau agentischer Workflows bei EyeMail gelernt. Ihr Team nutzt Miro AI, um Kundenreisen zu visualisieren, emotionale Kontaktpunkte und Reibungsverluste zu identifizieren. Mit HubSpot AI gewinnen sie Verhaltens-Insights und können Segmentierungen vornehmen, um Onboarding-Prozesse und Nurture-Sequenzen zu personalisieren.

„Wir haben die Onboarding-Abschlussrate um 40 % gesteigert. Flexible, modulare Journey-Designs für Pharma-, Tech- und Automobilkunden ermöglicht. Storytelling-Frameworks entwickelt, die Kunden emotional wie operativ genau dort abholen, wo sie stehen“, sagte sie.

Anforderungen an die Datenqualität

Ihr Kunde taucht als „Acme Corp“ im CRM auf, als „Acme Corporation“ in E-Mail-Systemen, als „ACME Inc.“ in Verträgen und als „Acme“ in Gesprächsaufzeichnungen.

Ohne Entitätenabgleich zersplittert das Verständnis der Agenten auf mehrere unvollständige Profile.

73 % der Datenverantwortlichen in Unternehmen sehen „Datenqualität und Vollständigkeit“ als das größte Hindernis für den Erfolg von KI an. Dies steht noch vor Modellgenauigkeit, Rechenkosten und Fachkräftemangel.

Schlechte Daten lassen sich nicht durch Agentenarbeit umgehen. Sie müssen zuerst behoben werden.

Wie Sie agentische KI erfolgreich implementieren

Organisationen, die agentische Systeme erfolgreich einsetzen, machen drei Dinge anders.

  1. Beteiligen Sie die ausführenden Mitarbeitenden am Agentendesign. Nicht als beratende Instanz, sondern als Kernteammitglieder. Sie vergüten diese Arbeit fair und nutzen sie als Möglichkeit zur Qualifizierung.
  2. Bauen Sie Governance, bevor Sie skalieren. Klare Richtlinien, was Agenten dürfen und was nicht. Eskalationspfade für Ausnahmefälle. Überwachungsmechanismen, die Probleme erkennen, bevor sie sich verschärfen.
  3. Halten Sie die Systeme schlank. Sie widerstehen der Versuchung, komplexe Multi-Agenten-Orchestrierungen zu bauen, bevor der Nutzen eines einzelnen Agenten bewiesen ist. Die Komplexität wird nur erhöht, wenn einfachere Ansätze scheitern.

„KI überbrückt die Distanz zwischen Vision und Umsetzung“, sagt Jones. „Was früher Wochen an Recherche, Beratereingaben und funktionsübergreifender Abstimmung erforderte, kann nun mit einem gut formulierten Prompt beginnen.“

Doch entscheidend ist der Weg dorthin. Ihr Team hat nicht einfach formale Trainingsunterlagen eingeführt. Sie haben AI Curiosity Circles geschaffen: Wöchentliche Sessions, in denen Teammitglieder Entdeckungen teilten, Prompts testeten und emotionale Wirkung erforschten.

„Für mich ist die künftige Organisation ein Netzwerk, das von KI-Agenten getragen wird, in dem KI-Agenten diese Mikro-Interventionen in großem Maßstab ausrollen“, sagt Marin. „Es gibt Komponenten multinationaler Konzerne, die als Inkubatoren dieser neuen Arbeitsweise fungieren – das nennen wir eine netzwerkorientierte Zukunft der Arbeit.“

Das gibt keine guten Pressemeldungen her. Aber es trennt die 14 % mit implementierten Lösungen von den 38 %, die in Pilotphasen feststecken.

Die Frage, die Sie jetzt beantworten müssen

Agentische Architektur ist nicht erst auf dem Weg – sie ist bereits da.

Bis Ende 2026 werden 40 % der Unternehmensanwendungen aufgabenspezifische KI-Agenten integrieren, gegenüber weniger als 5 % im Jahr 2025.

Mit zunehmender Verbreitung von Agenten steht jede Organisation vor der Frage, ob sie den Anforderungen dieser Agenten-Herausforderung gerecht werden kann. Es geht nicht nur um technische Fähigkeiten, sondern auch um organisatorische Bereitschaft. Das bedeutet:

  • Die richtigen Menschen im Raum.
  • Die Infrastruktur, um autonome Entscheidungen zu unterstützen.
  • Die Governance, um Fehler zu erkennen, bevor sie sich potenzieren.
  • Die Datenqualität, um kontextbewusste Entscheidungen zu ermöglichen.
  • Die Bereitschaft, in Menschen ebenso zu investieren wie in Technologie.

Die meisten Organisationen werden dies falsch machen. Sie betrachten agentische KI als technisches Upgrade statt als organisatorischen Wandel.

Sie werden zu den 40 % der agentischen KI-Projekte gehören, die laut Gartner bis Ende 2027 wegen steigender Kosten, unklarem Geschäftswert oder unzureichender Risikosteuerung abgebrochen werden.

Organisationen, die es richtig machen, erkennen, dass agentische Architektur mehr verlangt als Ingenieure. Sie braucht die gelebte Erfahrung der Menschen, deren Arbeit Sie verstärken wollen.

Und sie bauen Systeme, die diese Realität respektieren.