Wenn Sie auf der Suche nach einer praxisnahen Anleitung zur Einführung von KI in Ihrem Unternehmen sind, und auch wirklich eine Akzeptanz erzielen möchten – nicht nur ein paar spektakuläre Pilotprojekte –, dann sollten Sie bei der heutigen Episode dranbleiben. Glen Cathey ist zu Gast, um offen darüber zu sprechen, was es braucht, um von “Hey, wir haben einen Chatbot gestartet” zu einem Team zu kommen, das standardmäßig auf KI setzt – und warum sich die meisten Unternehmen schon am Start selbst ein Bein stellen.
Wir werfen einen kritischen Blick auf das übliche „Alle schulen!“-Vorgehen und fragen stattdessen: Was passiert, wenn Führungskräfte nicht selbst vorleben, was sie fordern? Wie baut man Gewohnheiten auf – und nicht nur Zertifikate? Und wie schafft man es, dass alle (ja, auch Ihre erfahrenen Mitarbeitenden) KI als echten Teampartner und nicht als Spielzeug betrachten? Sie erwartet eine Mischung aus unbequemen Wahrheiten, praktischen Denkmustern und ein paar Seitenhieben auf unsere kollektive Selbstzufriedenheit.
Das lernen Sie in dieser Folge
- Warum Führung nicht nur „nice to have“ ist, sondern der Hebel, der echte KI-Kompetenz im Unternehmen vorantreibt.
- Warum alleinige Schulungen nicht ausreichen und wie echter Verhaltenswandel wirklich aussieht, wenn KI Teil der Arbeitsabläufe wird.
- Wieso „KI wie einen Menschen führen“ kein Gimmick, sondern eine hilfreiche Metapher für Umsetzung, Feedback-Schleifen und Verantwortung ist.
- Was die Angst vor Ersetzbarkeit über Unternehmenskultur verrät – und wie die Missachtung dieser menschlichen Seite Ihre technologische Einführung sabotiert.
- Wo Rollen und Prozesse im KI-Zeitalter offengelegt werden (z. B. im Recruiting) und wie Sie entscheiden, was automatisiert und was menschlich bleibt.
Zentrale Erkenntnisse
- Führung lebt Verhalten vor. Wenn das Top-Management sagt „KI ist strategisch“, es aber nicht selbst nutzt, entstehen weiterhin nur Pilotprojekte – aber keine echten Arbeitsabläufe.
- Training ≠ Kompetenz. Es ist wie mit einem Fitnessvideo zu trainieren statt wirklich ins Fitnessstudio zu gehen. Es braucht Wiederholung, Rollenbezug und Verstärkung.
- Prompts & Workflows > grenzenlose Freiheit. Geben Sie Mitarbeitenden „fünf Punkte im Arbeitsablauf, an denen KI genutzt werden sollte“ und Start-Prompts an die Hand. Bringen Sie ihnen aber auch bei, eigene Chancen zu erkennen.
- Psychologische Sicherheit ist unverzichtbar. Es ist unter Quotendruck unbequem, langsamer zu werden und zu experimentieren. Ohne geschützten Raum verfallen die Teams jedoch in alte Gewohnheiten zurück.
- Erfahrene Mitarbeitende können feststecken. Ihre „unbewusste Kompetenz“ (sie leisten gute Arbeit, ohne nachzudenken) wird zum Ballast, wenn das Paradigma sich ändert. Fordern Sie sie auf, bewusst wieder „inkompetent“ zu werden und die Arbeit neu zu lernen.
- KI zu führen heißt managen. Wer einer Person vage Anweisungen gibt und trotzdem Top-Resultate erwartet, wird enttäuscht. Bei KI ist es genauso: Kontext + Ziel + Feedback = viel bessere Ergebnisse.
- Governance ist nicht nur Sache der IT. Wenn Sie KI an Tausende Mitarbeitende ausrollen, verdoppeln Sie praktisch Ihre Belegschaft. Wer steuert diesen Wert? Wie prüfen Sie ihre Arbeit?
- Automatisierung deckt Redundanzen auf. Zum Beispiel im Recruiting: KI-Tools, die Kandidaten suchen, anschreiben und vorab prüfen, gibt es heute schon. Also: Welcher Teil der Recruiter-Rolle bringt weiterhin echten Mehrwert durch den Menschen?
- Kompetenz zeigt sich in Routinen, nicht Events. Eine Organisation ist kompetent, wenn Mitarbeitende ihre eigenen Arbeitsabläufe neugestalten, KI selbstverständlich einsetzen und über die „Nutzung von KI“ so reden wie über E-Mails.
- Die Debatte ist menschlich – nicht nur technisch. 64 % der Führungskräfte sagen, die Angst vor Ersetzbarkeit durch KI hemmt die Akzeptanz — aber nur 24 % sehen Widerstand bei Mitarbeitenden als großes Hindernis. Wer Angst ignoriert, ignoriert die Menschen.
Kapitel
- 00:00 – Über das Pilotstadium hinausgehen
- 00:40 – AI-Führungskompetenzen vermitteln
- 01:10 – Die Lücke zwischen Schulung und Fähigkeiten schließen
- 02:42 – KI in die tägliche Arbeit integrieren
- 06:01 – Erfahrung als operatives Gepäck
- 10:51 – Fähigkeiten im Workforce Management entwickeln
- 13:47 – Feedbackschleifen mit KI stärken
- 15:33 – Die versteckten Kosten der KI-Skalierung
- 19:26 – Angst, Akzeptanz und organisatorische Realität
- 29:06 – Aus der Pilot-Paralyse ausbrechen
- 31:44 – KI-Kompetenz in der Praxis definieren
- 35:29 – Traditionelle Rollen überdenken
Lernen Sie unseren Gast kennen

Glen Cathey ist derzeit Senior Vice President und Consulting Principal für Talent Advisory und digitale Strategie bei Randstad Enterprise und verfügt über mehr als 25 Jahre Erfahrung in globaler Personalvermittlung, RPO und digitaler Recruiting-Innovation. Er ist ein weltweit anerkannter Vordenker im Bereich Sourcing und Recruiting und bekannt für seine Expertise im Engagement passiver Talente, bei Such- und Matching-Technologien sowie der ethischen Anwendung von KI beim Recruiting. Glen begann seine Karriere als IT-Recruiter und hat seither große Sourcing-Teams aufgebaut und geleitet, branchenführende Trainingsinhalte entwickelt und auf zahlreichen internationalen Talentveranstaltungen gesprochen – alles mit dem Ziel, die Zukunft der Arbeit und Talentakquise voranzubringen.
Verwandte Links:
- Treten Sie der People Managing People Community bei
- Abonnieren Sie den Newsletter, um unsere neuesten Artikel und Podcasts zu erhalten
- Vernetzen Sie sich mit Glen auf LinkedIn
- Schauen Sie sich Randstad Enterprise an
Verwandte Artikel und Podcasts:
David Rice: Es gibt viele Unternehmen, die in einer Art Pilot-Modus stecken bleiben. Sie führen Trainingsmodelle ein und sind dann der Meinung, damit sei es getan. Was ist der größte Hebel, der ein Unternehmen tatsächlich Richtung KI-Kompetenz bewegt?
Glen Cathey: Der mit Abstand größte Hebel ist Führung. Wenn Sie eine Kultur schaffen wollen, in der KI als Standard gilt, sind es die Führungskräfte, die das demonstrieren und vorleben, sie geben die Vision vor. Sie leben sie tatsächlich und zeigen es, sodass sie als Beispiel dienen können. Sie können alle Trainings der Welt haben, aber wenn die Führung nicht wirklich mitzieht, wird man keine Kultur schaffen, in der mehr Menschen standardmäßig KI nutzen und alle Möglichkeiten erkunden, wie sie ihre Arbeit wirklich verbessern kann.
David Rice: Die meisten Menschen waren nie Führungskraft. Wie bringen wir 80 % der Belegschaft dazu, plötzlich KI-Teamleiter zu werden?
Glen Cathey: Wir haben Management nie wirklich als Fähigkeit betrachtet. Das kann man auch nicht einfach in einem Kurs lernen nach dem Motto: Ich bin jetzt magisch ein fantastischer Manager – ob von Menschen oder von KI. Es ist etwas, das man sich zur Gewohnheit machen muss, um anfangen zu können, solche Schritte zu bedenken.
Was will ich lösen? Welche Ressourcen habe ich? Welche Fähigkeiten gibt es? Wie gebe ich genug Anweisungen, damit sie für mich einen guten Job machen können? Und wie gebe ich Feedback?
David Rice: Glauben Sie, dass wir an bestimmten Rollen fast aus Tradition festhalten statt aus Notwendigkeit?
Glen Cathey: Schauen wir uns mal einige relativ neue Lösungen an, wie den LinkedIn Hiring Assistant. Er hat ein separates Modell für Suche, Ansprache, Screening. Man kann Informationen in natürlicher Sprache eingeben. Es geht um die Automatisierung von Aufgaben im Recruiting. Einen Job verstehen, diesen Job in Such- und Matching-Anforderungen übersetzen. Es gibt heute bereits Lösungen auf dem Markt, die das tatsächlich können. Und da frage ich mich schon manchmal: Warum existiert die Rolle des Recruiters eigentlich noch?
David Rice: Willkommen beim People Managing People Podcast – der Show, bei der wir Führungskräften helfen, Arbeit im Zeitalter der KI menschlich zu gestalten. Ich bin Ihr Gastgeber, David Rice. Und heute begrüße ich Glen Cathey – SVP Talent Advisory bei Randstad Enterprise. Wir sprechen über den Weg zur KI-Kompetenz und darüber, echte Fähigkeiten dafür aufzubauen.
Glen, herzlich willkommen!
Glen Cathey: Vielen Dank. Ich freue mich sehr, hier zu sein. Ich freue mich auf die Diskussion.
David Rice: Absolut. Ich wollte uns mit dem Thema Online-Training starten lassen. Das beschäftigt ja gerade alle, weil wir Kompetenzen entwickeln müssen, die wir noch nicht ganz haben, oder manchmal wissen wir nicht einmal, welche es sein sollen.
Als wir uns vorab dazu unterhielten, sagten Sie sinngemäß: Online-Training schafft Wissen, aber nicht unbedingt Fähigkeiten. Meine Frage an Sie: Was müssten Unternehmen eigentlich tun, um diese Lücke zu schließen, und wie hört man auf, KI wie eine Prüfung zu behandeln, die man besteht – wenn wir sie doch eher als Kultur begreifen müssten, in der wir leben?
Glen Cathey: Das trifft es sehr gut. Für jedes Unternehmen ergibt es Sinn, auf Online-Training zu setzen, denn das ist am einfachsten skalierbar. Sie erstellen einen Kurs und können ihn für Hunderttausende bereitstellen. Aber wie Sie schon sagen: Hauptsächlich vermittelt Online-Lernen Wissen, und wir wollen den Leuten eigentlich nicht nur Wissen geben, sondern auch die Fähigkeit und vor allem die Verhaltensänderung, die dafür entscheidend ist.
Deshalb sollte man generative KI nicht wie eine IT-Einführung behandeln, sondern als Change-Management-Übung. Denn es geht darum, dass Menschen anfangen, anders über ihre Arbeit nachzudenken. Sie müssen ihr Verhalten ändern, und diese Verhaltensänderung soll schließlich zur Gewohnheit werden.
Und das erreicht man zu großen Teilen über Erfahrung, durch praktisches Lernen. Ich empfehle daher – und das machen wir intern wie extern – Hands-on-Workshops, bei denen Mitarbeitende wirklich mitarbeiten, ans „Eingemachte“ gehen und Übungen machen, die zu ihrer Rolle passen.
Es bleibt eine Herausforderung, denn Training ist nur ein Event: Ob Online-Kurs oder Workshop, eigentlich geht es um die Verstärkung des Gelernten – wie schaffe ich es, erst die Denkweise aufzubauen, dann das Verhalten zu ändern und letztlich Gewohnheiten zu etablieren?
David Rice: Es ist tatsächlich interessant. Sich ein Fitnessvideo anzusehen, macht einen ja auch nicht fit. Man muss schon selbst aktiv werden. Merkwürdig eigentlich, warum wir das hier anders sehen – dabei sollten wir es genauso machen. Es muss Teil des Arbeitsalltags werden. Das kann HR nicht einfach oben drüberstülpen.
Man muss KI-Praxen in den Arbeitsalltag integrieren – selbst einfache Dinge wie das Einbinden von KI-Eingabeaufforderungen in Projektvorlagen, sodass es Teil der täglichen Arbeit wird. Auch Experimente belohnen, wann immer sie stattfinden – das ist der Schlüssel, denke ich, wie wir dorthin kommen.
Glen Cathey: Ich bin Mitglied des World 50 AI Roundtable, der einmal im Monat zusammenkommt. Seit fast zwei Jahren schon, und ein schönes Zitat, das ich nicht mehr wortgetreu weiß, aber im Kern besagte: Die Magie generativer KI entsteht, wenn man sie klug in Arbeitsabläufe einbettet.
Das Wort, das ich gerne verwende, ist „präskriptiv“ sein. Es ist manchmal selbst für mich schwer zu erklären, was genau die Herausforderung ist, wenn man eine KI-Tool-Suite wie Copilot, Gemini oder ChatGPT bereitstellt. Denn diese Tools können grundsätzlich alles, was mit Wissen und kognitiven Aufgaben zu tun hat.
Das klingt einerseits aufregend, andererseits stellt es die Frage: Wo fängt man an? Bibliotheken mit Eingabeaufforderungen (Prompts) können helfen, man sieht, was andere machen, kommt auf neue Ideen. Aber noch wichtiger ist es, Menschen dazu zu befähigen, ihr eigenes Arbeiten zu reflektieren und Momente zu erkennen: Hier könnte ich KI einsetzen.
Einerseits ist es sinnvoll, ganz konkret zu sein: In diesem Workflow für diese Rolle gibt es fünf Einsatzpunkte für KI, hier sind Beispiel-Prompts. Das ist wichtig. Aber genauso wichtig ist, dass die Leute die Fähigkeit entwickeln, selbstständig Chancen zum KI-Einsatz zu erkennen.
Also: Nicht entweder-oder, sondern sowohl-als-auch.
David Rice: Ganz genau. Und die Leute brauchen psychologische Sicherheit: Es muss okay sein, es einfach mal auszuprobieren. Wenn ich dabei scheitere – kein Weltuntergang. So wird aus Wissen Können, oder?
Glen Cathey: Ja. Menschen lernen durchs Tun. Es gibt ein interessantes Buch dazu, das zeigt: Menschen lernen am besten, selbst auf Gehirnebene, wenn ein gewisses Ringen dabei ist. Ich glaube, das Buch hieß „The Talent Code“, und es beschreibt, dass Fähigkeiten oft über Versuch und Irrtum gebildet werden – dabei entstehen auch Fehler. Aber durch die Überwindung der Fehler festigt sich das Können.
Ich finde das faszinierend. Den psychologischen Sicherheitsaspekt greifen wir gerne auf. Was wir feststellen: Die Leute stehen schon unter Druck, ihre aktuellen Ziele zu erfüllen, und wenn sie sich erlauben, langsamer zu werden, um experimentell mit KI zu arbeiten, bremst das am Anfang.
Viele befürchten: Wenn ich bewusst langsamer werde und mit KI experimentiere, funktioniert das nicht immer gleich, ich bin kein Experte, dann könnte das problematisch sein. Viele sagen: Ich fühle mich nicht sicher, Zeit außerhalb der normalen Produktivität zu verwenden.
Deswegen ist wichtig, dass Unternehmen erkennen: Bei Veränderungen muss das Tempo erst rausgenommen werden, damit später Beschleunigung möglich wird. Man muss experimentieren dürfen – niemand wird an einem Tag vom Anfänger zum Profi. Es ist ein Prozess, man muss Raum und Zeit geben, damit die Leute sicher ausprobieren können, um den nächsten Entwicklungsschritt zu schaffen.
Ich finde, viele Unternehmen fokussieren zu wenig darauf, ihren Mitarbeitern dieses sichere Experimentieren zu ermöglichen und die nötige Zeit einzuräumen. Wenn sie zu Beginn dadurch etwas langsamer werden, ist das auch in Ordnung – das wird erwartet.
David Rice: Interessant ist auch: Viele Leute sind sehr an Aufgaben gebunden, weil man sie immer auf ihre Aufgabenerfüllung geeicht hat. Jetzt kommen wir in eine Ära, in der es eigentlich mehr ums Lernen geht – was kann ich werden, nicht nur, was bin ich. Die Herausforderung ist das „Verlernen“: Wir alle haben Gewohnheiten, Routinen, die wir mit KI neu denken müssen.
Aus Ihrer Sicht: Ist Erfahrung eine Art Ballast? Wie überzeugt man erfahrene Mitarbeiter, dass sich ihre hart erarbeiteten Routinen auch als Hemmschuh erweisen könnten?
Glen Cathey: Spannende Sichtweise – Ballast. Ich glaube tatsächlich, das ist oft ein unbewusster Ballast.
Vielleicht kennen Sie die vier Stufen der Kompetenz: Die meisten, die ihren Job schon länger machen, befinden sich auf der Stufe „unbewusst kompetent“, sie denken gar nicht mehr aktiv über ihre Tätigkeiten nach – sie sind im Flow.
So arbeiten wir fast alle, außer wenn wir neu in einer Rolle oder der Arbeitswelt sind. Wenn nun ein Tool wie generative KI eingeführt wird, müssen die Menschen wieder auf Stufe eins zurück: ursprünglich „unbewusst inkompetent“. Also, sie wissen gar nicht, was sie nicht wissen. Danach merken sie: Ich kenne KI, kann sie aber nicht wirklich anwenden. Das ist „bewusst inkompetent“. Dann folgt „bewusst kompetent“ – ich kann es, muss aber noch sehr nachdenken. Ziel ist, alle von der „Autopilot“-Kompetenz (unbewusst kompetent) runter- und neu aufzubauen. Das ist tatsächlich dieser Ballast, den man ablegen muss: Das aktuelle Arbeitsdenken ist zu hinterfragen.
Denn mit KI steht einem 24/7 eine Ressource zur Verfügung, die mit jedem Wissens- oder Denkauftrag helfen kann. Das ist etwas, das die Leute vorher nie hatten: Eine Ressource neben sich, die geführt, delegiert, kollaboriert werden will. Der mentale Sprung ist riesig: Vom „Ich arbeite auf Autopilot“ hin zu „Ich halte inne, reflektiere meinen Prozess und frage, wie KI die Qualität, nicht nur Effizienz, sondern z. B. auch Ergebnisse, Entscheidungen, Kundenservice, verbessern kann.“
Das sind viele Variablen, weit über reine Effizienz und Wegfall von Routinen hinaus.
David Rice: Eigentlich ist „Verlernen“ nur ein Software-Update – man löscht ja nicht die Erfahrung, sondern ergänzt neue Reflexe. Studien zeigen, dass Erfahrene in Kombination mit KI erfolgreicher sind als reine Anfänger oder „nur KI“-Nutzer.
Es ist vielmehr ein Framing-Thema. Arbeiten mit KI-Agenten hat manchmal Ähnlichkeiten mit dem Managen von Menschen – Aufgaben delegieren, Ziele setzen, Feedback geben. Wie bringen wir 80 % der Belegschaft dazu, plötzlich KI-Teamleiter zu werden?
Glen Cathey: Das beschäftigt mich besonders die letzten Monate: Die Zusammenarbeit mit KI als zu managende Ressource zu begreifen. Schwierig ist, dass die meisten Mitarbeitenden nie geführt haben; vielleicht kennen sie Kollaboration, aber meist braucht man dafür Meetings. Nun muss man das tägliche Arbeiten umdenken und Managementfähigkeiten vermitteln.
Der erste Schritt ist Problemerkennung, eventuell -dekomposition. Was will ich tatsächlich erreichen? Viele sind im Autopilot. Jetzt muss man sich fragen: Was will ich lösen?
Als Manager gilt es, Ressourcen zu identifizieren – jetzt gibt es KI als Ressource zum Kollaborieren und Delegieren. Man muss detaillierte Anweisungen („Expertenlevel-Anweisungen“) und genug Kontext liefern: Wer bin ich, was will ich, wozu benötige ich dies? Und sobald die KI arbeitet, muss Feedback folgen – wie bei einem Mitarbeiter.
Solche Aufgaben kannten viele Mitarbeitende bislang nicht. Auch wenn Management als Fähigkeit schwierig zu vermitteln ist, lässt sich nicht durch einen Kurs lernen. Es ist vielmehr, sich eine Routine zu schaffen: Was will ich lösen? Welche Ressourcen gibt es? Welche Fähigkeiten? Wie gebe ich genug Instruktionen? Und wie gebe ich Feedback, damit die Ergebnisse besser werden?
David Rice: Absolut. Man kann kleine Simulationen machen, in denen Mitarbeitende eine KI coachen und ihr Feedback geben – wie ein Manager. Die Rückmeldung dazu kann dann direkt ausgewertet und die Fähigkeit geschult werden.
Das sind die gleichen Eigenschaften, die gute Manager haben – ironischerweise könnte es KI sein, die uns das Management besser lehrt.
Glen Cathey: Stimme ich zu. Interessant fand ich die Idee, man könnte z. B. in Gemini oder ChatGPT einen Prompt bzw. ein Custom GPT bauen, das den User mit Fragen coacht, nicht nur wartet, sondern aktiv Rückfragen stellt. Solches Vorgehen ließe sich direkt heute mit gängiger Software umsetzen.
Es unterstützt besseres Management, und es ist wirklich ironisch. In Trainings vermittle ich oft, wie leistungsfähig diese Systeme sind – wie „menschlich“, manchmal sogar „übermenschlich“ auch bei Softskills wie Empathie oder emotionaler Intelligenz. Das klingt komisch, aber Studien zeigen, dass KI-Ausgaben in Blindstudien manchmal als empathischer und emotional wacher beurteilt werden als von Menschen.
Das heißt: Wenn Sie eine solche Ressource haben, die nicht nur technologisch, sondern auch softskillmäßig stark ist, kann sie Sie in Ihren zwischenmenschlichen Fähigkeiten unterstützen.
David Rice: Es ist ein interessantes Zeitalter. Ich sage das immer wieder zu mir: Hätte ich nie gedacht, sowas noch zu sehen. Sie erwähnten vorhin, dass KI-Ausrollung sich anfühlen kann, als würde sich die Belegschaft über Nacht verdoppeln. Aber was ist der versteckte Preis oder das Risiko, wenn plötzlich doppelt so viele „Mitarbeiter“ da sind – die nie schlafen, aber ohne Aufforderung nie eigenständig denken?
Glen Cathey: Diese Betrachtung hilft Unternehmen, das Bewusstsein zu entwickeln, dass es hier nicht nur um Lizenzvergabe für Software geht. Wenn man es sieht, als hätte man tatsächlich die Belegschaft verdoppelt, wächst das Verantwortungsgefühl: Man muss sicherstellen, dass diese Ressourcen auch genutzt werden, sonst sind sie einfach ungenutzt.
Würden Sie Ihre Belegschaft tatsächlich verdoppeln, hätten Sie Druck, die neuen Mitarbeiter produktiv zu machen. Aber diese Dringlichkeit herrscht oft nicht, wenn es um KI-Lösungen geht. Dabei sollte man so denken: „Wir haben diese neuen Ressourcen – wer managt sie? Wer kann das überhaupt? Wie qualifiziert man Leute, damit die Ressourcen optimal genutzt werden?“
Dieses Framing mag für den einen oder anderen unangenehm sein, kann aber helfen: Wenn ich tatsächlich verdoppeln würde, wäre ich dafür verantwortlich, alle produktiv zu bekommen. Das sollte man auch bei KI tun: Nur weil sie günstiger ist als ein Mensch, ist es dennoch Verschwendung, sie herumstehen zu lassen.
Immer mehr Unternehmen rollen KI unternehmensweit aus. Zugang zur Technologie ist kein Wettbewerbsvorteil mehr – der Unterschied macht, wie gut die Menschen damit umgehen können. Das geht wieder auf den Punkt unserer Diskussion zurück und erzeugt hoffentlich etwas positiven Druck: Tun wir genug, damit unsere Leute den maximalen Nutzen aus diesen Tools ziehen können?
David Rice: Das kann ich nur unterstreichen: Der technische Vorteil schwindet, weil die Technik Standard wird. Was Teams tun müssen: Jede neue KI ist Management-Overhead – jedes neue System erzeugt zusätzliche Verantwortung, es müssen Briefings, Überprüfungen und Vertrauen entstehen.
Idealerweise schafft man verlässliche Systeme, die zwar nie schlafen, aber auch nie widersprechen. Sie können mit höchster Überzeugung Falsches verbreiten. Wer sich nicht genug Zeit nimmt, lässt zu, dass Fehler nach außen gelangen. Gerade als Vielschreiber bin ich da sensibel. Man sollte Governance wie einen Betriebsprozess denken: Es geht um Qualitätskontrolle, Ownership – das muss ins Framework.
Glen Cathey: Genau. Es gibt zentrale Governance und governance auf Mitarbeiterebene. Das geht zurück aufs Training – die Leute müssen Do's und Don'ts dieser Technologien kennen. Halluzinationen, oder KI-Schluderei, entstehen nicht durch KI, sondern durch Menschen.
Wenn man Schluderei weitergibt, ist das ein menschliches Problem, kein technisches. Einer der wichtigsten Beiträge von Menschen ist das kritische Denken, z. B. Review – wie ein Manager, der Arbeit prüft, bevor sie genutzt wird. Vertriebene Verantwortung und Vertrauen setzen voraus, dass alle Mitarbeitenden die Trainingsregeln einhalten.
Training ist ein Event, aber eigentlich braucht es eine dauerhafte Kultur: Immer wieder die Regeln kommunizieren, Qualität checken, Fakten prüfen, auf den angemessenen Ton achten. Heute reicht meist ein einfacher Prompt und man erhält guten Output. Aber das wird schnell generisch.
Ich würde es nicht KI-Schluderei nennen, aber wenn Output unkontrolliert rausgeht, liegt die Schuld beim Menschen. Denn KI macht nur, was man von ihr verlangt.
David Rice: Willkommen zum Data Bite dieser Woche! Die Zahl der Woche: 64 %. Laut EYs aktuellem AI Pulse Survey sagen 64 % der Führungskräfte, dass Angst vor Ersetzbarkeit durch KI die Einführung in ihren Firmen bremst. Doch nur 24 % benennen Mitarbeitenden-Widerstand als zentrales Hindernis. Lassen Sie uns diesen Widerspruch betrachten: Führungskräfte wissen, dass ihre Belegschaft Angst hat. Sie sehen es, sie erkennen es an.
Aber sie benennen es nicht als Kernproblem, reden stattdessen von Datenbereitschaft, Cybersecurity oder Regulierung. Meiner Beobachtung nach verwandelt sich die menschliche Kostenfrage in eine technische Herausforderung. Zwei Drittel der Führung geben an, dass die Belegschaft Angst vor Austauschbarkeit hat, aber diese Angst wird nicht als die Krise behandelt, die sie wirklich ist.
Die eigentliche Frage ist nicht: Wie überwinden wir KI-Widerstand? Es ist vielmehr: Was sagt es über unsere Organisation, wenn unsere Leute Angst vor Ersetzbarkeit haben und wir trotzdem weitermachen? Die unbequeme Wahrheit: Wenn 64 % der Führung Angst erkennen, aber nur 24 % dies als zu lösendes Hindernis betrachten, lösen wir kein menschliches Problem – wir umgehen es. Es ist kein Change-Management-Thema. Es ist die grundlegende Frage, welche Rolle Menschen in einer Welt spielen, die aktiv unabhängiger von ihnen wird. Und gerade jetzt führen wir diese Diskussion nicht ehrlich.
Und damit zurück zur Sendung.
Ich sage immer: Es liegt nie an der Technik, sondern daran, wie wir sie nutzen. Wer Technik schludrig einsetzt, bekommt auch schludrige Ergebnisse – das gilt im Grunde für jede Rolle und jede Aufgabe.
Es geht darum, zu lernen, wie man die KI fordert und sicherstellt, dass sie das erwünschte Resultat liefert.
Glen Cathey: Ich bin froh, dass Sie das Wort „Schludrigkeit“ nutzen. Ich versuche immer wieder, mich selbst kritisch zu prüfen – auch ich gehe noch denselben Lernweg wie alle anderen und versuche, die sinnvollste Nutzung zu finden. Manchmal nervt es mich, wie lange es dauert, genug Kontext in einen Prompt zu geben.
Ich muss mich dann erinnern: Ja, es fühlt sich nach Zeitverlust an, aber ein paar Minuten mehr Kontext führen zu viel besseren Ergebnissen. Deshalb sage ich: Man sollte die KI wie einen Mitarbeiter managen – und eben kein fahrlässiger Manager sein. Wer schon einmal geführt hat, weiß: Gute Manager sorgen dafür, dass Aufgaben sorgfältig übergeben werden und Mitarbeitende genau wissen, was zu tun ist, oft gibt es Beispiele für gute Arbeit, und Rückfragen sind erwünscht: „Was brauchst du noch von mir?“ Das gilt auch für KI.
Eine einfache Übung in unseren Trainings: Bitten Sie die KI am Prompt-Ende aktiv um Rückfragen – z. B.: „Stellen Sie mir alle nötigen Fragen, damit Sie bestmögliche Ergebnisse erreichen.“ So behandelt man die KI wie einen Menschen. Wer KI benutzt, sollte sie auch führen – wie einen guten Mitarbeiter.
Viele verwenden KI, aber „managen“ sie nicht wirklich. Sie geben Minimalinput – und bekommen mittelmäßigen Output. Ein Mensch würde unter solchen Bedingungen auch schwache Leistung bringen. Der Standard muss derselbe sein.
David Rice: Viele reagieren ablehnend, wenn man sagt: „Behandle KI wie einen Menschen“. Aber das meint ja nicht, ihr die Lebensgeschichte zu erzählen, sondern ihr das nötige Hintergrundwissen fürs Verständnis zu geben. Sie ist kein intellektuelles Genie – sie braucht Kontext, will wissen, warum Sie etwas wollen, sonst gibt sie einfach irgendetwas aus, das nicht exakt das ist, was Sie wollten.
Glen Cathey: Das ist immer noch faszinierend für mich. Früher sagte ich: „Garbage in, garbage out“. Aber das stimmt so nicht: Schon mit wenig Input liefern heutige GenAI-Tools noch immer ordentliche Ergebnisse, sie schöpfen aber nicht ihr Potenzial aus. Man muss befriedigenden Output aktiv unterstützen – also: Was braucht das System, um sein Bestes geben zu können?
Mein Tipp: Wenn man unbeeindruckt vom Output ist, sollten die Nutzer die Verantwortung übernehmen: Wer nur Durchschnittliches erhält, ist meist zu 50 % Teil des Problems. Denn wer mehr Kontext liefert, bekommt viel Besseres zurück. Wir kommunizieren heute in natürlicher Sprache mit Systemen. Vor drei Jahren war das undenkbar. Und: Wer nicht tippen mag, kann reden – nutzen Sie das Mikrofon, dann geht es schneller.
David Rice: Eine unglaubliche Fähigkeit.
Glen Cathey: In der Tat. Heute nehmen wir das als gegeben hin, aber in Zukunft werden wir darüber lachen, dass wir an Knöpfen tippen mussten, um mit Computern zu kommunizieren. Das war eine echte Barriere, die nun fällt: Sprechen statt tippen.
David Rice: Die KI beschwert sich nie über lange Voice-Notes – im Gegensatz zu Freunden.
Glen Cathey: Das stimmt. Sie wird auch nicht ungeduldig, wenn man mal abschweift.
Auch mit ruppigen, schnellen Notizen aus Meetings kommt sie zurecht, kann selbst ungeordnete Mitschriften in glänzende Texte verwandeln. Das ist erstaunlich.
David Rice: Viele Unternehmen bleiben aber auf der Stufe der „Alphabetisierung“ stehen, sie verharren im Pilotmodus. Wir sehen das auch in unserer Community: Viele rollen KI-Testprojekte aus, dann ist Schluss. Sie implementieren Trainings, das war’s dann. Was ist aus Ihrer Sicht der entscheidende Hebel, um eine Organisation Richtung KI-Kompetenz zu bewegen?
Glen Cathey: Entscheidend ist Führung. Nur so kann eine Kultur entstehen, in der KI selbstverständlich genutzt wird. Trainings jeder Art – ja, wichtig, aber allein nicht genug. Es sind die Führungskräfte, die vorleben und die Vision vorgeben. Ihre Vorbildfunktion ist das stärkste Signal. Die Führungskette muss Verantwortung einfordern und durchhalten. Vom Top-Management bis zum direkten Vorgesetzten: Nur wenn überall an einer Linie gezogen wird, entsteht wirklich eine neue Arbeitskultur.
David Rice: Ja, und es kommt darauf an, wie „Flüssigkeit“ aussieht: Führungskräfte, die das Modellieren, sind der Hebel, Mitarbeitende redesignen Prozesse eigenständig, denken über die reine Erledigungsrate hinaus, betrachten capability shift, Outcome-Änderungen. Es braucht einen Mentalitätswechsel – und dass Führungskräfte es auch selbst anwenden. Viele sprechen von KI, nutzen sie aber selbst nicht.
Glen Cathey: Beschäftigt man viele Mitarbeitende, hat man immer eine Verteilung: Früh-Adoptierende, die sowieso vorangehen, Skeptiker, die niemals vertrauen, und das breite Mittelfeld. Hier hilft Vorbild, Kommunikation, Verantwortung – oft reicht es schon, wenn etwa in jedem Meeting der Einsatz von KI thematisiert, Best-Practices geteilt und dokumentiert werden. Oder: „Ich frage im Mitarbeitergespräch nach Ihrem KI-Einsatz“ – allein das schafft Bewegung, ohne Angst machen zu müssen. Es ist die Führungskette, die das passende Verhalten zieht.
Irgendwann ist „Ich nutze keine KI“ so absurd wie: „Ich nutze kein Internet“.
David Rice: Gerade für Bildschirmarbeit gilt das. Niemand würde heute sagen: „Ich will kein Internet nutzen.“ Bald ist das mit KI ebenso undenkbar.
Glen Cathey: Ich glaube das auch. Beispiele wie Excel zeigen: Kaum jemand beherrscht mehr als einen Bruchteil der Funktionen, trotzdem ist es Standard. Immer wird es noch Features geben, die 99 % nicht kennen. Genauso wird es mit KI sein: Die meisten nutzen einen Teil, echte „KI-Natives“ werden wenige. Aber es ist wie mit MS Office: Wer sich verweigert, bleibt zurück. KI wird so selbstverständlich und unverzichtbar wie Word oder Excel.
David Rice: Wenn wir z. B. das Recruiting betrachten: KI könnte von Sourcing bis Shortlisting, sogar Messaging übernehmen. Wo verläuft die Grenze zwischen Unterstützung und Ersatz – etwas, was viele fürchten? Halten wir an Rollen aus Tradition fest?
Glen Cathey: Gute, auch kontroverse Frage. Mal konkret: Der neueste LinkedIn Hiring Assistant ist ein echtes Multi-Agenten-Modell, mit einzelnen Modellen für Suche, Ansprache, Screening. Man kann sie heute bereits in natürlicher Sprache bedienen. Aufgaben im Recruiting automatisieren – von Anforderungsanalyse bis Präsenz. Die Frage ist: Warum gibt es den Recruiter überhaupt?
In kleinen Firmen rekrutieren die Manager selbst. Erst ab einer gewissen Größe übernimmt jemand diese Aufgaben. Was passiert, wenn Technologie diese Aufgaben ausführt? Denkbar wäre, dass der Hiring-Manager direkt LinkedIns Hiring Assistant nutzt.
Wer ist dann noch Recruiter? Manche Hiring-Manager werden weiter outsourcen, andere nicht. Wenn ich Recruiter bin, bleibt die Frage: Wo bringe ich echten Mehrwert?
Das ist Beziehungsmanagement, Empathie, Matching von Motivation und Skills, Beratung für Kandidat:innen und Mandant:innen – und das wird, glaube ich, nie voll durch KI ersetzt. Aber bestimmte Aufgaben (Feedback an alle Bewerber:innen z. B.) kann KI heute zuverlässiger und umfassender leisten als Menschen. Jedes Unternehmen entscheidet selbst, wie viel KI und wie viel Mensch, und genau dort kann beides zu einem Wettbewerbsvorteil werden.
David Rice: Wir unterschätzen oft, wie mechanisch viele Aufgaben, z. B. Recruiting, sind. KI kann viel übernehmen, aber Wert entsteht da, wo es um Urteilskraft, Storytelling, Empathie geht. Vielleicht bleibt die Rolle erhalten – als Identitätskern, nicht mehr aus Notwendigkeit. Aber der Wert liegt dann z. B. in verbesserter Candidate Experience. Die eigentliche Frage ist daher: Welche Arbeiten verdienen am meisten Aufmerksamkeit? Und wie kann KI mich dabei unterstützen? Manches, was mir wichtig erschien, kann ich nun effizient transformieren und mich auf das konzentrieren, wofür ich wirklich gebraucht werde.
Glen Cathey: Genau. Es geht nicht nur darum, den bisherigen Recruitingprozess mit KI zu „bestücken“, sondern ihn komplett neu zu denken. Was wäre, wenn wir heutige Prozesse von Null auf mit den neuen Möglichkeiten gestalten? Das ist weit mehr als nur technischer Ersatz. Es braucht kreative Reimagination, nicht bloße Technikintegration.
David Rice: Alles neu denken! Glen, ich danke Ihnen für Ihren Besuch und Ihre Einblicke.
Glen Cathey: Danke, das war großartig.
David Rice: Folgt Glen auf LinkedIn, und wer noch nicht dabei ist: Meldet euch bei People Managing People an, holt euch den Newsletter. Bis zum nächsten Mal!
