KI soll Menschen für „wertvollere Arbeit“ freisetzen. Gut. Aber was genau ist diese Arbeit? In dieser Folge spricht David Rice mit der Cyberpsychologin und Psychotherapeutin Dr. Rachel Wood über den Aspekt der KI-Einführung, den die meisten Organisationen immer wieder übergehen: Die menschlichen Kosten, wenn zu viel zu schnell automatisiert wird, ohne eine echte Philosophie dafür zu haben, was zutiefst, hartnäckig menschlich bleiben sollte.
Ihr Gespräch durchbricht den üblichen KI-Optimismus und bringt eine unbequeme Wahrheit ans Licht. Manche Reibung sollte unbedingt verschwinden. Niemand muss eine Stunde lang Tabellenkalkulationen kopieren und einfügen. Doch gewisse Reibung gehört zur Arbeit dazu: Meinungsverschiedenheiten, Urteilsvermögen, schwierige Gespräche, Lernen durch Fehler und herauszufinden, wer man ist, wenn das eigene Fachwissen plötzlich leichter nachzuahmen ist. Diese Folge dreht sich genau um diese Unterscheidung und darum, weshalb Führungskräfte aufhören sollten, KI als reine Softwareeinführung zu betrachten und beginnen sollten, sie als Herausforderung für die menschliche Entwicklung zu sehen.
Das lernen Sie
- Warum „sei strategischer“ und „arbeite mehr zusammen“ Ergebnisse sind, keine Anweisungen
- Der Unterschied zwischen administrativer Reibung und zwischenmenschlicher Reibung
- Wie der übermäßige Einsatz von KI grundlegende Kommunikations- und Denkgewohnheiten untergraben kann
- Warum die Einführung von KI oft an Ambivalenz scheitert und nicht an fehlendem Training
- Wie Automatisierung Identitätsverlust, Trauer und berufliche Unsicherheit auslösen kann
- Warum Führungskräfte eine KI-Philosophie und nicht nur eine KI-Richtlinie brauchen
- Wie man KI als Übungstool einsetzt, um menschliches Urteilsvermögen und Kommunikation zu stärken
Wesentliche Erkenntnisse
- Nicht jede Reibung ist schlecht. Administrative Routinearbeit ist ein legitimer Kandidat für Automatisierung. Zwischenmenschliche Reibung ist es nicht. Wenn Menschen ihre Toleranz für Meinungsverschiedenheiten, Nuancen und Unbehagen verlieren, werden sie bei der Arbeit nicht menschlicher. Sie sind weniger in der Lage, den menschlichen Teil der Arbeit gut zu machen.
- Grundlegende Fähigkeiten verfallen, wenn wir sie nicht üben. Jede einfache E-Mail oder wenig brisante Kommunikationsaufgabe abzugeben, erscheint zunächst harmlos – bis die Menschen sechs Monate später unklarer, unüberlegter sind und weniger fähig, wirklich das auszudrücken, was sie meinen.
- Training allein wird den Widerstand gegen KI nicht lösen. Rachel argumentiert, dass es vielen Teams nicht an Informationen mangelt. Sie sind voller gemischter Gefühle, Angst, Aufregung, Unsicherheit und Identitätsstörung. Diese Ambivalenz muss benannt werden, bevor die Einführung leichter wird.
- Mühsame Arbeit war mehr als Zeitverschwendung. Sie vermittelte auch Kontext, Urteilsvermögen und Einblick, wie Organisationen tatsächlich funktionieren. Man braucht keine Nostalgie für Ineffizienz, um zuzugeben, dass das Durchkämpfen durch die Routine Führungsfähigkeiten gefördert hat.
- Es ist auch ein Trauerprozess. Wenn KI beginnt, das zu approximieren, was jemand jahrelang gemeistert hat, ist das nicht nur eine Änderung des Arbeitsablaufs. Es fühlt sich oft wie ein persönlicher und beruflicher Verlust an. So zu tun, als wäre das nicht so, lässt es nicht verschwinden.
- Führungskräfte sollten als Vorbilder vorangehen. Bevor Teams sich anpassen, müssen Führungskräfte ihre eigenen 2-Uhr-morgens-Fragen zu KI reflektieren. Unausgesprochene Ängste beeinflussen die Unternehmenskultur.
- KI als Probe, nicht als Ersatz nutzen. Einer der praktischsten Ansätze aus dieser Folge: Mit einem Chatbot schwierige Gespräche, Verkaufsgespräche oder zwischenmenschliche Szenarien durchspielen. Er schult den Blick für blinde Flecken und hilft beim Üben. Das eigentliche menschliche Gespräch muss danach aber weiterhin selbst geführt werden.
- Eine Richtlinie ist hilfreich, eine Philosophie ist wichtiger. Menschen brauchen Klarheit darüber, welche Arten der KI-Nutzung akzeptabel sind. Darüber hinaus müssen Organisationen aber auch definieren, welche Verhaltensweisen sie fördern, welches Urteilsvermögen sie bewahren und was ihrer Ansicht nach zutiefst menschlich bleiben soll.
Kapitel
- 00:00 – KI & abnehmende Kommunikation
- 02:26 – Definition von höherwertiger Arbeit
- 04:59 – Unterstützung der KI-Einführung
- 06:05 – Wann man KI nicht einsetzen sollte
- 09:09 – Gute vs. schlechte Reibung
- 12:14 – Die Ambivalenz-Barriere
- 14:24 – Der Wert von Routinearbeit
- 16:50 – Identitätsstörung am Arbeitsplatz
- 21:47 – Trauer am Arbeitsplatz benennen
- 25:47 – Produktiver Kampf
- 29:02 – KI als Probe
- 32:42 – Richtlinie vs. Philosophie
- 34:32 – Tempo des Wandels
- 35:36 – Schutz menschlicher Entwicklung
Lernen Sie unseren Gast kennen

Dr. Rachel Wood ist die Gründerin des AI Mental Health Collective, einer interdisziplinären Community, die verantwortungsvolle Gespräche und Zusammenarbeit an der Schnittstelle von Künstlicher Intelligenz und psychischer Gesundheit fördert. Mit einem Doktortitel in Cyberpsychologie und Erfahrung als approbierte Beraterin ist sie als Rednerin, Beraterin und Consultant tätig, mit dem Schwerpunkt, wie neue Technologien menschliche Verbindung, Entscheidungsfindung und emotionales Wohlbefinden verändern. Rachel ist bekannt für ihre ausgewogene, differenzierte Perspektive und bringt Fachleute aus den Bereichen Klinische Psychologie, Technologie und Forschung zusammen, um sowohl die Chancen als auch die ethischen Herausforderungen von KI im Bereich psychischer Gesundheit und die Zukunft menschlicher Beziehungen zu beleuchten.
Weiterführende Links:
- Treten Sie der People Managing People Community bei
- Abonnieren Sie den Newsletter, um unsere neuesten Artikel und Podcasts zu erhalten
- Vernetzen Sie sich mit Rachel:
Verwandte Artikel und Podcasts:
David Rice: Dein Team nutzt seit sechs Monaten KI, um E-Mails zu schreiben. Einfache E-Mails, schnelle Antworten, nichts Kompliziertes. Und du stellst fest, die Qualität lässt nach. Die Nachrichten wirken generisch. Es fehlt an Persönlichkeit. Es ist weniger klar, worauf es eigentlich ankommt. Sie verlernen nicht, zu kommunizieren – aber sie verlernen die Übung darin, wirklich zu durchdenken, was sie eigentlich sagen wollen.
Unser heutiger Gast ist Dr. Rachel Wood, Cyberpsychologin und Psychotherapeutin, die an der Schnittstelle von KI und mentaler Gesundheit forscht. Und sie spricht heute über etwas, das viele von uns spüren, aber vielleicht nicht benennen können. Wir senken unsere Toleranz für Reibung – für jede Art von Reibung. Sogar für die, die uns eigentlich guttut.
Es gibt zwei Arten von Reibung bei der Arbeit. Administrative Reibung: Eine Stunde lang Tabellen kopieren und einfügen. Das sind Aufgaben, die KI eliminieren sollte. Aber dann gibt es auch zwischenmenschliche Reibung. Die Spannung, wenn ein Kollege anders denkt als man selbst. Die Verhandlung, wenn Kolleg:innen uneins sind. Das Unbehagen schwieriger Gespräche.
Das ist problematisch. Wenn wir jedoch alle Unannehmlichkeiten automatisieren, gewinnen wir nicht mehr Zeit für das menschlichere Arbeiten. Gerade das menschliche Arbeiten beinhaltet Reibung. Es erfordert, auszuhalten, dass andere Projekte anders sehen. Es verlangt, als Team zu lernen, zusammenzuarbeiten – das ist eine Fähigkeit, die nicht einfach so entsteht. Aber niemand reicht den Leuten eine Anleitung an die Hand, wie sie tatsächlich besser im menschlichen Aspekt ihres Jobs werden.
Führungskräfte sagen immer: Sei strategischer, sei kreativer, arbeite mehr zusammen. Aber das sind Ergebnisse, keine Anleitungen. Gleichzeitig verlieren Erwachsene die Geduld, neue Tools zu lernen, Kinder haben Schwierigkeiten, beim Lesen aufmerksam zu bleiben. Strukturell verändert sich etwas, wie wir mit Schwierigkeiten umgehen. Heute sprechen wir also darüber, wie Sie KI nutzen können, um als Mensch besser zu werden – nicht um die Menschlichkeit zu ersetzen.
Die Kommunikationsfähigkeiten verkümmern, wenn wir sie nicht üben. Warum Sie eine KI-Philosophie statt nur einer KI-Richtlinie brauchen, ob das Veränderungstempo schneller ist als die menschliche Psyche verkraftet – und wie man erkennt, welche Reibung man beseitigen und welche man bewahren sollte.
Ich bin David Rice. Dies ist People Managing People. Und falls Sie KI bisher nur als Tool-Einführung betrachtet haben und nicht als menschliche Entwicklungschance, kann dieses Gespräch Ihnen hoffentlich einen neuen Blickwinkel eröffnen. Legen wir los.
Gut. Rachel, willkommen in der Sendung. Schön, dass du da bist.
Rachel Wood: Vielen Dank. Ich habe mich schon darauf gefreut. Schön, hier zu sein.
David Rice: Ich wollte das Gespräch damit beginnen, dass Führungskräfte in den letzten zwei Jahren ihren Teams gepredigt haben, dass KI sie für wertvollere Arbeit freimachen soll. Und ich höre das heute noch – ich dachte wirklich, das wäre mittlerweile ein Klischee.
Aber ich höre es immer noch. Die Wenigsten definieren aber, was „wertvollere Arbeit“ wirklich bedeutet. Du hast dazu eine ziemlich klare Vorstellung. Führ uns mal dadurch – welche Aufgaben sind das und warum?
Rachel Wood: Das höre ich tatsächlich auch sehr oft, David. Und ich denke, es ist kontextabhängig. Es gibt keine Einheitslösung, da jede Branche und jedes Team seine eigenen Schwerpunkte hat. Es kann bedeuten, sich mehr auf Kreativität und Innovation zu konzentrieren.
Wenn also die administrativen Aufgaben wegfallen, bleibt mehr kognitive Kapazität, um Neues auszudenken, kreativ zu sein, Innovationen zu schaffen. Und etwas Anderes, das ich sehe: Wir haben mehr Raum, um zu lernen, besser miteinander zu arbeiten. Es entsteht eine Kongruenz im Team, für die vielleicht zuvor kein Denkraum war, die aber jetzt möglich wird.
Wie arbeitet man als Team gut zusammen? Das ist eine Fähigkeit. Sie entsteht nicht einfach, wenn die richtigen Leute da sind – sie muss gelernt und gelehrt werden. Aber genau dafür ist jetzt mehr Raum und Zeit vorhanden, denke ich.
David Rice: Da stimme ich dir zu, und das Ganze spricht mich persönlich sehr an. Mir wurde das selbst schon gesagt, und es gibt ein Muster: Unternehmen führen KI ein und verlangen dann, dass die Leute strategischer, kreativer, kollaborativer werden – das sind alles Ergebnisse.
Das sind jedoch keine Anleitungen, niemand gibt irgendwem ein Handbuch dafür, wie sie auf menschlicher Ebene in ihrem Job besser werden oder ihren einzigartigen Beitrag maximieren, indem sie KI gezielt nutzen. Ich finde spannend, dass du sagst: Das Tool selbst könnte Teil dieser Anleitung sein – das übersehen viele.
Rachel Wood: Da stimme ich vollkommen zu. Wichtig ist: Wenn du im Budget ein Posten für die KI-Initiative hast, egal was es ist – es sollte immer ein Posten da sein, wie man die Leute im Umgang damit unterstützt. Für die Technik zahlt man Summe X.
Aber wirklichen Nutzen bringt es nur, wenn man Leute darin schult, wie sie es nutzen, was geht und was nicht. Und wie du sagst, KI gezielt zu nutzen, um sich tatsächlich zu verbessern – wäre es nicht spannend, David, einfach mal das eigene Chatbot-Tool zu fragen: „Hey, du nimmst mir Administratives ab – was sollte ich als Mensch noch machen, was du nicht kannst, mir aber in meinem Job wirklich hilft?“ Das wäre spannend – lassen wir uns von KI helfen, Dinge besser zu machen!
David Rice: Absolut. Lustigerweise: Ich war diese Woche auf einer Konferenz, da ärgern sich alle, dass Mitarbeitende KI nutzen, um E-Mails zu schreiben.
Ich sage: Ja, das kann schon nerven. Man kann doch selbst eine E-Mail schreiben! Wenn man die KI fragt: Soll ich dich dafür nutzen, eine E-Mail zu schreiben? – Ich denke, Claude zum Beispiel würde sagen: Dafür brauchst du mich eigentlich nicht. Wenn du eine dichte Antwort hast, die du besser verständlich machen willst oder viel Kontext und Nuancen vermitteln musst – dann ist das ein sinnvoller Anwendungsfall, den alle unterschreiben würden. Aber wenn du nur Rückmeldung gibst, warum ein Bericht spät ist: Mal ehrlich, das kannst du selbst erledigen!
Rachel Wood: Wir brauchen ein hohes Maß an Unterscheidungsvermögen, wann der Einsatz sinnvoll ist und wann nicht.
Wenn wir es unterschiedslos immer einsetzen, verlieren wir über die Zeit sogar die Fähigkeit, Kleinigkeiten selbst zu erledigen, weil sie langsam verkümmert. Dein Beispiel, David: Einfache E-Mail per Chatbot erscheint harmlos – aber sprich in sechs Monaten nochmal mit mir, wie schwer es dir fällt, dann wieder selbst zu schreiben.
Wir müssen uns also fragen: Worauf sind wir in sechs oder zwölf Monaten zum Verlernen bereit? Und wie gelingt wirklich das konstruktive Zusammenarbeiten mit KI, so dass unser Denken gefördert wird, anstatt es zu ersetzen.
David Rice: Ich glaube, das Thema ist größer als viele denken. Schon die einfache E-Mail ist Kommunikation und die Fähigkeit, Teamkollegen auf die jeweils passende Art und Weise anzusprechen.
Das ist eine menschliche Fertigkeit – etwas, das wir oft durch Versuch und Irrtum lernen. Es beinhaltet Körpersprache, Situationsgefühl, Kontextverständnis. Von Führungskräften höre ich, dass viele Geduld und Konzentration verlieren, schnell Tools wechseln, Kinder konzentrieren sich kaum noch aufs Lesen.
Ist das aus psychologischer Sicht nur eine Vorliebenverschiebung oder ändert sich strukturell etwas daran, wie wir mit Schwierigkeiten umgehen?
Rachel Wood: Wir müssen die Entwicklung dahin betrachten. Denken wir an soziale Medien – schon mit der Erfindung des Internets, dann sozialen Medien, all das hat zu unserem heutigen Stand beigetragen.
Man kann KI nicht einfach isoliert die Schuld geben, aber sie verstärkt bestehende Strukturen, wie unsere niedrige Aufmerksamkeitsspanne. Was du ansprichst, David, ist auch das Thema Reibung.
Menschen tolerieren weniger Reibung. Ich will zwei Arten unterscheiden: Die administrative Reibung – etwa eine Stunde lang Kopieren, Einfügen, Tabellen pflegen. Das ist Reibung, die wir loswerden wollen, weil KI sie übernehmen kann. Aber die andere, die nützliche Reibung ist zwischenmenschlich: Dass du, David, Projekte anders siehst als ich und wir das aushandeln und kommunizieren müssen.
Ich kenne keine Beziehung – Beruf, Partnerschaft, Familie, Freundschaft –, in der es nie Reibung gab.
Wenn wir unsere Reibungstoleranz immer weiter verringern, werden wir nie zu wirklich menschlicher Arbeit kommen, weil die genau daraus besteht, Unterschiede auszuhalten und schwierige Gespräche zu führen. Unsere Aufgabe ist es, diese Fähigkeit im Umgang mit Schwierigkeiten miteinander zu trainieren.
David Rice: Diese Unterscheidung der Reibung ist entscheidend. Es gibt die Annahme, dass Schwierigkeiten mit neuen Tools immer ein Prozess- oder Schulungsproblem sind – die Lösung: mehr Trainings.
Ich glaube, es mangelt nicht an Information, sondern an der Fähigkeit, Rückschläge auszuhalten und die Ausdauer für langwierige Aufgaben zu entwickeln – diese Fähigkeit wird gerade weniger und das betrifft vor allem diejenigen, die neu ins Berufsleben kommen.
Rachel Wood: Lass mich noch was ergänzen, David: Man kann das nicht einfach wegtrainieren. Training reicht in manchen Fällen, aber nicht immer.
Ein wichtiger Teil meiner Forschung ist: Wie gehen wir mit der Ambivalenz gegenüber KI um? Mit Ambivalenz meine ich gemischte Gefühle oder Gedanken – sich gleichzeitig zu freuen und Sorgen zu machen.
Fast alle empfinden so, das bremst die Einführung aus und reine Tool-Trainings helfen da wenig. Aber man kann Räume schaffen, in denen diese Ambivalenz ausgesprochen wird – und das senkt die Hürde für die Annahme neuer Tools enorm. Wenn Teams diese Identitätsveränderung besprechen, fällt die Barriere und das Engagement steigt.
David Rice: Manche sagen ja, das mühselige Hocharbeiten in der Karriere war früher ineffizient. Sam Altman meinte, ein Mensch brauche 20 Jahre Nahrung, was so viel Energie verbraucht wie ein KI-Prompt.
Das Argument: Die Mühen früherer Arbeitsschritte fielen weg und man könne schneller zum „eigentlich Wertvollen“ kommen. Was sagt die Psychologie dazu, warum das Durchleiden von Schwierigkeiten eine Art Selbstvertrauen aufbaut, das man nicht einfach geschenkt bekommen kann?
Rachel Wood: Betrachten wir das mal am Beispiel der Karriereleiter. Du bist frisch von der Uni, dein erster Job: Du holst Kaffee, faxt Dokumente, kaufst Donuts für’s Team. Es scheint nichts mit deiner eigentlichen Tätigkeit zu tun zu haben. Aber dabei lernst du unbewusst, wie die Branche funktioniert, wie Führungskräfte mit Problemen umgehen, du siehst die Abläufe.
Wenn das wegfällt – wenn Rollen entfallen, KI das übernimmt – fehlt Berufsanfänger:innen ein wichtiger Teil für spätere Führungsqualitäten. Dann fehlt die Erfahrung, die Wertschätzung, das Wissen, wie man den Laden später selbst führt. Das Überspringen bedeutet also: Man verpasst einiges.
David Rice: Genau das fehlt in der Effizienzdiskussion. Niemand fordert Ineffizienz um ihrer selbst willen. Die wirklich ehrlichen Führungskräfte geben zu: Sie vertrauen sich, weil sie oft genug falsch lagen, um zu wissen, wie sich richtig anfühlt.
Man kann das nicht abkürzen oder downloaden. Es geht nicht nur um Fähigkeiten und Selbstbewusstsein, sondern trifft Identität. Für viele ist das eine Identitätskrise. Die, die sich mit KI wohlfühlen, zeichnen sich durch bestimmte Eigenschaften aus. Welche sind das?
Rachel Wood: Lass mich dazu etwas ergänzen. Du hast es schön gesagt: Wissen plus Erfahrung. KI hat Wissen ohne Erfahrung.
Wenn KI etwas falsch macht, hat sie keinen internen Anlass zur Umkehr – sie versucht nur, dem Benutzer gefällig zu sein. Wir lernen aber durch Fehler: Wir wachsen, entschuldigen uns, werden bescheidener, erleben Scham. Das Zusammenspiel von Wissen & Erfahrung ist entscheidend für Führungskraft-Entwicklung, und das hat KI nicht.
Was die Identität betrifft: Unsere berufliche Identität ist ein zentraler Teil unseres Selbst. Wir verbringen viel Zeit bei der Arbeit, investieren Energie und Bildung in unseren Beruf. Unsere Identität fußt auf dem, was wir beruflich sind.
Wenn das jetzt durch KI erschüttert wird, bricht nicht nur ein fachliches Standbein weg, sondern auch Bedeutung und Sinn – und das ist ein grundlegender Antrieb des Lebens. Ist das gestört, müssen wir nicht nur einen neuen Skill lernen, sondern unseren Platz in der Welt neu finden.
David Rice: Ich sprach neulich mit einer Führungskraft, die beobachtete, wie Senior Engineers reagierten, wenn Juniors durch KI einen Großteil ihrer Arbeit erledigen ließen.
Sie sagte: Es ist kein Skill-Problem, sondern Identitätsproblem. Etwas, das sie jahrelang meisterten, wird plötzlich per KI nachgebildet. Dafür gibt es noch keinen Begriff, aber es löst bei uns eine Art Existenzkrise aus. Scham ist letztlich ein Motivator – denn wir haben alle schon Fehler gemacht und darunter gelitten. KI hingegen kennt diese Krise nicht. Aber in diesem Gefühl liegt unser besonderer Wert, unser Beitrag.
Rachel Wood: Absolut. Wir werden durch Misserfolg motiviert – das ist etwas Gutes, denn wir lernen daraus, wachsen weiter. Ein anderes Beispiel: Angenommen, eine Kreditbearbeiterin – ihr Job kann plötzlich über Nacht von KI übernommen werden. Die eine Aufgabe, die ihr Sinn gab, ist weg. Sie stellt sich dann innerlich die Sinnfrage, vielleicht muss sie sich neu erfinden, was anstrengend ist. Es ist faszinierend, die psychologischen Folgen zu beleuchten, wenn Expertise automatisiert wird.
David Rice: Deine Expertise kann ersetzt werden, aber deine Erfahrung nicht.
Das ist der Punkt: Wie kann ich Mehrwert durch meine Erfahrung schaffen? Wenn ich das herausfinde, finde ich auch die passenden Aufgaben und Erlebnisse für meine Entwicklung. Organisationen behandeln das im Moment wie ein reines „Reskilling“-Thema – dabei ist es mindestens zur Hälfte eine Trauerbearbeitung. Menschen trauern um ein berufliches Selbstbild, das es vielleicht nie wieder geben wird.
Rachel Wood: Genau das ist es, David. Deshalb brauchen Unternehmen psychologisch geschulte Menschen am Tisch für KI-Initiativen. Es geht nicht nur um Skills, sondern um eine Form von Verlust und Trauer, wenn die eigene Expertise wegfällt, sich verschiebt oder sich auflöst. Lernen mit KI heißt, die künftige berufliche Identität neu zu entwerfen – und das sollte integraler Bestandteil sein.
Dabei müssen wir lernen, mit KI so zusammenzuarbeiten, dass wir transformieren, ohne unsere Kompetenzen aufzugeben, sondern zur nächsten Stufe berufsbezogener Entwicklung wachsen.
David Rice: Wenn du Personalchef oder Geschäftsführerin bist, ist dir vielleicht zunächst nicht bewusst, was unter der Oberfläche passiert, wenn neue Technik eingeführt wird. Aber du merkst an Teamstimmungen, dass es nicht Widerstand gegen Veränderung ist, sondern Verarbeitung eines Verlusts von Aufgaben oder von gewachsener Identität.
Was tun wir dagegen? Man kann das Ringen nicht einfach erhalten und Menschen darin sitzen lassen.
Rachel Wood: Sehr wichtig ist hier: Vielleicht meiden Führungskräfte diese Themen, weil sie befürchten, das Fass aufzumachen und von Gefühlen überwältigt zu werden. Aber das Gegenteil ist der Fall: Wenn man strukturierte Gespräche etabliert, in denen Trauer und Ambivalenz offen benannt werden, erleben Teams Erleichterung – sie sehen: Ich bin nicht allein, das ist normal.
Anstatt die Emotionen als Hindernis wegzudrücken, benennen wir sie – und sie werden leichter. Nicht dass sie ganz verschwinden, aber die Energie, die bisher dafür aufgebraucht wurde, wird frei – und dann ist mehr Raum, um voranzukommen. Es kostet langfristig mehr, die Gefühle zu ignorieren, als sie offenzulegen.
David Rice: Man kann produktives Ringen nicht vermeiden – Arbeit muss sich nach Arbeit anfühlen. Fühlen Menschen sich, als automatisierten sie sich selbst weg, wächst Angst oder Depression über die Zukunft.
Organisationen sollten produktive Herausforderungen gezielt erhalten und Lerngelegenheiten schaffen, um Urteilsvermögen zu trainieren. Der schmale Grat ist, Entwicklung zu fördern, aber Druck zu vermeiden. Wie erkennen Führungskräfte die Balance?
Rachel Wood: Führungskräfte sind heute massiv gefordert, Teams bei der Identitätsverschiebung zu begleiten. Wird diese Arbeit aktiv angegangen – und das ist ein Prozess – öffnet dies den Zugang für weitere produktive Aufgaben und Lernerfahrungen. Viele wollen den Schmerz umgehen, aber das klappt nicht: Die Themen holen einen immer ein. Am besten: Kopf voraus, jemanden holen, der solche Gespräche moderiert – dann kommt die Entwicklung umso schneller voran.
David Rice: Ich glaube, das ist wichtig zu hören. Manche Führungskräfte denken jetzt vielleicht, sie müssten absichtlich Hürden einbauen, ohne ihre Leute ausbrennen zu lassen – das klingt unmöglich!
Aber letztlich geht es um Absicht: Wissen, welche Erfahrung erhalten bleiben soll und warum. Es geht nicht darum, künstlich Hürden aufzubauen. Wir hatten Bob Sutton im Podcast, er schrieb „The Friction Project“ – es gibt gute Reibung, die bestehen bleiben muss. Und du hast viel darüber nachgedacht, wie KI hier selbst Teil der Lösung sein kann.
Rachel Wood: Wenn wir praktisch werden: Was sind die nächsten Schritte?
Für die Führungskraft, die jetzt zuhört: Fangen Sie bei sich selbst an. Was denken Sie über KI, was hält Sie nachts wach? Haben Sie Sorge, Arbeitsprozesse umstellen zu müssen, betrifft es Ihr eigenes Tätigkeitsfeld, nutzen Sie KI selbst oder sind Sie noch zurückhaltend? Schreiben Sie Ihre Bedenken und Hoffnungen auf und reflektieren Sie zunächst für sich, bevor Sie Ihr Team begleiten.
David Rice: Du hast das schöne Framework: KI als Übungsfeld für Beziehung, nicht als Ersatz. Wir haben viele Risiken der Technologie besprochen, aber wie sieht das konkret aus: Nehmen wir an, eine Führungskraft hat ein schwieriges Gespräch vor sich – wie kann sie KI praktisch nutzen?
Rachel Wood: Das ist genau mein Thema! Wir wissen: Emotionale Intelligenz und zwischenmenschliche Kommunikation sind Kernkompetenzen für Unternehmen. Doch wie trainiert man das?
Hier kommt KI ins Spiel, z. B. für Rollenspiele: Steht ein schwieriges Gespräch bevor, kann man in den Chatbot eingeben: „Hier ist die Situation mit meiner Mitarbeiterin X, bitte spiele mit mir das Gespräch durch, zeig mir meine blinden Flecken, hilf mir, besser zuzuhören und diese Unterhaltung zum Erfolg zu führen.“
Im Dialog mit dem Bot entdeckt man neue Aspekte, gewinnt Sicherheit und Einsichten, die dem echten Gespräch helfen. Mein Framework: KI als Probe-Bühne, nicht als Ersatz – das hilft Teams und Kommunikation praktisch weiter.
David Rice: Genau. Ich sehe, das kommt vermehrt auf, und die Leute brauchen Erlaubnis, die Tools auch so einzusetzen.
Derzeit nutzen viele KI bloß, um Zusammenfassungen und Automatisierung zu erzeugen. Was du beschreibst, ist ein anderer Umgang – nicht, KI macht die Arbeit, sondern sie verbessert die Fähigkeit, die nur der Mensch leisten kann. Das ist der eigentliche Sprung, den die wenigsten Organisationen schon hinbekommen haben.
Man kann damit Gespräche persönlicher machen, komplexe Formulierungen üben, Grenzen definieren usw. – das kann sehr wirkungsvoll sein.
Rachel Wood: Absolut! Zum Beispiel für Vertriebsteams: Lass den Chatbot deine Verkaufsgespräche proben – scheitere erst mal 20 Mal ohne echte Konsequenzen!
Es gibt unendlich viele Rollenspiel-Anwendungsfälle, um reale Gespräche mit KI zu üben.
David Rice: Wir haben kürzlich mit Taylor Blake gesprochen, der in seinem Unternehmen genau solche Trainingsszenarien entwickelt. Das war ja immer das Versprechen: Dass KI neue Denkansätze ermöglicht.
Rachel Wood: Exakt. Du hast angesprochen, dass die Leute Erlaubnis brauchen, KI einzusetzen. Die Forschung zeigt: Entscheidend ist eine KI-Richtlinie im Unternehmen – sie muss nicht aufwendig sein. Sobald sie existiert, steigen Akzeptanz und Nutzung bei den Mitarbeitenden. Fehlt sie, nutzen sie KI weniger oder nur heimlich.
David Rice: Definitiv, KI-Richtlinie. Ich habe jüngst auf der Konferenz gedacht: Jeder hat eine Vergütungspolitik – aber wo ist die KI-Philosophie?
Was für Verhalten sollen gefördert werden, wie werden sie anerkannt? Wie soll die Haltung zur Technologie sein – und worauf kommt es an? All das muss viel genauer definiert werden, damit wir das Potenzial wirklich ausschöpfen.
Rachel Wood: Genau. Das ist eine richtig spannende neue Grenze. Man merkt, wie bei uns die Begeisterung steigt – es gibt tolle neue Möglichkeiten! Man muss sich durch manche Bedenken durcharbeiten und kann dann richtig profitieren – für Unternehmen und Einzelne gleichermaßen.
David Rice: Ja, wir sollten mehr mit einem halb vollen Glas draufblicken, oder?
Rachel Wood: Und experimentieren! Keine Angst haben, KI-Tools in unterschiedlichster Weise auszuprobieren und zu schauen, was funktioniert.
David Rice: Interessant ist ja: Du arbeitest an der Schnittstelle von KI und Mental Health – ist die Veränderungsgeschwindigkeit momentan schneller als es die menschliche Psyche chronisch verarbeiten kann, oder sind wir widerstandsfähiger als wir annehmen? Denn alle klagen über Veränderungsmüdigkeit.
Rachel Wood: Ja, David. Ich arbeite wirklich Tag für Tag in diesem Feld und komme selbst kaum nach. Es ist enorm viel, das kann überfordernd wirken – deshalb: Such dir einige wenige Sachen aus, mit denen du experimentierst. Denn das Tempo ist so hoch, dass sich alles in Tagen, Wochen oder wenigen Monaten verändert.
David Rice: Das ist ein guter Abschluss für unser Gespräch. Manchmal wirke ich vielleicht anti-KI, aber eigentlich stört mich nur, wie wir gerade damit umgehen.
Wir müssen den menschlichen Entwicklungsaspekt schützen, über die gesellschaftlichen Auswirkungen nachdenken – nicht jedes Einsatzfeld ist automatisch sinnvoll. Auch den Energieverbrauch jedes Prompts sollte man im Hinterkopf behalten. Wenn Führungskräfte aus diesem Gespräch eines mitnehmen: Der Kampf ist kein Hindernis. Solche philosophischen Gespräche sind kein Hindernis, sondern der Raum, in dem Wachstum entsteht.
Deine Aufgabe als Führungskraft ist, den Zugang dazu zu sichern und die Entwicklung des Teams aktiv zu unterstützen. Genau das ist mein Ansatz und meine Überzeugung.
Rachel Wood: Genau so sehe ich es auch, David. Das ist der Weg nach vorne. Danach können wir KI produktiv einsetzen und dabei unsere kritischen Denkfähigkeiten, Autonomie und Handlungsmacht bewahren. Darüber zu sprechen, bringt uns letztlich weiter in der Nutzung.
David Rice: Rachel, es war großartig, dich in der Sendung zu haben.
Rachel Wood: Ja, es hat mir viel Spaß gemacht. Ich bin sehr dankbar, mit dir darüber sprechen zu dürfen.
David Rice: Absolut.
Liebe Hörer:innen, wenn Sie es nicht schon getan haben, schauen Sie auf unserer Webseite peoplemanagingpeople.com/subscribe vorbei und melden Sie sich für den Newsletter an – so bekommen Sie den Podcast und alle unsere Inhalte direkt in Ihr Postfach.
Bis zum nächsten Mal: Steigen Sie wirklich ein, gehen Sie philosophisch an die Sache heran, haben Sie Spaß daran – und stellen Sie die schwierigen Fragen!
