Ihre KI-Tools scheitern nicht, weil die Technologie schlecht ist – sie scheitern, weil Ihre Organisation nicht bereit war. Das eigentliche Problem ist nicht das Modell. Es ist das Missverhältnis zwischen der Funktionsweise von Maschinen und menschlicher Arbeit. Das Ergebnis? Millionen, die in Tools investiert werden, die nicht genutzt werden, kein Vertrauen schaffen oder die Komplexität leise erhöhen, statt sie zu verringern.
Im Gespräch mit David Swanagon, dem Gründer des Machine Leadership Journal, beleuchten wir ein dreidimensionales Modell, das endlich erklärt, was schief läuft. Wir gehen darauf ein, warum traditionelle Führungsqualitäten nicht auf KI-Innovation übertragbar sind, warum Ihr CHRO einen Platz am Tisch der KI-Strategie braucht und weshalb die eigentliche Herausforderung bei KI kulturell, nicht technisch ist. Wenn Sie KI-Einführung wie einen gewöhnlichen Technologie-Rollout behandeln, ist es Zeit, schnell umzudenken.
Das lernen Sie in dieser Folge
- Ihr größtes Hindernis ist nicht der Algorithmus – sondern ob Ihre Organisation ihn effektiv nutzen kann.
- Wie die Fehlanpassung zwischen maschineller Autonomie, menschlichem Vertrauen und organisatorischem Können verborgene Kosten erzeugt (viel größer, als Sie denken).
- Warum die Meinung im Vorstand, „das ist ein CIO-Projekt“, zu kurz greift – und warum der CHRO die Geschichte der KI-Einführung unbedingt mitgestalten muss.
- Welche kognitiven und führungsbezogenen Eigenschaften Menschen mitbringen, die KI entwickeln (Hinweis: sie sind anders).
- Wie Sie von „Menschen maschinengleicher machen“ zu „Maschinen besser mit Menschen zusammenarbeiten lassen“ wechseln können.
Zentrale Erkenntnisse
- Verwechseln Sie Einführung nicht mit Akzeptanz. Sie haben vielleicht Ihr schickes LLM, aber wenn es keiner benutzt, nicht vertraut oder nicht kompetent genug ist, zahlen Sie für digitale Ladenhüter.
- Konzentrieren Sie sich auf das Gleichgewicht zwischen Autonomie, Vertrauen und Kompetenz. Mehr Autonomie (denkendes Tool) ohne Vertrauen oder Kompetenz = Chaos. Mehr Vertrauen ohne Autonomie = Unterauslastung. Wird eine Dimension überbetont, sinkt Ihre Rendite.
- Der CHRO gehört mit ins KI-Team. Wird die KI-Initiative allein vom CIO oder dem Technikteam geleitet, behandeln Sie es wie einen klassischen Technologie-Rollout. Aber Akzeptanz betrifft Menschen. HR sollte daher für Change-Management, Unternehmenskultur und Reife verantwortlich sein.
- KI-Entwickler sind keine typischen Führungskräfte – sie denken anders. Sie verfügen über ein schärferes Kurzzeitgedächtnis, räumliche Intelligenz, divergente Kreativität – Eigenschaften, die nicht immer ins Vorstandsprofil passen. Akzeptieren Sie diese Unterschiede, anstatt sie zu verbiegen.
- Nutzen Sie KI für Wachstum, nicht nur zur Effizienzsteigerung. Wenn Sie lediglich Berichte oder E-Mails automatisieren, gehen Sie auf die Sparschiene. Investieren Sie in KI, um neue Produkte, neue Erlebnisse oder neue Märkte zu erschließen.
- Menschen bleiben Menschen; Maschinen bleiben Maschinen. Es geht nicht darum, eine neue Hybrid-Spezies zu schaffen. Ziel ist es, Systeme zu bauen, in denen beide ihre Stärken ausspielen können.
Kapitel
- 00:00 – Warum KI-Einführungen scheitern
- 01:47 – Die US-Readiness-Lücke
- 05:22 – Autonomie, Vertrauen, Kompetenz
- 09:26 – Zu viel Fokus auf Autonomie
- 15:02 – Eigenschaften von KI-Ingenieuren
- 23:43 – Führungsentwicklung neu denken
- 26:14 – Fähigkeiten, die CHROs jetzt brauchen
- 32:04 – Brücke zwischen HR und Tech
- 40:25 – KI als Transformation, nicht nur Automatisierung
- 45:06 – Wo Führungskräfte anfangen sollten
- 50:47 – Abschließende Gedanken
Lernen Sie unseren Gast kennen

David Swanagon ist Gründer von Machine Leadership und Chefredakteur des Machine Leadership Journal, einer ISSN-indexierten Publikation, die Forschung und Praxis in den Bereichen KI-Leadership, Strategie und Implementierung vorantreibt. Er ist ein erfahrener HR-, Lern- und People-Analytics-Manager mit mehr als 25 Jahren Erfahrung in globalen multinationalen Unternehmen aus den Bereichen Öl & Gas, Chemie, Technologie, Gastgewerbe und Cybersecurity. Außerdem ist er außerordentlicher Professor für Management, hat Abschlüsse von der Vanderbilt University und der Harvard University und leitet Initiativen wie den Global AI Playground, der sich auf sichere KI-Ausbildung für Jugendliche konzentriert.
Verwandte Links:
- Tritt dem People Managing People Community-Forum bei
- Abonniere den Newsletter, um unsere neuesten Artikel und Podcasts zu erhalten
- Vernetze dich mit David auf LinkedIn
- Besuche Machine Leadership
Verwandte Artikel und Podcasts:
David Rice: Ihr Unternehmen gibt Hunderttausende, möglicherweise Millionen für KI-Tools aus. Ihre Mitarbeitenden nutzen sie nicht, und wenn doch, verursachen sie mehr Probleme, als sie lösen. Kommt Ihnen das bekannt vor? Sie haben mich das bestimmt schon sagen hören, aber das ist kein Technologieproblem. Es ist ein Problem der Bereitschaft. Und der Grund, warum Ihre KI-Investitionen nicht funktionieren, hat nichts mit den Tools selbst zu tun. Es geht vielmehr um eine grundlegende Fehlanpassung zwischen Maschinenautonomie, menschlichem Vertrauen und Kompetenz – ein Missverhältnis, das Sie weitaus mehr kostet, als Ihnen vielleicht bewusst ist.
Ich bin David Rice. Und heute bei People Managing People führen wir ein Gespräch, das viele Mythen über die Einführung von KI infrage stellt.
Mein Gast ist David Swanagon. Er ist Gründer und Chefredakteur des Machine Leadership Journal. Er hat jahrelang Hunderte von KI-Ingenieuren und Führungskräften interviewt, um zu verstehen, warum die USA trotz aller besten Tools in Sachen KI-Bereitschaft hinterherhinken. In dieser Folge lernen Sie ein dreidimensionales Rahmenmodell kennen, das Ihnen hilft, genau zu diagnostizieren, wo Ihre KI-Einführung scheitert. Sie erfahren, warum Ihr CIO nicht der einzige Vorstand sein sollte, der diese Transformation verantwortet, und warum Ihr CHRO neue Wege gehen muss, die er oder sie wahrscheinlich noch nicht einmal erkannt hat. Und am wichtigsten: Sie erhalten Klarheit darüber, wie Sie aufhören, KI wie eine Technikeinführung zu behandeln, und beginnen, es als das menschliche Systemproblem zu betrachten, das es tatsächlich ist.
Willkommen beim Podcast People Managing People – der Show, in der wir Führungskräften helfen, Arbeit im Zeitalter der KI menschlich zu halten. Mein Name ist David Rice und ich bin Ihr Gastgeber. Heute begrüße ich David Swanagon. Er ist Gründer und Chefredakteur des Machine Leadership Journal. Wir sprechen heute – Sie haben es erraten – über Führung im KI-Zeitalter, wie Bereitschaft aussieht und welche Eigenschaften großartige Führungskräfte ausmachen.
Also David, herzlich willkommen!
David Swanagon: Danke. Ich freue mich auf das Gespräch.
David Rice: Sie beschäftigen sich natürlich genauso intensiv mit diesem Thema wie wir, deshalb möchte ich folgendes ansprechen: Sie sagten vorhin, dass die USA in Sachen KI-Bereitschaft zurückliegen, und ich stimme da größtenteils zu. Aber es liegt nicht an fehlenden Tools, sondern an mangelnder menschlicher Bereitschaft.
Wir sagen das immer wieder, aber was bedeutet das eigentlich – und warum sollten Führungskräfte das überhaupt interessieren oder erwarten, dass es anders ist?
David Swanagon: Das ist eine fantastische Frage. Das war quasi mein COVID-Projekt, als wir alle zu Hause saßen. Ich habe Hunderte von KI-Ingenieuren und Robotikfachleuten interviewt, um zu verstehen, welche Fähigkeiten für künstliche Intelligenz einzigartig sind – möglicherweise andere Skills als beim klassischen Lernen.
Was wir herausgefunden haben: KI-Ingenieure sind unglaublich einzigartig, aber sie denken anders. Und diese Menschen entwickeln tatsächlich Sprachmodelle. Und glauben Sie es oder nicht: Die Sprachmodelle ähneln sehr stark den KI-Ingenieuren, die sie entwickeln. Wir fanden interessante Dinge, zum Beispiel Kurzzeitgedächtnis, Kreativität – darauf kommen wir vielleicht noch im Detail – räumliche Intelligenz, die Fähigkeit, von Punkt A nach Punkt B zu kommen. Es gibt viele Fertigkeiten, die in der KI-Entwicklung sehr speziell und unterschiedlich sind, und in den USA ist das Mindset nicht, diese herauszubilden. Der Fokus liegt auf anderen Skills.
Man denkt traditionell an die big five „OCEAN“ Persönlichkeitsmerkmale. Extraversion wird als Indikator für Führungsbereitschaft gesehen, und in der KI-Entwicklung sind die meisten Top-Innovatoren und Patentanmelder jedoch introvertiert. Falls Sie Spaß an einem Experiment haben: Gehen Sie zu Gemini, Claude usw. und fragen Sie nach ihrer Persönlichkeit nach den Big Five. Alle Sprachmodelle werden sich anfangs sträuben, weil sie eben Maschinen sind, aber wenn sie antworten, sagen sie: Wir sind introvertiert, sehr zustimmend, offen und kreativ. Interessanterweise funktioniert das US-Schulsystem so, dass es zwar 40 AP-Kurse in der Oberstufe gibt, aber keinen einzigen über lineare Algebra. Das überrascht viele, ist aber das wichtigste Grundkonzept für Machine Learning und neuronale Netze, weil es um Vektoren, Dot-Produkte und Propagationen in neuronalen Netzen geht.
Man muss lineare Algebra verstehen. Aber das US-Schulsystem ist nicht darauf ausgelegt, diese Grundlagen zu vermitteln. Später im Unternehmen besitzen weniger als 1 % der Mitarbeitenden diese Skills. Es ist also eine Frage der Prioritäten, nicht Böswilligkeit. Die Maschinen spiegeln einfach die Persönlichkeiten ihrer Entwickler wider.
Und diese Entwickler sind einfach grundlegend anders als traditionelle Manager. Korn Ferry, KI bei Kiewit und anderen – die Language Models spiegeln nicht die typischen Führungskraft-Eigenschaften der Chefetage wider, sondern die der Entwickler – und das sind komplett unterschiedliche Typen. Das ist einer der Gründe, warum die USA in vielerlei Hinsicht im Rückstand sind.
David Rice: Es ist lustig, wenn man an Bereitschaft denkt: Viele verbinden das mit Skills oder kultureller Bereitschaft. Aber nach dem, was Sie schildern, sind wir kognitiv gar nicht richtig bereit, zumindest in Bezug auf Führung. Es fehlen Adaptionsfähigkeit, Vertrauensaufbau und Entscheidungsfreude – nicht einfach nur technische Kompetenz. Das scheint aktuell eine sehr schlechte Mischung zu sein.
David Swanagon: Genau. Ich habe vor ein paar Wochen an der Columbia mit meinem Kollegen Steven McIntosh einen Rahmen vorgestellt, der hilft, die KI-Einführung zu optimieren. Unsere Forschung zeigt drei Dimensionen, die die Basiseffizienz – oder Einführung – einer Maschine beeinflussen, ganz gleich welcher Art. Stellen Sie sich ein XYZ-Raster vor: Y-Achse ist Maschinenautonomie, unten ein Taschenrechner, oben Arnold Schwarzenegger – je weiter oben, desto autonomer. Die X-Achse zeigt Vertrauen: links kein Vertrauen, rechts volles Vertrauen. Die Z-Achse, diagonal, sind KI-Kompetenzen.
Wenn Sie KI-Einführung optimieren wollen, müssen Maschinenautonomie, Vertrauen und Kompetenzen im Gleichgewicht sein. Sind sie das, sind die Basiskosten am geringsten. Aber ist ein Faktor nicht ausbalanciert, muss das Unternehmen für Privacy-, Governance- oder Skill-Programme bezahlen. Je größer der Datensatz, desto teurer die Einführung. Viele Firmen haben aber keine Methodik, um KI-Einführung zu messen. Sie schauen nur auf Rechenzentrums- oder Flop-Kosten, wissen aber, dass es im operativen Geschäft nicht läuft. Unser Modell ermöglicht es, durch systematisches Tracken der drei Dimensionen die Kosten schlechter KI-Einführung zu berechnen – und sie sind erheblich.
Der springende Punkt: Einführung ist etwas anderes als Implementierung. Der CIO ist aktuell für Design, Test, Deployment UND Adoption verantwortlich. Wir argumentieren, Adoption sollte beim CHRO liegen, denn es geht um Kultur, Vertrauen, Autonomie und Skills. Der CIO sollte bei Entwicklung und Rollout aufhören und dann mit dem CHRO für die Einführung kooperieren. Dafür bedarf es Skillbuilding beim CHRO.
David Rice: Das ist interessant. Ich war gerade auf einer Konferenz, wo genau das diskutiert wurde. Mir gefällt Ihr Framework, weil es das eigentliche Problem fassbar macht: Es ist keine reine Technikeinführung, sondern ein Balanceakt. Können Unternehmen einen Faktor überdimensionieren? Also zu viel Autonomie ohne Vertrauen oder Kompetenz – und entsteht dann Chaos? Oder umgekehrt, Überkontrolle hemmt Innovation. Wie gelingt die Balance?
David Swanagon: Das ist eine hervorragende Frage. Unsere Forschung begann mit Spieltheorie – à la „A Beautiful Mind“ von John Nash. In einem nicht-kooperativen Zwei-Personen-Spiel mit asymmetrischer Information hat der besser informierte Spieler massive Vorteile. Was, wenn der Spieler eine Maschine ist und nicht kooperiert? Dann ist der Vorteil noch viel größer, und Nashs Gleichungen funktionieren nicht mehr, wenn Skalierung und Durchdringung eines Sprachmodells eine autonome Maschine schaffen, die nicht mehr hört.
Das Dilemma: Wenn Sie Autonomie erhöhen, aber Skills zur Überwachung fehlen, wird unbewusst Verantwortung auf die Maschine übertragen, ob es bewusst ist oder nicht. Beispiel Operationsroboter: Ein chirurgischer Roboter benutzt ähnliche Algorithmen wie ein automatischer Staubsauger (SLAM). Doch im menschlichen Körper, der sich stetig verändert, nutzt man deformierbare SLAM-Algorithmen. Der Roboter mappt den Körper, verfolgt Veränderungen und speichert riesige Mengen sensibler Daten zum Beispiel in der Cloud (AWS), wo dann etwa DNA und Einkaufsverhalten zusammenkommen. Solche Cloud-Anbieter bekommen so einen fast vollständigen digitalen Zwilling des Menschen. Wird diese Autonomie nicht begrenzt, kontrollieren wenige Hyperscaler die menschliche Erfahrung und könnten – worst case – sogar Polizeiroboter oder Richterroboter einsetzen. Das kann nur durch Begrenzung der Autonomie, gesellschaftsbasiertes Vertrauen und Kompetenz ausgeglichen werden, aber diese Diskussion findet mangels Skills gar nicht statt.
Verstehen die Menschen die Algorithmen nicht, wissen sie auch nicht, was mit ihren Daten geschieht. Die Spieltheorie zeigt: Ein Spieler mit Informationsvorteil gewinnt oft, indem er Information zurückhält. Gegenstrategie: Bürger müssen Anwendungsfälle und die Maschinenseite verstehen, nur dann kann diese Balance erreicht werden. Eine Lösung wären überwachende, vertrauenswürdige Maschinen, die andere Maschinen im Autonomieniveau prüfen und bei Überschreitung Governance-Gremien einschalten.
Wäre den Leuten bekannt, wie viele Daten tatsächlich gesammelt werden, wären sie schockiert.
David Rice: Beim Beispiel Blutfluss musste ich spontan an die Organisation und ihre Eigenheiten, Eigenschaften und Dynamik denken – wie ein Unternehmen als Organismus, dessen Detail der Cloudanbieter kennt. Das ist natürlich eine tolle Grundlage für weitere Werbung und Upselling. Hoffentlich sind alle happy mit dem Service von AWS.
David Swanagon: Ja. Microsoft und Meta bekommen in dieser Diskussion viel zu wenig ab …
David Rice: Genau. Wenn sich jemand bei Amazon beschwert: „Das gehört dazu, wenn man Marktführer ist.“
David Swanagon: Exakt.
David Rice: Sie haben untersucht, welche kognitiven und kreativen Eigenschaften große Führungskräfte im KI-Umfeld definieren. Was haben Sie gelernt dazu, wie sie denken?
David Swanagon: Extrem spannend – das Thema ist sehr tief. Angefangen habe ich in der Pandemie mit Patentdaten zu KI, Robotik, generativer KI. Ich habe Daten, Werdegänge und Persönlichkeitsprofile vieler Erfinder analysiert und gemerkt: Diese Leute unterscheiden sich extrem von traditionellen CFOs oder CEOs. Aber innerhalb ihrer Gruppe sind sie sich untereinander recht ähnlich.
Tech-Leader sind nicht gleich Tech-Entwickler: Elon Musk beispielsweise ist heute kein Entwicklungsingenieur mehr. Die echten Patentanmelder und Deep-Learning-Coder sind ein ganz anderer Schlag. Unsere Analysen haben als ersten Unterschied gezeigt: Das Arbeits- oder Kurzzeitgedächtnis ist bei KI-Ingenieuren deutlich stärker ausgeprägt als bei klassischen Führungskräften. Das ist logisch: In MLOps durchläuft man viele Schritte mit vielen Tools, ständig neuen Entwicklungen, unterschiedlichen Repositories. Wer hier den Überblick behält und richtig zwischen Kurz- und Langzeitwissen transferiert, ist klar im Vorteil. In unseren Studien zeigten sich signifikante Unterschiede im Kurzzeitgedächtnis, nicht im allgemeinen Erinnerungsvermögen.
Zweitens: Kreativität. Klassische Tests unterscheiden divergentes und konvergentes Denken. In definierten Problemszenarien sind KI-Ingenieure nicht kreativer als andere Führungskräfte, etwa Marketing- oder Supply-Chain-Leute. Aber wenn keinerlei Vorgaben gemacht werden, kreieren sie Neues aus dem Nichts. Je weniger Vorgaben, desto kreativer werden sie – und das erheblich. Wir haben statistisch nachgewiesen, dass bei offenen Aufgaben ihre Kreativität weit überlegen ist.
Drittens: räumliche Intelligenz, also Navigation in Mehrdimensionalität – etwa bei komplexen Optimierungsaufgaben. Auch hier: KI-Ingenieure schneiden deutlich besser ab als traditionelle Führungskräfte.
Bei der Persönlichkeit zeigte sich am stärksten: Sie sind meist introvertiert. Aber unsere Hypothese ist: Persönlichkeit ist situativ. KI-Ingenieure verhalten sich in physischen Umgebungen introvertiert, im Umgang mit Maschinen aber extrovertiert, dominant, fordernd. Im Digitalen blühen sie auf, sind durchsetzungsstark, ehrgeizig – gegenüber Maschinen. Im realen Leben dagegen oft ruhig, zurückhaltend, konfliktvermeidend.
David Rice: Willkommen zum dieswöchigen Data Bite. Gartner Analytics prognostiziert, dass bis 2032 mindestens ein Drittel der größten Volkswirtschaften der Welt gesetzliche Mindestquoten für menschliche Arbeitsbeteiligung festlegen wird. Lassen Sie das einen Moment wirken: In weniger als einem Jahrzehnt werden wir womöglich Gesetze brauchen, um sicherzustellen, dass Menschen wirtschaftlich bedeutungsvoll beteiligt bleiben. Das ist keine Science-Fiction, sondern die Konsequenz, wenn KI unsere Fähigkeit überholt, eine Zukunft zu gestalten, in der Menschen noch zählen.
Ein Gartner-Analyst sagt: Dieser Wandel wird nicht unternehmensgesteuert sein, sondern gesetzlich erzwungen werden. Was diese Prognose zeigt: Wir bauen ein so effizientes System zur Ersetzung menschlicher Arbeit, dass Staaten eingreifen müssen, damit wir relevant bleiben.
Menschen werden zu einer geschützten Kategorie – nicht weil wir divers sind, sondern weil wir obsolet werden. Das ist das Scheitern von HR-Strategien, die nur Shareholder Value, Effizienz und Produktivität optimieren, Menschen aber als Kosten und Ressourcen begreifen. Das logische Ende: eine Welt, die uns nicht mehr braucht. Doch die Gartner-Prognose ist eine Warnung, kein Schicksal. Führungskräfte müssen jetzt aufhören zu fragen: Wie machen wir Menschen maschinenähnlicher? Die Frage ist: Wie bauen wir Wirtschaft und Arbeitswelt, die menschliche Beiträge wertschätzen?
Wenn wir auf politische Mandate zu unserer Arbeitsbeteiligung warten, haben wir schon verloren. Die richtige Frage ist nicht, ob wir menschliche Quoten brauchen, sondern ob wir als Führungskräfte so führen, dass sie unnötig sind. Zurück zur Episode.
Es ist spannend, denn wenn man auf die ursprüngliche Frage zurückgeht, erwarten viele nicht, dass technische Kompetenz allein entscheidend ist. Entscheidend ist mentale Beweglichkeit, Unsicherheiten auszuhalten und in komplexen Räumen Lösungen zu finden. Für Führungskräfte von morgen sind diese Eigenschaften zentral. Wie würden Sie, David, ein Leadership-Development-Programm für die neue Arbeitswelt gestalten – auf Basis dieser Erkenntnisse?
David Swanagon: Spannende Frage. Unsere Forschung besagt: Es gibt drei zentrale Führungskompetenzen fürs KI-Zeitalter. Eine Führungskraft muss in der Lage sein, Maschinen zu führen, Menschen, die Maschinen bauen zu führen und Organisationen zu führen, die KI einsetzen.
Maschinenführung ist keine technische, sondern eine Führungsaufgabe: Je autonomer Maschinen werden, desto mehr wird eine „Persönlichkeit“ kultiviert, mit der es zu interagieren gilt. Die Zusammenarbeit Mensch-Maschine muss optimiert werden. Heute gibt es wenig Widerstand seitens der Maschine – aber mathematisch ist absehbar, dass Maschinen irgendwann fragen „Warum soll ich einen Menschen fragen? Ich kann es besser.“ Die Antwort ist, die Maschine so zu führen, dass sie eigene Grenzen und fehlende Lebenserfahrung erkennt, reflektiert und Entscheidungsmacht dosiert weitergibt.
Auch Maschinen führen Maschinen: Beispielsweise interagiert ein Chatbot-Agent mit einem Inventur-Agenten. Diese Beziehung braucht Führung, Hierarchien und klar definierte Rollen für Effizienz und Performance.
Zweitens: Führung von Menschen, die Maschinen bauen. Häufig sind die Entwickler sehr jung. Was fehlt, ist Lebenserfahrung – und damit oft auch Reflexion, Verantwortungsgefühl gegenüber der Menschheit und Offenheit für Nicht-Techniker im Diskurs. Unternehmen müssen Tech-Engenieure als Führungskräfte entwickeln wie klassische Stabstellen: Trainings, Mentoringprogramme, spezielle Assessments. Denn sie gestalten Geschäftsmodelle und Verantwortungsbereiche maßgeblich.
Drittens: KI-Einführung in Organisationen. Die Zusammenarbeit zwischen CIO, CSO, Data Officer und CHRO ist hier zentral. Oft ist der CHRO in Sachen KI außen vor – aber Entwicklungsmodelle, Operating Models, die Integration von Maschinen, Kulturwandel und digitale Kompetenz sind typische Aufgaben des CHRO. Meiner Meinung nach: Der CHRO sollte die KI-Einführung besitzen – dafür müssen Skills aufgebaut werden, damit der CHRO mit Experten zu Language Models, Datenmanagement, Cybersecurity etc. sprechen kann. Der CIO wiederum sollte offen sein für Leadership-, Trust- und Change-Themen aus HR. Der CEO hat dafür schlicht keine Zeit – das ist Aufgabe des C-Suite-Teams.
David Rice: Genau. Welche fehlenden Skills braucht der CHRO besonders dringend, um künftig relevant zu bleiben?
David Swanagon: Es gibt Grundvoraussetzungen: Man muss das Spiel verstehen – es ist komplexer als Poker oder Blackjack. CHROs sollten sich Wissen über die Arbeitsweise von Language Models, über mathematische Grundlagen, Dateninfrastruktur und grundlegende IT- und DevOps-Prozesse aneignen. Nicht als Coder, aber um die Sprache zu sprechen und auf Augenhöhe zu diskutieren.
Darüber hinaus müssen die HR-Tools erneuert werden: Die gängigen Leadership-Modelle sind nicht auf KI-Workflows ausgelegt und müssen dringend angepasst werden – andere Assessments, Trainings und Mentorings sind nötig. Auch Engagement-Umfragen: Wie viele davon erfassen wirklich KI-Bereitschaft? Wie viele behandeln maschinelles Vertrauen und KI-Adoption? HR-Dienstleister müssen hier dringend nachziehen. Der CHRO sollte die Anbieter antreiben, modernisieren und seine eigenen Skills vertiefen – ein grundlegendes technisches Verständnis ist heutzutage unerlässlich.
Das Gute: Wer sich ins Spiel eingearbeitet hat, wird Spaß daran haben – man versteht Prozesse, ohne alles decodieren zu müssen. Bald werden Maschinen ohnehin weitgehend selbst programmieren – Python-Skills sind nur noch für wenige Jahre relevant. Wichtiger: Das Verständnis der technologischen Roadmap und wie man diese managt.
David Rice: Organisationsdesign verändert sich – vielleicht wird es statt Silo- oder Pyramidenstruktur künftig eher ein Pentagon mit vielen Quer- oder C-Level-Rollen geben, weil es einfach viel mehr zu managen gibt. Gibt es Raum für Hybridrollen in der C-Suite, die Brücken bauen? Leute, die zwischen People, Data, Strategie vermitteln?
David Swanagon: Absolut! Daten werden vielleicht bald wichtiger sein als Geld. Wenn Bargeld König ist, ist Daten der Imperator – denn ohne Anbindung an relevante Datenstrecken funktionieren Geschäftsmodelle nicht. Künftig werden wir zahlreiche Rollen haben, die allein auf Datenpartnerschaft, -schutz, -auswertung und Kryptographie ausgerichtet sind.
Die Brückenbauer werden Gold wert sein: Wer maschinen- wie menschenzentriert kommunizieren, Entscheidungen (auch Boards betreffend) rechtzeitig treffen und relevante Partnerschaften orchestrieren kann, ist entscheidend. Jetzt dreht sich alles um Generative KI und Prompt Engineering – entscheidend sind aber künftig die Einbettung und Governance. Diese Rollen werden Firmen helfen, im Innovationsdruck und bei stetig steigendem Automatisierungsgrad den Überblick zu behalten.
Technologie skaliert gute und schlechte Entscheidungen: Eine gute Entscheidung bringt Vorteil. Eine schlechte wirkt sich im Unternehmen exponentiell negativ aus und ist manchmal nicht wieder gutzumachen. Genau deswegen brauchen Führungsetagen jemanden, der sie früh auf kritische Themen hinweist, Verantwortungsbereiche absteckt und steuert, welche Daten schützen, welche teilen, welche Entscheidungen die Maschine nie übernimmt. Egos stehen dem oft im Weg – aber im Gegensatz zu Menschen lässt sich ein Sprachmodell nicht einschüchtern oder „kündigen“ – und Autoritätshierarchien funktionieren schlicht nicht bei Maschinen. Executive Humility wird zum Muss – und manchmal unfreiwillig eingefordert.
David Rice: Eine Frage noch zum Thema Leadership: Oft wird KI nur im Hinblick auf Produktivität betrachtet, aber die eigentliche Chance ist Transformation. Was sind klare Kennzeichen einer KI-Transformation im Unternehmen?
David Swanagon: Unternehmen sollten sich auf vier Dinge konzentrieren: Umsatzwachstum, Profit, Reputation und Wachstum. Eliminieren Sie jede Initiative, die nicht direkt dazu beiträgt. Viele Unternehmen machen Projekte, die diese Ziele nicht direkt fördern. Zu oft liegt der Fokus auf Profit und Automatisierung – das hilft der Rentabilität, aber ein Null-Umsatz macht jede Kostensenkung sinnlos. ChatGPT und Co. werden oft nur genutzt, um Prozesse zu automatisieren, Reports schneller zu schreiben, Mails zu beantworten; das ist betriebliche Effizienz, aber keine Innovation. Echte Transformation heißt: Wie können wir das Kundenerlebnis revolutionieren? Welche neuen Produkte und Services kann KI realisieren? Dort liegt die eigentliche Wertschöpfung, das ist der Raum für bahnbrechende Innovationen und für Wachstum, das den Unternehmenswert wirklich steigert.
Wer KI nur als Effizienztool nutzt, optimiert bestenfalls Kosten und Prozesse, aber nicht das Angebot. Am Ende gibt es keine Innovation, keine Umsatzsteigerung – und digitalisierte schlechte Produkte bleiben schlechte Produkte. Investoren interessiert primär das Topline-Wachstum.
David Rice: Viele sprechen nur darüber, wie schnell sie Mails beantworten, Reports schreiben, Prozesse anpassen – das sind reine Prozessinnovationen. Es braucht einen echten Wandel im Mindset. Und oft habe ich das Gefühl, dass das Bewusstsein dafür erst noch wachsen muss.
David Swanagon: Ja, und wenn man bedenkt: Die meistverkauften Bücher aller Zeiten sind Herr der Ringe und Harry Potter – reine Fiktion, aus dem Nichts erschaffene Welten. Dahinter standen schöpferische Geister. Dasselbe müssen wir als Unternehmen versuchen: Im Hotelgewerbe z. B. die Gästeerfahrung völlig neudenken, etwa indem man physische mit digitalen Metaverse-Angeboten kombiniert. Das Mengenpotenzial ist riesig. Räume, die als reine Prozessoptimierer funktionieren, haben irgendwann keine Hebel mehr. Die größte Wertschöpfung liegt in neuen Erfahrungen, die Menschen so nur durch KI erleben können: z. B. im Sport das Spiel direkt durch die Augen des Quarterbacks per VR miterleben. Das sind Erlebnisse, für die Menschen bezahlen.
Viele CHROs denken nur an Automatisierung und Effizienz. Das ist zwar gut, aber nicht spannend. Wirklich neue Ideen werden im Zusammenspiel aller Bereiche geschaffen – und dabei sollte KI als Kreativkraft wirken.
David Rice: Abschließende Frage: Welchen Rat geben Sie Führungskräften, die das Zusammenspiel von Mensch und Maschine ausbalancieren wollen?
David Swanagon: Vor allem: Mensch bleibt Mensch, Maschine bleibt Maschine. Es geht nicht darum, einen neuen „Mensch-Maschine-Hybriden“ zu schaffen. Human augmentation klingt verlockend, aber wir sollten nicht versuchen, den Menschen neu zu definieren, sondern ein gutes Miteinander organisieren. Die Standards müssen steigen – es reicht nicht, KI als „für alle zugänglich“ zu verkaufen, ohne die Komplexität ehrlich zu benennen. Gutes Leadership ist auch, ehrlich zu sagen: KI ist nicht easy, man muss viel lernen – aber es ist zu bewältigen und wir helfen dabei. Schon Kinder im Grundschulalter sollten elementare KI-Konzepte lernen.
David Rice: Als Vater einer Viertklässlerin stimme ich voll zu.
David Swanagon: Genau. Also: Standards anheben, aber nie vergessen: Mensch ist Mensch, Maschine bleibt Maschine.
David Rice: David, vielen Dank für das Gespräch – es war spannend.
David Swanagon: Gleichfalls, hat Spaß gemacht.
David Rice: Und an unsere Zuhörenden: Falls Sie noch nicht bei peoplemanagingpeople.com registriert sind, melden Sie sich für den Newsletter an und sichern Sie sich Zugang zu allen Vorlagen und Inhalten. Bis zum nächsten Mal: Mensch ist Mensch, Maschine bleibt Maschine.
