KI verändert die Arbeitswelt – aber wie können wir echte, praktische Anwendungsfälle von übertriebenen Trends unterscheiden, die keine Ergebnisse bringen? Und auf welche ethischen Risiken sollten wir achten?
Moderator David Rice spricht mit Jonathan Conradt – ehemaliger Principal AI Scientist bei Amazon und Vorstandsberater bei Synerise – über den tatsächlichen Einfluss von KI auf Personalwesen und Führung. Sie beleuchten, wie KI die Personalbeschaffung, das Wohlbefinden der Mitarbeitenden und Entscheidungsprozesse gestaltet sowie die entscheidende Rolle verantwortungsvoller KI. Jonathan erklärt zudem, warum Unternehmen oft falsch in KI investieren – und wie Führungskräfte klügere Entscheidungen treffen können.
Interview-Highlights
- Jonathan Conradt kennenlernen [00:52]
- Jonathan hat einen langen Hintergrund in der Technologiebranche.
- Er arbeitete im ursprünglichen Chrome-Team bei Google, mit Schwerpunkt auf den Mac- und Linux-Versionen.
- Er leitete das Marketing und integrierte KI/ML bei eBay.
- Er verbrachte 12 Jahre bei Amazon, wo ihm auffiel, dass KI-Projekte oft falsch eingeschätzt wurden.
- Die Führungsebene bei Amazon hatte Schwierigkeiten, KI-Investitionen einzuschätzen, da das Verständnis fehlte.
- In seinem letzten Jahr bei Amazon bildete er VPs und Direktoren in KI/ML weiter.
- Er verließ Amazon, um Unternehmen dabei zu helfen, KI-Chancen und Risiken besser zu verstehen.
- KI im HR-Bereich: Praktische Anwendungen [02:37]
- Generative KI ist beliebt, aber klassisches maschinelles Lernen hat sich ebenfalls weiterentwickelt.
- Ein großer Fortschritt ist automatisiertes maschinelles Lernen (AutoML).
- AutoML automatisiert sich wiederholende Aufgaben bei der Modellerstellung.
- Das Open-Source-Paket AutoGluon macht KI für Personen mit grundlegenden SQL- und Python-Kenntnissen zugänglich.
- AutoML ermöglicht die schnelle Erstellung hochwertiger Modelle, die früher Monate in Anspruch nahmen.
- KI ist im HR-Bereich nützlich für Aufgaben wie Mitarbeitereinstufung, Vorhersage von Abwanderung und Identifikation von Führungstrainingsbedarf.
- Hilft bei numerischen Vorhersagen, z.B. Personalbedarfsplanung.
- Unterstützt Zeitreihenanalysen zur Erkennung saisonaler Trends.
- Mit nur drei Codezeilen kann ein erstklassiges Modell erstellt werden.
- Ethik in der KI: Wichtige Überlegungen [05:03]
- HR spielt eine entscheidende Rolle bei der Entwicklung von KI und sorgt für rechtliche und ethische Konformität.
- Wissenschaftler*innen fehlt häufig die Expertise in HR-relevanten Gesetzen und Vorurteilen.
- KI-Modelle können unbeabsichtigt historische Vorurteile verstärken (z.B. Bevorzugung von Bewerbern, die Lacrosse gespielt haben).
- Verantwortungsbewusste KI legt Wert auf Fairness, Transparenz und ethischen Umgang mit Daten.
- HR-Fachleute sind besonders geeignet, die Fairness von KI zu steuern, insbesondere bei Einstellungs- und Beförderungsmodellen.
- Voreingenommenheit in KI-Vorhersagen für Beförderungen (z.B. Bevorzugung von Ivy-League-Absolventen oder Männern) muss verhindert werden.
- Regelungen zur KI-Ethik entstehen derzeit, wobei die EU vorangeht und die USA Gesetze erwägen.
- HR kann Wissenschaftler*innen helfen, verantwortungsvolle KI-Praktiken zu verstehen und umzusetzen.
- KI-Modelle wie ChatGPT nutzen Benutzereingaben nicht direkt für das Training, um wertvolle Daten nicht zu verfälschen.
- Sie lernen aus Interaktionen, z.B. deuten umformulierte Fragen auf Unzufriedenheit mit einer Antwort hin.
- Voreingenommenheit kann entstehen, wenn Interaktionen gesellschaftliche Vorurteile widerspiegeln (z.B. Geschlecht, Einkommen, geografische Präferenzen).
- Ein angebliches Beispiel besagt, dass OpenAIs Modelle Sprachmuster übernahmen, die denen kenianischer Auftragnehmer in Reinforcement Learning ähneln.
- Voreingenommenheiten im menschlichen Feedback, wie die Präferenz für längere Antworten, beeinflussten das Modellverhalten.
- KI kann unbeabsichtigt Sprechweisen, Themen oder Vorlieben der dominierenden Nutzergruppen bevorzugen.
- Voreingenommenheiten in KI können auf unerwartete Weise entstehen und Muster der engagiertesten Nutzergruppen verstärken.
Um das Richtige im Sinne verantwortungsvoller KI zu tun, müssen Sie die Faktoren entfernen, die nicht berücksichtigt werden sollten. Lassen Sie das Modell nichts sehen oder darauf schließen, was Sie bei einer tatsächlichen Beförderung nicht berücksichtigen würden.
Jonathan Conradt
- Leitplanken und Executive Education [12:36]
- KI-Systeme verwenden Schutzmodelle, um schädliche oder unethische Anfragen vor der Verarbeitung herauszufiltern.
- Mitarbeitende werden Wege finden, KI-Tools zu nutzen, wenn Unternehmen keinen sicheren, offiziell genehmigten Zugang bieten.
- Das Hochladen sensibler Unternehmensdaten in öffentliche KI-Modelle birgt ernste Sicherheitsrisiken.
- Unternehmenseigene KI-Konten können kontrollierte Umgebungen schaffen, um Risiken zu minimieren.
- Führungskräfte, trotz ihrer Expertise, haben Schwierigkeiten, sichere von unsicheren KI-Tools zu unterscheiden.
- Schulungen und offizielle KI-Tools helfen, Sicherheitsverletzungen vorzubeugen.
- Strategien zur Einführung von KI variieren:
- Frühzeitige Anwender: Investierten massiv, gingen hohe Risiken ein und hatten oft Schwierigkeiten.
- Verweigerer: Skeptisch und widerständig, riskieren die eigene Überalterung.
- Schnelle Nachzügler: Lernen von den frühen Anwendern, führen KI kostengünstiger ein und haben größere Erfolgschancen.
- KI wird einen Leistungshöhepunkt erreichen, der es schnellen Nachfolgern erlaubt, zu den frühen Anwendern aufzuschließen.
- Verständnis von KI-Training & -Einführung [20:03]
- Viele Menschen, auch technisch versierte, haben kein tiefes Verständnis von maschinellem Lernen.
- KI ist im Grunde eine mathematische Funktion, die Eingaben verarbeitet und Ausgaben erzeugt.
- KI „denkt“ oder „erinnert“ sich nicht zwischen den Anwendungen – sie existiert nur, wenn sie aufgerufen wird.
- Die beeindruckenden Fähigkeiten der KI entstehen durch zusätzlichen Code und Datenorganisation.
- Schulungen sollten auf verschiedene Rollen in Organisationen abgestimmt sein (Anwender, Techniker, Führungskräfte usw.).
- Ein Einheitstraining funktioniert nicht für alle.
- HR muss passende KI-Trainingsstrategien für unterschiedliche Mitarbeitergruppen festlegen.
- Mitarbeitende, auch nicht-technische, benötigen KI-Schulungen zur Angstreduzierung und für die Einführung.
- Führungskräfte brauchen ein anderes KI-Training als Mitarbeitende an der Basis.
- Mitarbeiterwohlbefinden und KI [23:20]
- Jonathan arbeitet mit Forschern an KI-gestützter Messung und Verbesserung des Mitarbeiter-Wohlbefindens.
- KI ist geduldig und kann Mitarbeitenden umsetzbares Feedback geben.
- Seine frühere Arbeit mit Gallups StrengthsFinder zielte darauf ab, Beziehungen zwischen Vorgesetzten und Mitarbeitenden für mehr Wohlbefinden zu stärken.
- Traditionelle Befragungen stützen sich auf vorgegebene Antwortmöglichkeiten, die das Mitarbeiterempfinden nicht umfassend abbilden.
- Der neue Ansatz lässt Mitarbeitende sich offen äußern, was wertvolle qualitative Daten liefert.
- KI kann Text in mathematische Vektoren umwandeln und so bessere Analysen ermöglichen.
- Ein früheres Experiment, bei dem KI Forschungsarbeiten analysierte, steigerte die Prognosegenauigkeit um 14%.
- Wenn ähnliche KI-Technologien auf Mitarbeiterbefragungen angewandt werden, kann das Verständnis erheblich gesteigert werden.
- Zukunft der KI am Arbeitsplatz [26:35]
- KI-Agenten werden vermutlich von Personalabteilungen genutzt, um komplexe Aufgaben zu bewältigen, Informationen zu sammeln und Prozesse zu vereinfachen.
- KI kann als persönliche Assistenz dienen: Aufgaben organisieren, E-Mails lesen und Vorschläge machen, während die Entscheidungsgewalt beim Menschen bleibt.
- KIs sind besonders gut im Zusammenfassen von Informationen und eignen sich daher für Rollen wie Vizepräsidenten, die einen umfassenden Überblick benötigen.
- KI-gestützte Assistenten (z.B. Microsofts Co-Pilots) sparen Zeit und verbessern das Geschäftsverständnis.
- Unternehmen können KI nutzen, um die Produktivität zu steigern, sollten jedoch Personalabbau vermeiden; stattdessen gilt es, den Output mit derselben Belegschaft zu erhöhen.
- Unternehmen, die KI zur Effizienzsteigerung einsetzen, werden schneller voranschreiten als solche, die Personal reduzieren, aber die gleiche Leistung erbringen.
Die Unternehmen, die Personal abbauen und mit weniger Mitarbeitenden bei gleichbleibendem Arbeitsvolumen auskommen wollen, werden von jenen Unternehmen übertroffen, die das Personal halten und die Menge sowie den Wert der geleisteten Arbeit für die Kunden deutlich steigern können.
Jonathan Conradt
Lernen Sie unseren Gast kennen
Jonathan Conradt ist ein erfahrener Experte für künstliche Intelligenz und maschinelles Lernen und derzeit als Management Board Advisor bei Synerise tätig, einem Unternehmen, das sich auf KI- und Big-Data-Lösungen spezialisiert hat. Zuvor war er Principal AI and Machine Learning Scientist bei Amazon, wo er Lehrpläne für die Machine Learning University von Amazon entwickelte und unterrichtete. Seine umfassende Erfahrung umfasst Positionen bei eBay als Director of Internet and Email Engineering Product Management, bei Google als Engineering Product Manager für den Chrome-Webbrowser und bei Microsoft als Produktmanager für ein Fernsehen-über-IP-Produkt. Jonathan hält acht Patente im Bereich maschinelles Lernen und Marketing und war einer der Entwickler des beliebten Management-Tools StrengthsFinder. Außerdem ist er für seine Beiträge zur automatisierten maschinellen Intelligenz bekannt, insbesondere mit Tools wie AutoGluon.

Einer der großen Vorteile von KI ist ihre Geduld. Sie kann eine wertvolle Informationsquelle sein, weil man ihr präzise und umsetzbare Daten zur Verfügung stellen kann und die KI anschließend auf Menschen reagieren und ihnen solche Einblicke vermitteln kann.
Jonathan Conradt
Verwandte Links:
- Treten Sie der People Managing People Community bei
- Abonnieren Sie den Newsletter, um unsere neuesten Artikel und Podcasts zu erhalten
- Vernetzen Sie sich mit Jonathan auf LinkedIn
- Schauen Sie sich Synerise an
Verwandte Artikel und Podcasts:
- Über den People Managing People Podcast
- Die Rolle von KI bei Talent, Vertrauen und der Zukunft der Employee Experience
- So nutzen Sie KI-Pioniere zur Transformation des Lernens und der Entwicklung in Ihrem Unternehmen
- Das Tempo der KI-Entwicklung und was es für die Arbeitswelt bedeutet
- Führungskompetenz im Zeitalter der KI
- Einen Schritt voraus: Wie HR-Führungskräfte ihre Tools & Systeme für KI anpassen
- Wie Gen Z Unternehmen ins Zeitalter der KI drängt
Jonathan Conradt: [00:00:00] Im Kern ist eine KI ein Funktionsaufruf. Es ist wie in Excel, da gibt es die Summenformel. Und ihr verwendet diese – ihr gebt die Spalten oder Zeilen ein, die ihr addieren wollt, und sie nimmt das als Eingabe und produziert eine Ausgabe. Und KI – genau das ist sie.
David Rice: Willkommen beim People Managing People Podcast. Unsere Mission ist es, eine bessere Arbeitswelt zu schaffen und Ihnen zu helfen, glückliche, gesunde und produktive Arbeitsplätze zu gestalten. Ich bin Ihr Gastgeber, David Rice.
Mein heutiger Gast ist Jonathan Conradt. Er hat kürzlich Amazon verlassen, wo er als Principal AI Scientist tätig war. Wir sprechen heute über KI, maschinelles Lernen und was in puncto Bildung im Umgang mit diesen Technologien nötig ist, die mittlerweile in die tägliche Arbeit vieler Menschen einfließen.
Also Jon, willkommen.
Jonathan Conradt: Danke.
David Rice: Erzähl zunächst ein wenig über dich, wie du dahin gekommen bist, wo du heute bist, und was ist gerade deine größte Herausforderung?
Jonathan Conradt: Ja, ich bin schon lange im Technologiebereich.
Ich war im ursprünglichen Chrome-Team bei Google, habe angefangen, als das Team aus etwa [00:01:00] 40 Personen bestand. Wenn ihr die Mac- oder Linux-Versionen von Chrome benutzt habt – das war mein Projekt. Danach war ich bei eBay, wo ich deren Marketing leitete und KI sowie maschinelles Lernen eingeführt habe, sowohl onsite als auch offsite.
Und die letzten 12 Jahre war ich bei Amazon. Was ich bei Amazon festgestellt habe war, dass großartige KI-Projekte nicht genehmigt wurden und andere, weniger gute, wiederum schon. Das Hauptproblem ist, dass Amazon wirklich kluge Leute und sehr intelligente Vizepräsidenten hat.
Sie sind gut ausgebildet, kommen aus tollen Hintergründen, kennen ihr Geschäft in- und auswendig, aber KI kam für sie aus dem Nichts. Sie wussten nicht recht, wie sie damit umgehen sollten oder was das bedeutet, und sie hatten Mühe, gute Entscheidungen darüber zu treffen, worin zu investieren ist. So haben sie teils großartige Ideen verpasst und zuweilen.
In Dinge investiert, die nicht gut ausgegangen sind. Mein letztes Jahr bei Amazon bestand hauptsächlich darin, [00:02:00] Curricula vorzubereiten und weltweit Vizepräsidenten und Direktoren bei Amazon in Maschinellem Lernen und KI zu schulen. Und letztlich habe ich entschieden: Wenn es bei Amazon, einem Tech-Unternehmen mit diesen Leuten, schon so chaotisch ist, wie mag es dann außerhalb von Amazon sein?
Deshalb habe ich Amazon verlassen, um solche Dinge zu tun: Menschen zu helfen, zu verstehen, was KI ist, wo Vorsicht geboten ist, wo man mutig sein sollte – und sie zu unterstützen, das Beste daraus zu machen.
David Rice: Es ist ein interessanter und sehr wichtiger Zeitpunkt, das zu tun.
Es gibt viele Dinge, die KI und maschinelles Lernen bewirken können. Und manches, worauf Unternehmen ein Auge geworfen haben, hängt damit zusammen, dass es eben als das glänzend neue Ding gilt, oder? Viele haben sehr große Ideen, aber es gibt eben auch viele ganz praktische Lösungen, über die wir auch gesprochen haben, bevor wir diesen Anruf begonnen haben, die sehr viel pragmatischer sind und Unternehmen bei unmittelbaren Bedürfnissen helfen können.
Kannst du uns einige gute Beispiele dafür geben, und wo kann HR etwas umsetzen, das sofort Wirkung zeigt?
Jonathan Conradt: Ja, also [00:03:00] generative KI ist der glänzende Ball, der aktuell alle Blicke auf sich zieht, richtig? Aber auch das traditionelle maschinelle Lernen hat in den letzten Jahren große Fortschritte gemacht.
Eines davon ist das sogenannte automatische maschinelle Lernen. Was passierte, war, dass Wissenschaftler sich die eigenen Routinen anschauten und feststellten, dass sie im Grunde immer die gleichen Schritte befolgten. Also gab es die Möglichkeit, alles zu automatisieren. Es gibt ein exzellentes Open-Source-Paket namens autogluon.
Und das ist bemerkenswert. Als ich es sah, hatte ich eine kleine existenzielle Krise. Weil ich merkte: Mit solider SQL- und etwas Python-Kenntnissen könnte man damit über Nacht ein Weltklasse-Modell bauen, für das ich vorhermonate gebraucht hätte.
Das ist sehr nützlich. Im HR gibt es etliche Aufgaben: Man möchte evtl. Personen klassifizieren. Beispielsweise möchten Sie vielleicht identifizieren, wer von einem Führungskräftetraining profitieren würde, oder welche Mitarbeitenden [00:04:00] abwanderungsgefährdet sind. Solche Dinge. Diese Modelle können das für Sie tun.
Außerdem gibt es Arten von Vorhersagen, die sich auf Zahlen beziehen: Wie viele Lebensläufe erwarten wir? Oder wie viele Leute benötigen wir in zwei Wochen im Lagerhaus? Solche numerischen Prognosen beherrscht diese Technologie ebenfalls sehr gut. Auch Zeitreihen kann sie verarbeiten – etwa, um Saisonalitäten zu erkennen.
Wie genau das für HR relevant ist – ich bin mir sicher, es gibt auch dort Saisonalitäten, auf die man achten sollte. Bemerkenswert ist: In drei Zeilen Code kann jemand mit den Daten ein Weltklasse-Modell erstellen. Das finde ich beeindruckend.
David Rice: Ja, das ist hochinteressant. Natürlich kommen im HR immer mehr Daten zusammen, oder? Besonders mit immer neuen Tools.
Und ich weiß, du hast in der Vergangenheit ein wenig über verantwortungsvolle KI gesprochen, gerade im HR ist das [00:05:00] eine knifflige Angelegenheit. Sprich doch mal über die wichtigsten ethischen Aspekte bei KI im HR.
Und was müssen wir bei diesen Modellen lösen, bevor wir KI stärker im HR einsetzen?
Jonathan Conradt: Ja. Bei Amazon haben wir HR-Business-Partner, sie sind an die Teams angebunden und eine gute Anlaufstelle für Ratschläge. Als wir mit maschinellem Lernen arbeiteten und Modelle mit Kundendaten gebaut wurden, um Dinge über Kunden vorherzusagen, waren HR und Legal entscheidende Partner, weil Informatiker vielleicht mal einen Human-Research-Kurs im Studium hatten. Für HR stehen solche Gesetze und Belange an oberster Stelle. Darum bietet sich für Wissenschaftler und Modellbauer die Chance, HR mit einzubeziehen und die richtigen Fragen zu stellen.
Fragen wie: Wie gehen wir mit Geschlecht um? Welche Sensibilitäten gibt es rund um Herkunft? Solche Themen kennt HR [00:06:00] aus dem Effeff. Es kann auch im HR-Projekt selbst zu Problemen kommen. Beispielsweise will eine HR-Organisation etwas automatisieren. Alle diese Dinge sind sehr sensibel.
Das klassische Beispiel ist die Automatisierung des Eingangs von Lebensläufen. Man möchte sie kategorisieren oder vorsortieren, um effizienter zu werden. Dabei lauern aber Gefahren: Machine-Learning-Modelle sind notorische Trickser. Sie suchen immer den kürzesten Weg zur Lösung.
So kann es passieren, dass das Modell erkennt: Wer in seinem Lebenslauf erwähnt, dass er in der Schule Lacrosse gespielt hat, wird traditionell eher eingestellt und befördert. Das mag historisch so gewesen sein, ist aber ein Bias, den man auf keinen Fall als Filter für Einstellung oder Interview nutzen sollte.
Man würde gar nicht erwarten, dass ein solches Wort überhaupt Relevanz für das Modell hat. Doch wie gesagt, die Modelle tricksen – sie finden solche kleinen Wege immer. Und [00:07:00] deshalb ist verantwortungsvolle KI ein ganzes Konzeptpaket, wie man das Verhältnis zwischen eigenen Zielen und den beteiligten Personen bestmöglich gestaltet.
Vielleicht sind es Kunden, Mitarbeitende oder Bewerber. Wie gehen wir mit deren Daten um? Wie sind wir fair gegenüber Subgruppen? Wie machen wir transparent, was das Modell tut? Es ist ein interessantes ethisches Feld, und gerade HR-Fachleute beschäftigen sich viel mit Ethik und mit dem guten Umgang mit Menschen.
Verantwortliche KI ist also ein faszinierendes Thema für HR und spielt in viele Lösungen hinein: Stellen wir uns vor, man baut ein Modell, das vorhersagt, wer in sechs Jahren Vizepräsident:in werden könnte. Das ist nützlich, weil man diese Leute halten und fördern möchte.
Ein gutes Modell – aber auch hier ist Vorsicht geboten: Wenn die derzeitigen Vizepräsident:innen in den Trainingsdaten überwiegend von Eliteunis sind oder z. B. männlich, spiegeln sich diese Faktoren in den Trainingsdaten wider.
Deshalb muss man für einen verantwortungsvollen KI-Einsatz Faktoren eliminieren, die nicht zur Entscheidungsgrundlage werden sollten. Das Modell darf keine Rückschlüsse auf Dinge ziehen, die im echten Beförderungsprozess keine Rolle spielen dürfen. Ja, verantwortliche KI ist wirklich spannend. Es gibt Online-Kurse dazu, zahlreiche Papers und Regulierung kommt. In der EU ist sie da; in den USA steht sie in den Startlöchern – sie wurde im Kongress bereits eingebracht. Auch hier ist HR oft weiter als viele Wissenschaftler und kann ihnen Orientierung geben.
David Rice: Ja, das ist superwichtig. Wie du sagst, perpetuieren bestimmte Daten Biases. Vor Kurzem sprach ich mit jemandem, die auf eine Studie verwies, wonach Frauen [00:09:00] mit 75 Prozent geringerer Wahrscheinlichkeit experimentierfreudig mit KI umgehen als Männer. Meine erste Frage war: Welche Datenbasis entsteht dadurch?
Das System könnte dann perpetuieren, dass Frauen bestimmte Fähigkeiten nicht besitzen. Es ist wirklich so: Jede Aktion erzeugt eine Reaktion, oder?
Jonathan Conradt: Ja, interessant. Beispielsweise bei großen Sprachmodellen wie ChatGPT von OpenAI. Sie nutzen nicht direkt alles, was du in das System tippst, zum Training.
Denn Menschen schreiben alle möglichen absurden, schlimmen Dinge, richtig? Trainingsdaten sind die wertvollste Ressource jedes KI-Unternehmens. Also möchte man sie nicht verwässern oder verschmutzen. Doch es werden Signale aus dem Nutzerverhalten gewonnen. Eines davon ist:
Hast du die Frage umgestellt? Wenn du OpenAI zum Korea-Krieg befragst und dann eine leicht veränderte Version stellst, ist das ein gutes Signal: Oh, die Antwort war wohl nicht zufriedenstellend. [00:10:00] Irgendwann hast du die Frage so gestellt, dass du eine passende Antwort bekommen hast.
Natürlich geschieht es so, dass sich – wenn es Geschlechts-, Einkommens- oder geografische Vorlieben gibt – das System dem Verhalten und den Vorlieben der Mehrheitsgruppe anpasst. Ein Beispiel:
OpenAIs Modelle nutzten plötzlich einige ungewöhnliche Formulierungen, die öfter auftauchten, als man von normalen Gesprächen erwarten würde. Jemand meinte dann: Das erinnert an die Sprache, wie sie in Kenia gesprochen wird (vielleicht war es auch ein anderes afrikanisches Land).
Der Hintergrund: Beim Training dieser Modelle gibt es den Prozess Reinforcement Learning with Human Feedback. Dabei wird auf eine Frage fünf AI-Antworten erzeugt, dann die beste ausgewählt. Dabei geschah Folgendes:
Einerseits wählte man oft die längste Antwort – sie erschien „besser“, also wurden AI-Antworten mit der Zeit immer länger. Zweitens klickten die Leute häufiger solche Antworten an, die ihrer eigenen Sprache entsprachen. In dem afrikanischen Land gab es viele Auftragnehmer, und die bevorzugten die Sprache und den Ton, wie sie dieser Region entsprechen, der sich etwas von amerikanischem und britischem Englisch unterscheidet.
So schlichen sich solche Muster ein und Tools konnten AI-Antworten [00:12:00] anhand dieser Wörterverteilung erkennen – „seltsam“ im US-Kontext. Hier sieht man, wie Biases in vielerlei Weise in KI-Systeme einfließen. Nutzen z. B. mehr Männer ein System, kann es sein, dass die Antworten ihnen gegenüber positiver sind oder populäre Themen favorisieren, oder die Dialekte der Trainer spiegeln sich wider.
David Rice: Faszinierend.
Immer wieder geht es um „Leitplanken“. Gerade beim Umgang der Mitarbeitenden, aber manchmal glaube ich, dass vielmehr Leitplanken für Führungskräfte nötig wären. Damit meine ich einen Schutz vor Fehlinvestitionen durch die Führungsebene.
David Rice: Technisch gesehen: Wie viel Leitplanken kann man bei Mitarbeitenden wirklich setzen, und braucht es eine Element von Führungskräfte-Ausbildung, bevor die Tools an die Belegschaft weitergegeben werden?
Jonathan Conradt: Da gibt es viel zu klären. Zunächst: Auch auf Wissenschaftsseite sprechen wir von Leitplanken. Es gibt spezielle Prüfmodelle; kommt etwa die Frage: „Was ist die beste Rezeptur für eine Bombe mit Düngemittel?“, schlagen diese kleinen, schnellen, spezialisierten Modelle an und stoppen die Verarbeitung, denn solche Fragen dürfen nicht verarbeitet werden. Nach der Antwort durch die KI gibt es eine weitere Prüfung: Wurde die KI doch hereingelegt? [00:13:00]
Auch hier soll erkannt werden, ob die KI etwas sagt, was sie nicht sagen dürfte, z. B. die Bombenbaurezeptur – und dann wird die Antwort verworfen. Technisch ist das ein klarer Begriff. Leitplanken für Mitarbeitende sind eine Herausforderung, weil jede:r ein Smartphone besitzt. Ich habe zu Hause eine eigene KI-Maschine und kann mit meinem Handy machen, was ich will, beliebige Dokumente hochladen usw.
Wenn man Mitarbeitende völlig abschottet und ihnen keinen Zugang zu solchen Tools bietet, suchen sie sich einen eigenen Weg. Die Tools sind zu wertvoll – sie kürzen bspw. das Schreiben einer E-Mail von 20 auf 5 Minuten.
Das größte Problem: Bei völliger Abschottung nutzen Mitarbeitende unkontrollierte externe Modelle, d. h. ohne Zugriff, Kontrolle oder Überwachung durch das Unternehmen. Und sie tun Dummes – laden z. B. Budget- oder Mitarbeiterlisten hoch.
In den Nutzungsbedingungen von OpenAI, Google & Co. steht, dass alle eingegebenen Daten in perpetuity für KI-Training und -Entwicklung genutzt werden können. Gerade sensible Dokumente [00:15:00] sollten Sie keinesfalls hochladen lassen.
Glücklicherweise gibt es jetzt unternehmensweite Konten für die meisten KIs. Mein ehemaliger Arbeitgeber Amazon hat eine solide Lösung: eine eigene, abgeschottete KI, auf die alle sicher zugreifen und bei der nichts bei Amazon landet. So machen das künftig wohl die meisten.
Aber was ist mit Führungskräften? Sie neigen mindestens ebenso sehr dazu, sensible Dokumente hochzuladen. Oft ist ihnen nicht klar, wo die KI real läuft: In der eigenen IT oder irgendwo im Netz? Das ist für Führungskräfte schwer einschätzbar, denn sie sind Expert:innen in ihrem Bereich, aber keine IT-Fachleute.
Hat man sie entsprechend geschult – wie beim üblichen Phishing-Training: Kein Klick auf dubiose Links, keine Dokumenten-Uploads –, sollte man ihnen einen offiziellen, sicheren Zugang bieten, der protokolliert und geschützt ist. Das sind aber keine Projekte im eigentlichen Sinn. Projekte hingegen sind z. B.: Die gesamte Kundenservicetruppe durch KI ersetzen (einige Unternehmen haben das schon versucht).
Das sind Early Adopters: Viele Investitionen, große Schwierigkeiten und häufig kein Erfolg. Die Unternehmen, die jetzt mit solchen Projekten starten – sie sind Fast Follower. Sie können sehen, was auf dem Markt funktioniert, die Preise sind massiv gefallen, und es gibt gute Forschung für Erfolgsmessung. Bleiben wir beim Kundenservice:
Ich kenne niemanden, [00:17:00] der sich freut, an einen Chatbot verwiesen zu werden statt eine:n echten Ansprechpartner:in. Besonders für die besten Kund:innen ist das kritisch. Man kann bestimmte effiziente Prozesse KI-gestützt lösen – aber vorsichtig und differenziert. Ich empfehle: Bauen Sie ein gutes Modell, um zu unterscheiden: Wo können wir große Fehler verkraften? Welche Anrufe kosten viel Geld, sind aber trivial zu beantworten, wie Passwortrücksetzungen?
Das Thema Führungskräfteschutz ist tatsächlich eine Herausforderung. Genau deswegen habe ich Amazon verlassen, um diese Gespräche mit Unternehmen führen zu können – Mit welcher Erfahrung, mit welchen Daten, mit welchem Ziel streben Sie ein KI-Projekt an? Wollen Sie Kosten senken, Umsatz steigern? Haben Sie eine einfachere Alternative probiert? Dafür biete ich Ihnen gerne 50 Minuten Beratung an.
Unternehmen lassen sich in drei Gruppen einteilen: Early Adopters – sie gehen Risiken ein, geben viel Geld aus, lernen aber oft auf die harte Tour. Dann die „Never Evers“: Sie sehen KI als vorübergehende Mode wie Krypto und glauben, dass sie das aussitzen können. Genau diese Firmen sind bedroht, denn diesmal ist es wie mit der Elektrizität. Und dann die Fast Followers: Sie werten jetzt Daten aus, messen sinnvoll, starten Pilotprojekte – und sparen viel Geld. Ich bin überzeugt, [00:19:00] diese Gruppe wird erfolgreich sein und die Early Adopters im Handumdrehen einholen. Denn die Modell-Performance erreicht bald ein Plateau.
David Rice: Die Lernkurve und die Wachstumsschmerzen werden dann nicht mehr so heftig, da vieles schon durch andere abgearbeitet wurde.
Manchmal frage ich mich, ob die meisten überhaupt ausreichend Grundverständnis für maschinelles Lernen haben, um es bestmöglich einzusetzen. Siehst du das auch so? Und wie können wir kurzfristig durch Training und Weiterbildung dagegensteuern?
Jonathan Conradt: Absolut. Das Verständnis ist oft nicht ausreichend, selbst bei vielen Technikern im Unternehmen. Ich war an der Wharton School der University of Pennsylvania und hielt einen Vortrag für Graduierte über maschinelles Lernen.
In einer halben Stunde erkläre ich: Im Kern ist eine KI ein Funktionsaufruf – wie in Excel. Die Summenfunktion; ihr gebt Daten ein, sie spuckt das Ergebnis aus. Mehr ist KI nicht.
Zwischen zwei Aufrufen plant die Summenfunktion nicht, verschwört sich nicht gegen euch, träumt nicht von irgendetwas – sie existiert de facto nicht, außer im Moment ihrer Nutzung. KI ist im Wesentlichen ein mathematisches Objekt, eine Funktion: Input rein, Verarbeitung, Output raus. Vieles von dem, was wie Magie wirkt, sind spezielle Codeschichten, die wir darum herum geschrieben haben. Das Ganze ist komplex.
Es ist, als würde jeder von Ihnen erwarten, jedes Detail der Einspritzanlage seines Autos zu kennen. Die meisten wissen nicht mal, was das ist – und kommen trotzdem durchs Leben. Unsere Aufgabe ist es, jede Gruppe im Unternehmen auf das passende Niveau zu bringen: Nutzer, Techniker, Spezialisten oder Leute, die lediglich profitieren, ohne das System zu bedienen. Das ist schwierig. HR ist meist für die Weiterbildung zuständig. Sie muss klären: Wen holen wir zur Schulung? Was für eine Schulung braucht jede Gruppe? Aber eine allgemeine Lösung („Peanut Butter“-Ansatz: alle bekommen dasselbe Training) bringt nichts.[00:22:00]
Als ich VPs und SVPs bei Amazon schulte, stellte ich mir die Frage: Was machen wir für die Menschen, die unsere LKW fahren, die Produkte verpacken? Viele von ihnen haben keinen Hochschulabschluss, arbeiten hart, sind klug, aber nicht technisch ausgebildet. Wie nehmen wir ihnen die Angst vor KI? Die Firma muss maschinelles Lernen einführen; man will nicht abgehängt werden, weil Beschäftigte Angst davor haben. Es braucht Schulungen, die auf sie zugeschnitten sind und ihre Fragen beantworten. Und entsprechendes Führungstraining, das ganz anders aussieht.
David Rice: Ein Bereich, für den sich viele an KI-Lösungen interessieren, ist das Mitarbeiterwohlbefinden. Ich sprach kürzlich mit einer Person, die sprachbasiert Burnout oder [00:23:00] Stress erkennen wollte, und wir haben so viele Daten, die Verhaltensindikatoren liefern könnten.
Wie wird KI das Thema Wohlbefinden der Mitarbeitenden in den nächsten Jahren verändern?
Jonathan Conradt: Das interessiert mich aktuell besonders. Ich arbeite mit zwei Forschern an einem Ansatz, das Wohlergehen der Mitarbeitenden nicht nur zu messen, sondern auch langfristig zu verbessern. Eine der großen Stärken von KI ist ihre enorme Geduld.
Die KI kann als wertvolle Informationsquelle dienen, denn sie kann mit präzisen und umsetzbaren Daten gefüttert werden und darauf abgestimmte Rückmeldungen an die Menschen geben. Vor langer Zeit war ich für Gallup tätig und half bei der Entwicklung von StrengthsFinder, einem Instrument, das helfen sollte,
die Beziehung von Führungskräften zu Mitarbeitenden zu vertiefen. Ziel war es, mehr gegenseitiges Verständnis, Unterstützung und dadurch mehr Wohlbefinden im Unternehmen zu fördern.
[00:24:00] Mit KI wollen wir nun in einem noch interaktiveren Setting erfahren, wie es den Menschen wirklich geht. Das Problem vieler Umfragen: Man klickt Kästchen an, doch am Ende weiß man meist nicht, ob die Bewertung so verstanden wird, wie man es meint.
Wir öffnen deshalb das System: Neben den üblichen Multiple-Choice-Daten geben wir Mitarbeitenden Raum, sich frei zu äußern: Erzählen Sie uns, was Ihnen beim letzten Abschnitt durch den Kopf ging, was für Sie am wichtigsten war oder was Sie sich von uns wünschen. Diese Texte sind sehr aufschlussreich. Ich gewann diese Erkenntnis, als ich ein Modell baute, das Forschungspublikationen daraufhin analysierte, welche ich interessant fand.
Ich hatte mehrere Hundert als „interessant“ markiert. Zunächst funktionierte mein Modell so mittelmäßig. Dann nutzte ich einen KI-Ansatz: KIs verstehen keine Wörter, sie müssen Texte in mathematische Objekte (Vektoren) umwandeln. Das kennen viele aus der Oberstufe: Richtung und Betrag.
Ich nahm also Titel und Abstracts aller Publikationen, wandelte sie mit KI in Vektoren um und [00:25:00] fütterte mein Modell damit. Die Trefferquote stieg um 14 Prozent – ein großer Sprung! Analog: Wenn eine Mitarbeiter-Umfrage durch offene Texte eine um 14% höhere Einsicht ins Befinden der Mitarbeitenden liefert, ist das ein enormer Gewinn.
David Rice: Ja. Angesichts dessen, welche ungenutzten Potenziale bergen die vorliegenden Daten und Tools in Bezug darauf, wie Menschen ihren Job, das Unternehmen und ihre Erfahrungen sehen?
Können wir damit verändern, wie Führungskräfte diese Dinge angehen?
Jonathan Conradt: Eine häufige Frage an mich ist: Kann HR oder Legal an einen KI-Agenten ausgelagert werden? Meine Antwort: Wahrscheinlich werden HR-Profis selbst die eifrigsten Nutzer solcher Agents sein, denn ihr Job ist sehr komplex. Sie müssen viel recherchieren, Informationen konsolidieren. Ein Agent ist eine KI, die selbstständig agieren, Informationen holen, Datenbanken anfragen oder Websuchen ausführen kann.
Ich glaube, wir werden erleben, dass alle im Unternehmen quasi eine:n digitale:n Assistent:in bekommen. Diese:r Assistent:in übernimmt Routineaufgaben – liest die Mails, bereitet Antwortvorschläge und Fakten auf, die bedacht werden sollten.
Sie entscheiden aber weiterhin selbst! Vielleicht formulieren Sie etwas um, der KI ist etwas entgangen oder Sie wollen es anders ausdrücken. Das wird sehr nützlich.
Übrigens: Am ehesten kann eine KI einen Vizepräsidenten ersetzen! Denn VPs sind vor allem für die Informationssynthese zuständig – sie bekommen Daten aus allen Teilen der Organisation und müssen strategische Entscheidungen fällen. Genau darin ist KI besonders stark. Wir werden also Co-Piloten (Microsoft) oder digitale Assistent:innen sehen. Sie schaffen Zeit und mehr Überblick.
Für Unternehmen ist es ein Fehler, den Effizienzgewinn in Personalabbau umzuwandeln. Nehmen wir Programmierer:innen. Mit KI steigen Produktivität und Output.
Sie können jetzt entweder sagen: „Toll, wir brauchen weniger Programmierer.“ Oder Sie nutzen die Chance, mehr umzusetzen – alle Techfirmen kennen die Wunschlisten, von denen vieles mangels Zeit und Budget wegfallen muss. Mit KI kann man mehr für Kund:innen schaffen, die To-Do-Liste wächst.
Firmen, die ihre Leute halten und durch KI befähigen, ziehen an der Konkurrenz vorbei. Unternehmen, die durch den Effizienzgewinn Personal abbauen und quantitativ gleich bleiben, werden von denen abgehängt, die alle behalten und mehr für Kund:innen leisten können.
David Rice: Großartig.
Jonathan, vielen Dank, dass du heute bei uns warst. Am Schluss stelle ich jedem Gast zwei Fragen. [00:30:00] Zuerst: Wo können unsere Hörer:innen dich erreichen, und möchtest du ein aktuelles Projekt bewerben?
Jonathan Conradt: Ja, wir stellen einen Link bereit, über den man ein 15-minütiges Gespräch mit mir buchen kann – gerne zu jeglichen Themen rund um Ihr Unternehmen und Ihre Herausforderungen. Ich freue mich, neue Unternehmen kennenzulernen, und das war auch einer meiner Jobs bei Amazon: Mit Teams sprechen, Anwendungen für Machine Learning ausloten, KI-Anwendungen vorschlagen usw. Kontaktieren Sie mich gerne über Calendly.
David Rice: Den Link finden Sie in der Episodenbeschreibung. Nutzen Sie ihn oder vernetzen Sie sich mit Jonathan auf LinkedIn.
Außerdem haben wir eine kleine Tradition: Sie dürfen mir am Ende eine beliebige Frage stellen, zum Thema oder ganz zufällig.
Ich übergebe an Sie.
Jonathan Conradt: Mich interessiert, KI ist beim Video-Editing sehr stark geworden. Wie hat KI Ihre Arbeit und diesen Podcast beeinflusst?
David Rice: Für den Podcast – manchmal ist es wirklich verrückt, was KI mit Audio bewerkstelligen kann; sie hilft uns, den Sound zu optimieren.
Manchmal – ich weiß nicht, ob es die KI oder unsere Editors sind – wirkt sich das merkwürdig auf Stimmen aus. Am meisten beeindruckt mich aber, wie sich der gesamte Inhaltserstellungsprozess beschleunigt hat: von der Idee zur Gliederung bis zum gesamten Ablauf. Das ist wohl die größte Veränderung. In gewissen Dingen ist es nicht unbedingt leichter, da wir immer noch in der Lernphase sind, wie man die Tools optimal nutzt, wie die Sprache sein soll, wie man auf die Zielgruppe abstimmt usw. Aber der Fortschritt seit meiner ersten ChatGPT-Nutzung ist enorm.
Jonathan Conradt: Wirklich bemerkenswert, oder?
David Rice: Es geht unglaublich schnell voran.
Jonathan Conradt: Offenbar wurde gerade das Soap-Opera-Editing scheinbar über Nacht revolutioniert.
Da wird so viel Videomaterial produziert, und Schnitt ist irrsinnig aufwendig. Gleiches gilt für Reality-TV. KI-Tools verkürzen das enorm. Sie machen z. B. den Rohschnitt vollautomatisch. Das ist beeindruckend.
David Rice: Unglaublich. Ich bin sicher, die großen Filmstudios investieren stark.
Jonathan Conradt: Ja. War mir eine Freude, David.
David Rice: Das war ein tolles Gespräch. Vielen Dank fürs Kommen – gerne wieder!
Jonathan Conradt: Danke sehr.
David Rice: Für unsere Hörer:innen: Wenn Sie es noch nicht getan haben, gehen Sie auf peoplemanagingpeople.com/subscribe und melden Sie sich zum Newsletter an. Bis zum nächsten Mal: Bleiben Sie mutig und [00:33:00] experimentierfreudig.
