Skip to main content
Key Takeaways

Vertrauensprobleme: Amerikaner fürchten den Missbrauch von KI durch Führungskräfte mehr als KI selbst und offenbaren damit tiefere Vertrauensprobleme.

Stimmung am Arbeitsplatz: Arbeitnehmer bewerten KI anhand des Handelns der Führung und früherer Machtmissbräuche, nicht wegen der Technik.

Vergleich mit der EU: Europäer teilen ähnliche KI-Ängste, profitieren jedoch von regulatorischen Rahmenbedingungen, die US-Arbeitnehmern fehlen.

Vertrauen in Arbeitgeber: US-Arbeitgeber genießen mehr Vertrauen als andere Institutionen, doch dieses Vertrauen bleibt fragil und ungleich verteilt.

Führungsstrategien: Erfolgreiche KI-Einführung erfordert Transparenz und Einbindung aller Mitarbeiterebenen.

Je mehr ich mit Menschen spreche – unabhängig von ihrer Branche –, desto klarer wird eines: Die Amerikaner haben keine Angst vor KI oder Technologie an sich. Sie haben Angst davor, was die Verantwortlichen damit anstellen werden.

Diese Unterscheidung ist wichtiger als jede Kennzahl oder Produktvorstellung, denn sie ändert die gesamte Perspektive auf das Thema KI-Einführung am Arbeitsplatz. Die vorherrschende Erzählung behandelt Widerstand gegen KI als Kompetenzproblem, das durch bessere Schulungen und ein schlüssigeres Onboarding gelöst werden könne. Doch die Daten zeichnen ein anderes Bild.

Die Ängste der amerikanischen Arbeitnehmer wurzeln in jahrzehntelangen gebrochenen Versprechen der Institutionen, die sie beschäftigen, regieren und vorgeben, ihre Interessen zu vertreten.

Keep Reading—and Keep Leading Smarter

Create a free account to finish this piece and join a community of forward-thinking leaders unlocking tools, playbooks, and insights for thriving in the age of AI.

Step 1 of 3

Name*
This field is hidden when viewing the form

Das 2025 Edelman Trust Barometer zählt die Vereinigten Staaten zu den fünf großen Volkswirtschaften mit dem geringsten Vertrauensniveau weltweit, mit einem Trust Index von 47 von 100 Punkten. Japan, Deutschland, Großbritannien und Frankreich komplettieren diese Gruppe.

61 Prozent der weltweiten Befragten berichten von einem mittleren bis hohen Maß an Unzufriedenheit, definiert als die Überzeugung, dass Regierung und Wirtschaft nur eng gefasste Interessen bedienen, während die normalen Menschen kämpfen. In den USA ist das Bild noch deutlicher: Dreimal so viele Amerikaner lehnen den zunehmenden Einsatz von KI ab, als ihn begrüßen, nämlich 49 % zu 17 %.

Diese Zahlen beschreiben keine Bevölkerung, die von Technologie verwirrt ist. Sie beschreiben eine Bevölkerung, die erlebt hat, wie Unternehmensführungen über viele Jahre zu viel versprochen und zu wenig gehalten haben – und KI nun als das nächste Vehikel in diesem Zyklus sehen.

Auch Daten aus der Arbeitswelt untermauern das. Der TrustID Index von Deloitte verzeichnete zwischen Mai und Juli 2025 einen Rückgang des Vertrauens in von Unternehmen bereitgestellte generative KI um 31 %. Das Vertrauen in agentische KI – Systeme, die selbstständig handeln statt nur Empfehlungen zu geben – rauschte im selben Zeitraum um 89 % nach unten.

Arbeitnehmer beurteilen die Technologie nicht nach ihrer technischen Leistungsfähigkeit. Sie bewerten, wer sie kontrolliert und was diese Menschen in der Vergangenheit mit Macht getan haben.

Laut einer spezifischen Blitzumfrage von Edelman zu KI, die Ende 2025 in fünf Ländern durchgeführt wurde, sind Mitarbeiter 2,5-mal motivierter, KI zu akzeptieren, wenn sie spüren, dass ihre Arbeitsplatzsicherheit zunimmt. Zwei von drei KI-Skeptikern sagten, die Einführung fühle sich erzwungen an, nicht freiwillig. Und gefragt, wem sie glauben, die Wahrheit über KI zu sagen, wählten Arbeitnehmer ihre Kolleginnen und Kollegen doppelt so häufig wie CEOs oder Regierungsvertreter.

Letzteres ist die stille Anklage. Arbeitnehmer wollen keine Statements zur KI von der Chefetage hören. Sie wollen Informationen von jemandem, der neben ihnen sitzt und nichts davon hat, die Botschaft schönzureden.

Eine andere Art von Angst

Vergleichen Sie das mit Europa. Auch Europäer sind gegenüber KI nicht gerade begeistert. Deutschland und Großbritannien liegen beide am unteren Ende des Trust Index. Aber europäische Arbeitnehmer bewegen sich in einem grundsätzlich anderen Rahmen. Einige zentrale Unterschiede:

  • Der EU KI-Gesetz reguliert Hochrisiko-KI-Anwendungen im Arbeitsumfeld
  • Betriebsräte geben Beschäftigten eine formelle Stimme bei der Einführung neuer Technologien
  • Länder wie Deutschland und Frankreich schreiben Konsultationen bei Massenentlassungen vor
  • Der Europäische Gewerkschaftsbund setzt sich für eine spezielle Richtlinie zu algorithmischen Systemen am Arbeitsplatz ein – inklusive verpflichtender menschlicher Kontrolle von KI-gestützten Entscheidungen und kollektiven Mitbestimmungsrechten bei der Einführung.

Die EU strebt zudem an, was Politikexperten als „soziales KI-Abkommen“ („AI Social Compact“) bezeichnen: Ein Rahmenwerk, das mit dem europäischen Sozialfonds verknüpft ist und Beschäftigte während KI-bedingter Umbrüche durch Einkommenshilfen, Umschulungen und Arbeitsplatzwechsel unterstützt. Der bestehende Europäische Fonds für die Anpassung an die Globalisierung liefert – wenn auch unterfinanziert – bereits ein Modell, das entlassenen Arbeitnehmern beim Neustart hilft.

Das heißt nicht, dass europäische Beschäftigte bezüglich KI entspannt wären. Ihre Angst sieht nur anders aus. Sie sorgen sich um Überwachung, Datenschutz, unternehmerische Übergriffe. Ihre Bedenken kanalisieren sie über regulatorische Rahmenbedingungen und Strukturen der Mitbestimmung, die – so unvollkommen sie auch sind – ihnen einen Platz am Tisch sichern. Wenn ein deutscher Arbeitnehmer hört, dass KI seine Aufgabe verändern könnte, kann er vernünftigerweise davon ausgehen, dass sich zumindest jemand in der Regierung oder in seiner Gewerkschaft Gedanken über die Folgen gemacht hat.

Für amerikanische Beschäftigte gibt es diese Erwartung nicht. Die Risiken sind in den USA strukturell höher, weil die Krankenversicherung an den Arbeitsplatz gekoppelt ist. Wer seinen Job verliert, verliert nicht nur Einkommen, sondern fällt durchs komplette Sicherheitsnetz.

In den Vereinigten Staaten gilt das Prinzip der „at-will employment“ als Standard. Die gewerkschaftliche Organisierung ist so niedrig wie selten zuvor. Es gibt keinen bundesweiten Rahmen zur Regulierung von KI am Arbeitsplatz. Wenn amerikanische Arbeitnehmer hören, dass KI ihren Job verändern könnte, ist die berechtigte Frage: Und dann? Wer fängt mich auf?

Die Antwort darauf ist immer öfter: niemand. Und die Arbeitnehmer wissen das.

Der Arbeitgeber als letzter Rettungsanker

Und hier wird es für Führungskräfte, die dies lesen, kompliziert. Selbst während das Vertrauen in Regierung und Medien massiv sinkt, bleiben Arbeitgeber in den USA die vertrauenswürdigsten Institutionen.

Laut der Mitarbeiterumfrage von McKinsey aus dem Jahr 2024 vertrauen 71 % der Arbeitnehmer ihrem eigenen Arbeitgeber, KI ethisch einzusetzen – ein höherer Wert als bei Universitäten, großen Technologiekonzernen oder Start-ups. Die Zahlen von Edelman zeigen, dass 66 % der Beschäftigten ihrem Arbeitgeber zutrauen, das Richtige zu tun. Dieser Wert blieb über Altersgruppen, Geschlecht, Einkommens- und politische Linien hinweg stabil.

Doch dieses Vertrauen ist fragil. Weltweit sank das Vertrauen in Arbeitgeber im Jahr 2025 um 3 Punkte – der erste nennenswerte Rückgang, seitdem Arbeitgeber 2021 erstmals an der Spitze standen. Und das Vertrauen ist ungleich verteilt. Edelman fand eine Lücke von 13 Punkten zwischen den Beschäftigten im untersten und obersten Einkommensquartil. Fünfundsechzig Prozent der Amerikaner im unteren Einkommensquartil glauben, sie werden von KI abgehängt. Die Hälfte der Befragten mit mittlerem Einkommen denkt das ebenfalls.

Whitney Munro, CEO und Gründerin von FLEX Partners, beobachtet diese Entwicklung in Echtzeit. Sie sagt:

In den Organisationen, die wir beraten, korrelieren die Ergebnisse der KI-Einführung in den verschiedenen Branchen nahezu perfekt mit dem bereits bestehenden Vertrauensniveau zwischen Führungskräften und Mitarbeitenden.

Wo Mitarbeiter das Gefühl hatten, in früheren Veränderungsprozessen ehrlich informiert worden zu sein, sind sie optimistischer und eher bereit, KI eine Chance zu geben. Dort, wo das Gegenteil der Fall war – Entscheidungen also ohne Kommunikation im stillen Kämmerlein getroffen wurden – wird KI laut ihrer Aussage zu einem „Blitzableiter für Konflikte.“

Dann beginnen Mitarbeiter zu fragen, ob es bei der Einführung wirklich um Produktivität geht – oder doch eher um das Reduzieren von Mitarbeitern. Und sie fühlen sich ersetzbar.

Inmitten dieser Spannung befinden sich die VPs, Direktoren und leitenden Manager, die damit beauftragt sind, die Botschaft nach unten weiterzugeben.

Kelly Meerbott, Führungskräfte-Coach, CEO von You Loud and Clear und TEDx-Rednerin zu psychologischer Sicherheit, beschreibt sie als „menschliche Stoßdämpfer“ zwischen den Prioritäten der Geschäftsleitung und der erlebten Realität der Belegschaft.

Sie sind erschöpft“, sagt sie. „Weil sie die Aussagen der Führung erzielen müssen, sodass die Teams sie glauben können. Und wenn diese mittleren Führungskräfte die Botschaft selbst nicht glauben, bricht die gesamte Vertrauenskette zusammen, bevor KI überhaupt bei den Beschäftigten ankommt.

Wie eine Personalvorständin (CHRO) oder ein COO mit dieser Spannung in den kommenden zwei Jahren umgeht, wird entscheidend dafür sein, ob die Einführung von KI zum Vertrauensaufbau beiträgt – oder stattdessen das Vertrauensverhältnis endgültig bricht.

Die Daten von Edelman geben Hinweise darauf, was funktioniert. Die Kommunikation von Mitarbeiter zu Mitarbeiter über KI ist etwa doppelt so wirksam wie Top-down-Kommunikation. Freiwillige Nutzung ist erfolgreicher als verpflichtende Einführung. Und der wichtigste Treiber von Vertrauen in KI ist persönliche Erfahrung, insbesondere die, dass KI tatsächlich hilft, die Arbeit besser zu machen.

Das bedeutet: Der Weg nach vorn liegt weniger in Strategiepapiere und mehr in der täglichen Arbeitserfahrung. Glaubt die Person in der Lagerhalle oder im regionalen Vertriebsbüro tatsächlich, dass das neue KI-Tool ihres Unternehmens – ob für Alltagsaufgaben oder Leistungsbewertungsprozesse – ihr Leben erleichtert? Oder glaubt sie, dass es den Grundstein legt, ihre Stelle in anderthalb Jahren abzuschaffen?

Die Technologie selbst beantwortet diese Frage nicht. Das Verhältnis zwischen Arbeitnehmer und Arbeitgeber tut es. Und in einem Land, in dem das Vertrauen in Institutionen seit Jahrzehnten sinkt, muss diese Beziehung eine Last tragen, für die sie nie ausgelegt war.

Vertrauen folgt Menschen, nicht Plattformen

Die Forschungsergebnisse zeigen ein Muster, das Führungskräften Orientierung bieten sollte. Vertrauen in KI beginnt nicht bei der KI. Es folgt einer älteren, menschlicheren Logik.

Menschen übernehmen, was sie sicher genug finden, um es zu erkunden. Sie erkunden, was jemand, dem sie vertrauen, bereits ausprobiert hat. Und sie verpflichten sich, wenn ihre eigenen Erfahrungen bestätigen, was ihnen gesagt wurde: Dass dieses Werkzeug ihnen helfen soll, nicht sie ersetzen.

Diese Abfolge ist es wert, untersucht zu werden, denn sie widerspricht dem Vorgehen, mit dem die meisten Unternehmen technologische Neuerungen einführen. Das Standardvorgehen ist Top-down: Ankündigung der Unternehmensleitung, Schulung aller, Nachvollziehen der Nutzungsquote und Integration in Leistungsprozesse.

Jeder Schritt in dieser Abfolge verstärkt das Machtgefälle, dem die Beschäftigten ohnehin misstrauen. Es signalisiert ihnen, dass KI über sie hinweg passiert – und nicht gemeinsam mit ihnen. In einem Umfeld, in dem sich bereits zwei Drittel der Skeptiker von KI überrumpelt fühlen, ist dieses Vorgehen nicht nur unwirksam. Es verschärft das Problem noch.

David Kolodny, Mitgründer des Startup-Studios Wilbur Labs, das seit 2016 mehr als 21 Tech-Unternehmen aufgebaut und unterstützt hat, kennt dies aus der Sicht eines Entwicklers.

Eine Überzeugung aus meiner langjährigen Arbeit mit Automatisierung ist: Die Grundlagen sind nach wie vor genauso wichtig wie immer“, sagt er. „Automatisierung erfordert durchdachte Planung, gründliches Qualitätsmanagement und laufende, sorgfältige Überwachung.

Die überstürzte Einführung ist, anders gesagt, genau der Ort, an dem Vertrauen stirbt. „Es ist um ein Vielfaches leichter, Vertrauen zu zerstören als aufzubauen“, fügt Kolodny hinzu, „und deshalb gibt es so viele Menschen, die der Technologie skeptisch gegenüberstehen.“

Munro argumentiert, dass der Wandel grundlegender sein muss als nur eine Anpassung des Tempos.

Man kann KI nicht einfach wie eine technische Lösung einführen“, sagt sie. „Es muss ein kultureller Wandel sein.

Das bedeutet, dass Führungskräfte einige sehr klare Schritte unternehmen müssen:

  • Explizit angeben, wofür KI eingesetzt wird und wofür nicht.
  • Klarstellen, ob Personalabbau Teil der langfristigen Strategie ist, anstatt die Mitarbeitenden im Ungewissen zu lassen und ihren schlimmsten Befürchtungen freien Lauf zu lassen.
  • Teams frühzeitig in die Testphase einbeziehen, sodass sie Teil des Prozesses sind, und ehrlich über die Kompromisse sprechen, statt nur die Produktivitätssteigerungen zu feiern, von denen die Mitarbeitenden glauben, dass sie zu ihren Lasten gehen.
  • Überprüfen Sie Ihre Maßnahmen auf Übereinstimmung mit den eigenen Werten in Bezug auf Überwachung. Der Einsatz von KI für „Aufdeckungs“-Überwachungen wird Mitarbeitende sofort vergraulen und jede Angst bestätigen, die sie ohnehin schon hatten.

Was die Vertrauensdaten dabei im Grunde zeigen, ist fast schon täuschend einfach. Fangen Sie klein an. Lassen Sie die Menschen sich freiwillig beteiligen. Finden Sie die Mitarbeitenden, die wirklich neugierig sind—nicht diejenigen, die ihre Begeisterung nur für das Management vorspielen—und geben Sie ihnen Raum, ohne Bewertung experimentieren zu können.

Wenn diese Menschen dann zurückkehren und ihren Kolleg:innen berichten, dass ihnen ein bestimmtes Tool zwei Stunden Arbeit beim Bericht erspart oder dabei geholfen hat, ein Muster zu erkennen, das sie sonst übersehen hätten, dann wiegt dieses Zeugnis mehr als jede Keynote, weil es ohne Eigennutz geschieht.

Plädoyer für Unsicherheit

Auch Führungskräfte im C-Level müssen bereit sein, offen zuzugeben, was sie nicht wissen. Die Daten von Edelman zeigen, dass zwei Drittel der Arbeitnehmenden in Industrieländern glauben, dass Wirtschaftsführer nicht offen und ehrlich über die Auswirkungen von KI auf Jobs sprechen werden. Diese Erwartung von Unehrlichkeit ist bereits fest verankert.

Der einzige Weg, diese zu durchbrechen, besteht in radikaler Transparenz darüber, was KI verändern wird, was nicht und wo das Unternehmen tatsächlich noch keine Antwort hat. Meerbott bringt es direkter auf den Punkt.

Sagen Sie anderen Führungskräften, dass Sie verwirrt sind oder keine Antwort haben“, sagt sie. „Schockieren Sie sie mit Ihrer Menschlichkeit.

Dieser Rat widerspricht jahrzehntelanger Konditionierung von Führungskräften, entspricht aber genau dem, was die Vertrauensdaten zeigen. Die meisten Führungskräfte sind darin geschult, Sicherheit auszustrahlen. In diesem Umfeld wirkt Sicherheit wie eine PR-Strategie. Das Eingeständnis von Unsicherheit, verbunden mit dem sichtbaren Einsatz, gemeinsam mit den Mitarbeitenden Lösungen zu suchen statt sie von oben herab zu diktieren, ist eine glaubwürdigere Haltung als jede ausgefeilte Transformationsgeschichte.

Die amerikanische KI-Angst ist ein kulturelles Artefakt; das Ergebnis einer Gesellschaft, die die Strukturen, die Menschen in Zeiten des Wandels Sicherheit geben, systematisch abgebaut hat. In Europa hat man die Leitplanken schon gebaut, bevor das Auto losrollte. In den USA wird von den Mitarbeitenden verlangt, dem Fahrer zu vertrauen, während das Auto beschleunigt—obwohl die Bilanz des Fahrers bestenfalls durchwachsen ist.

Ich glaube nicht, dass Amerikaner:innen grundsätzlich mehr Angst vor KI haben als ihre Pendants“, sagt Munro. „Ich glaube nur, dass wir Machtstrukturen gegenüber skeptischer sind, die Vertrauen und Gegenseitigkeit nicht konsequent unter Beweis gestellt haben.

Diese Skepsis kommt nicht von ungefähr. Sie wurde sich verdient. Und für CHROs und COOs, die diesen Moment gestalten, ist das das aktuelle Umfeld.

Jede KI-Einführung, jede Automatisierungsentscheidung, jede Umstrukturierung des Personals wird durch ein Vertrauensdefizit gefiltert, das schon lange vor dem ersten Prompt in ChatGPT bestand. Dieses Defizit anzuerkennen ist der erste Schritt. Es zu schließen, ist die Aufgabe des nächsten Jahrzehnts.