Ein neuer SHRM-Bericht beziffert ein Problem, das sich seit zwei Jahren aufbaut: 57 % der HR-Fachkräfte in US-Bundesstaaten mit arbeitsbezogenen KI-Gesetzen geben an, dass ihnen diese Gesetze gar nicht bekannt sind.
Damit beginnt die rasante und wechselhafte Phase der KI-Governance mit neuen Herausforderungen.
Die Erkenntnis stammt aus dem SHRM-Bericht 2026 State of AI in HR. Während Bundesstaaten wie Colorado, Illinois und New York Vorschriften zur Nutzung von KI bei Einstellungs- und Personalentscheidungen erlassen haben, wurde in vielen Organisationen angenommen, dass die Rechtsabteilung die Gesetze verfolgt und HR die Richtlinien umsetzt. Die SHRM-Daten legen jedoch nahe, dass dies keineswegs systematisch geschieht.
Ravin Jesuthasan, ein Zukunftsstratege für Arbeitswelt, der seit Jahren untersucht, wie Unternehmen Zuständigkeiten bei Personalentscheidungen verteilen, äußerte sich klar dazu, wo die KI-Compliance aktuell in den meisten Unternehmen angesiedelt ist.
Ich glaube nicht, dass die meisten Organisationen heute eine Antwort darauf haben. Das Grundproblem ist struktureller Natur. Vieles fällt in den Zwischenraum zwischen den traditionellen Funktionen.
Hinzu kommt ein weiteres Problem: Schatten-KI. Viele Beschäftigte nutzen allgemeine KI-Tools zur Beratung oder Unterstützung bei Personalentscheidungen – meist ohne Kenntnis der HR- oder Rechtsabteilung.
Wenn diese Tools etwa bei Auswahl, Leistungsbeurteilung oder Beförderung eingesetzt werden, können dadurch gesetzliche Informationspflichten oder Prüfungen auf Vorurteile gemäß Landesrecht erforderlich werden. Erfährt die Leitung nichts von deren Nutzung, ist eine notwendige Offenlegung in der Praxis unmöglich.
In Kraft tretende Gesetze
Colorados KI-Gesetz, das am 30. Juni in Kraft tritt, verpflichtet Arbeitgeber, die hochriskante KI-Systeme bei Personalentscheidungen einsetzen, zu Auswirkungsanalysen und zur Information der betroffenen Personen.
Das Illinois Artificial Intelligence Video Interview Act verlangt eine Information, wenn KI Bewerbungsgespräche analysiert.
Das New York City Local Law 144 schreibt eine Überprüfung auf Voreingenommenheit für automatisierte Entscheidungsinstrumente bei Einstellungen vor.
Alle Regelungen haben eigene Definitionen, Schwellenwerte und Durchsetzungsmechanismen. Das führt zu einem Flickenteppich aus Verpflichtungen, die keine einzelne Unternehmensfunktion allein zuverlässig im Blick behalten kann.
Verantwortung und Governance
Gerade die Frage der Verantwortlichkeit ist besonders verzwickt. Die Rechtsabteilung kennt die regulatorischen Vorgaben im Allgemeinen. HR verantwortet die Personalentscheidungen. Die Technikabteilung betreut die Tools. Doch laut SHRM-Daten verbinden sich diese drei Bereiche kaum zu einem stimmigen Ganzen.
Jesuthasan beobachtet, dass manche Organisationen beginnen sich anzupassen.
Es entstehen nicht nur neue Rollen und Funktionen, sondern auch bestehende Bereiche werden umgestaltet.
Jesuthasan verweist dabei speziell auf CHROs, die zusätzlich Verantwortung für KI-Einführung übernommen und die bestehenden Bereichsgrenzen erweitert haben, um bestehende Lücken zu schließen – statt auf ein neues Organigramm zu warten, das um sie herum erst entstehen müsste.
Eine solche Entwicklung ist seit 18 Monaten in der gesamten Branche sichtbar. People Enablement, Leiter KI-Transformation, Workforce-Intelligence-Leitung – die Begrifflichkeiten wandeln sich, weil der Aufgabenbereich sich wandelt.
Ob mit geänderten Verantwortlichkeiten auch tatsächliche Befugnisse für Compliance-Entscheidungen und die nötigen Mittel zur Umsetzung einhergehen, ist in den meisten Unternehmen jedoch weiterhin offen.
Bewusstsein ist Voraussetzung, aber kein Endziel. Zu wissen, dass ein Gesetz existiert, beantwortet weder, wer im Unternehmen verantwortlich ist, noch ob aktuelle KI-Anwendungen darunterfallen. Diese Fragen müssen explizit geregelt und übernommen werden – doch bislang hat die Mehrheit der Unternehmen diese Weichen noch nicht gestellt.
