Das frische Magazin
für Human Resources
Human Impact Days
Teamimpuls

3 Hebel gegen Bias in HR-Algorithmen

1Apr2026
5 min
Bias KI-Algorithmen

HR-Know-how aus der Praxis für die Praxis

Inhalt

KI unterstützt im HR unter anderem bei Auswahl, Bewertung und Entwicklung von Menschen und damit Entscheidungen, die fair sein müssen. Der Beitrag zeigt, an welchen 3 Hebeln HR ansetzen kann, um Bias in KI-Systemen früh zu erkennen.

Autorin: Steffi Bärmann

Wo KI im HR unfair entscheiden kann

Der Einsatz von künstlicher Intelligenz (KI) im Personalmanagement reicht von der Unterstützung im administrativen Bereich, Recruiting, Wissensmanagement bis hin zur Leistungsbewertung und Empfehlung von Vergütung (RTR, 2025). Schon kleine Verzerrungen können hier zu systematisch unfairen Ergebnissen, die bestimmte Personen oder Gruppen begünstigen oder benachteiligen, führen. Bandara et al. (2025) bezeichnen das als algorithmischen Bias, der Vertrauen in der Organisation beeinträchtigen und zu Reputationsschäden mit rechtlichen Folgen führen kann.

3 Hebel für Bias‑Management als HR-Fähigkeit

Für Personalmanagementverantwortliche ergibt sich daraus die Notwendigkeit, mögliche Bias‘ zu antizipieren, vorzubeugen, zu erkennen und zu beheben, eine sogenannte HR Algorithmic Bias Management Capability zu entwickeln (Bandara et al., 2025). Die Ursache von Bias und damit Ansatzpunkte für dessen Identifikation und Beseitigung liegt in den drei Elementen (1) Probleme der Datenqualität, (2) Probleme mit dem KI-HR-Modell, (3) Probleme, die bei der Implementierung und beim Einsatz entstehen können.

Datenbias‑Hebel

Unvollständige und inkonsistente Daten sind zentrale Treiber für die Entstehung von Bias und sollten daher kontinuierlich gemanagt werden. Die Autoren und Autorinnen erheben in ihrer Studie drei signifikante Einflussfaktoren, das zu tun: die Vollständigkeit, Genauigkeit und das Format der Darstellung der Daten (Bandara et al., 2025).

    • Vollständigkeit: Um Daten vollständig zu erfassen, ist zunächst zu dokumentieren, welche Daten für bestimmte Entscheidungen im Recruiting, für die Leistungsbeurteilung etc. benötigt werden und woher diese kommen. Des Weiteren sollte hier geprüft werden, ob diese Datensätze alle relevanten Merkmale der Aufgabe oder der Zielgruppe umfassen.
    • Genauigkeit: Um Verzerrungen bei der Stichprobenauswahl zu vermeiden ist es notwendig zu prüfen, ob bestimmte Gruppen/ Standorte/ Joblevel über- oder unterrepräsentiert sind. Daten mit denen KI-Modelle trainiert werden, sollten Bewertungskriterien unterliegen, die nachvollziehbar beschrieben sind und bei historisch gewachsenen Daten deren Entstehung transparent ist.
    • Format: Drittens ist es wichtig, Daten in einer Form zu visualisieren, die gut nachvollziehbar ist. Das ermöglicht es, Fehler zu erkennen, wie z.B. zeitliche Verzerrungen, aufgrund veralteter Daten, Eintragsdubletten oder Daten, die in nicht repräsentativen Zeiträumen erhoben wurden, etc.

KI-HR-Modellbias‑Hebel

Nicht nur Daten, auch Modellierungsentscheidungen (z.B. Zieldefinition, Auswahl von Funktionen, Modellupdates) können zu systematisch unfairen Ergebnissen führen und brauchen deshalb eigene Regeln. Bandara et al. (2025) definieren die Fähigkeit, Bias im KI-HR-Modell zu managen anhand der Kritieren der Zuverlässigkeit des Modelles, der Flexibilität und der Ambidexterity (Beidhändigkeit) des verwendeten Modelles.

    • Zuverlässigkeit des KI-HR-Modells: Die Zuverlässigkeit des KI-HR-Modelles lässt sich über das Testen des Modelles prüfen. Dabei geht es zunächst darum, generell festzustellen, ob die festgelegten statistischen Parameter und Regeln auch erfolgreiche Ergebnisse erzielen, z.B. passende Empfehlungen für relevante Weiterbildungsprogramme erfolgreich identifizieren. Dabei ist zu prüfen, ob Ergebnisse für relevante Gruppen vergleichbar sind oder weit auseinanderlaufen und ggf. Fehlern entgegenwirken. Die Zuverlässigkeit einer Empfehlung oder Prognose wird dann gewährleistet sein, wenn das Modell über einen längeren Zeitraum hinweg konsistent und genau arbeitet. Dazu ist es hilfreich für das angewendete Tool den Zweck, Inputdaten, Output, Nutzungsgrenzen (Fairness-Metriken), bekannte Risiken und Update‑Logik zu erfassen und kontinuierlich zu pflegen.
    • KI-HR-Modell-Flexibilität: Das KI-HR-Modell sollte in der Lage sein, sich an verschiedene Anforderungen, Datenquellen und Kontexte anzupassen. Wenn z.B. ein Algorithmus, der in der Personalauswahl eingesetzt wird, sollte dieser über verschiedene demografische, geografische und soziale Gruppen von Bewerbenden hinweg eine konsistente und zuverlässige Leistung erbringen. Hier könnte es notwendig sein, dass Regeln eingeführt werden, die z.B. einen Re-Test verlangen. Die im Punkt zuvor erwähnte Dokumentation der Abläufe ist hier jedenfalls standardmäßig zu führen.
    • KI-HR-Modell-Ambidexterity: Modelle, bei denen sowohl Daten verwendet werden können, um Mitarbeitenden mit Empfehlungen zu ihrer Karriereentwicklung, als auch mit Lernempfehlungen zu versorgen (IBM, 2021). Hier geht es um eine langfristige Evaluierung und auch Nutzbarmachung von Algorithmen für die Organisation und die Mitarbeitenden.

Einsatzbias‑Hebel

Sowohl Datenqualität als auch Modellqualität sind wichtige Bestandteile des fairen KI-Einsatzes im HR. Trotzdem könnten beim Einsatz des Tools unfaire Effekte erzeugt werden, z. B. durch falsche Nutzung, fehlende menschliche Kontrolle oder unbemerkte Abweichungen. Daher ist es wichtig, dass die Implementierung der KI-HR-Lösung kompetent, wohlwollend und integer erfolgt (Bandara et al., 2025).

    • Kompetenz: Die Organisation sollte sicherstellen, dass sie über Kompetenzen verfügt, KI im Unternehmen so einzusetzen, dass dieser nutzenbringend und fair ist. Dazu ist es notwendig, HR-Mitarbeitende zu schulen, damit diese algorithmische Ergebnisse interpretieren, Bias erkennen und beheben können. Dabei können Richtlinien hilfreich sein, die erklären, wie Daten zu interpretieren und wo Grenzen zu setzen sind (was darf (nicht) abgeleitet werden).
    • Wohlwollen: Ein wohlwollender KI-Einsatz priorisiert den Mitarbeitenden und dessen Wohlbefinden. Mitarbeitende sollten sich an Ansprechpersonen wenden können, die ihnen bei der Anwendung von KI-Tools helfen und sie unterstützen. HR und Führungskräfte sind hier gefordert, den Mitarbeitenden zuzuhören und Ängste zu nehmen.
    • Integrität: Für die Mitarbeitenden sollte ersichtlich sein, dass die Organisation ethischen Prinzipien, wie Fairness, Gerechtigkeit, Transparenz folgt, wenn sie KI im HR einsetzt. Zu den wichtigen Aspekten, die hier zu klären sind, gehört die Festlegung, was durch KI (vollständig) automatisiert werden könnte und sollte, welche Entscheidungen und Arbeitsschritte explizit langfristig von Menschen ausgeführt werden und welche zumindest einer menschlichen Überprüfung unterliegen. Des Weiteren sollte es für Mitarbeitende eine Anlaufstelle geben, wenn sie z.B. KI-Ergebnisse und den Umgang damit unfair einschätzen.

Fazit

Algorithmischer Bias ist eine ernstzunehmende Herausforderung für Personalverantwortliche, die kontinuierlich zu managen ist. Entsprechende Kompetenzen sind erlernbar und sollten in Unternehmen aufgebaut werden.

3 Hebel gegen Bias in HR-Algorithmen

Quellen

Kategorien:

Schlagwörter:

Teilen:

Ähnliche Beiträge