Verständlich und fair
Routineaufgaben automatisieren, wie Termine überwachen und an TODOs erinnern. Prozesse beschleunigen, indem Bewerberdaten automatisiert übernommen und klassifiziert werden. So wie alle Unternehmensbereiche versucht auch Human Resources, mit Hilfe von Künstlicher Intelligenz die vielfältigen Aufgaben effizienter und besser zu erledigen. Im Mittelpunkt stehen dabei Personaldaten und das sind sensible Daten, die mit entsprechender Vorsicht verarbeitet werden müssen. Noch wichtiger ist dabei: Personalentscheidungen betreffen Job- und Karrierechancen und damit beeinflussen sie das Leben von Menschen. Beim Einsatz von KI-Tools geht es daher neben Datenschutz auch um
- Transparenz: Welche Daten werden genutzt? Wie werden vom KI-System Entscheidungen getroffen und sind diese nachvollziehbar bzw. erklärbar?
- Ethik: Wie wird sichergestellt, dass jede und jeder fair behandelt wird, dass also die Daten keinen Bias haben? Welche Entscheidungen kann ich überhaupt im Personalbereich KI-basiert treffen und was braucht es dazu?
EU AI Act: Regeln für Vertrauen
Die wichtigen Kriterien Transparenz und Ethik unterstützt die neue KI-Verordnung (EU AI Act) von 2024, die seither schrittweise in Kraft tritt und KI-Systeme in Risikokategorien aufgeteilt hat: Damit gibt es erstmals ein einheitliches Regelwerk, das den Einsatz von Künstlicher Intelligenz EU-weit regelt. Das gibt Unternehmen und somit auch Personalabteilungen die Chance, moderne KI-basierte Lösungen in einem gesetzlich vorgegebenen Rahmen einzusetzen, der einen Schwerpunkt auf Transparenz und Ethik legt. Nur auf diese Weise kann Vertrauen in KI-Anwendungen entstehen, und zwar sowohl auf Seite der Beschäftigten (inklusive Bewerberinnen und Bewerbern), deren Daten von KI verarbeitet werden; als auch aufseiten des HR-Teams selbst, das solche Tools nutzbringend verwenden soll.
Was der Ethikbeirat HR sagt
Die neue KI-Verordnung verändert, wie KI-Systeme von HR genutzt werden können, analysiert der Ökonom und Wirtschaftsethiker Bernd Irlenbusch, Mitglied im Deutschen Ethikbeirat HR Tech: „KI-Anwendungen, die in HR zum Einsatz kommen, werden zum Teil als sehr risikoreich eingestuft. Hierzu zählen Einstellungs-, Beförderungs- oder Kündigungsentscheidungen, die Zuweisung von Aufgaben auf der Grundlage von individuellem Verhalten oder persönlichen Eigenschaften, sowie die Überwachung und Bewertung von Leistung und Verhalten. Als Begründungen führt der EU AI Act an, dass Berufsaussichten und Lebensunterhalt von Personen, sowie Grundrechte auf Datenschutz und Privatsphäre stark beeinflusst werden oder existierende Diskriminierungen fortgesetzt werden.“
Black-Box oder Transparenz?
Wenn Sie KI-Systemen eine Frage stellen oder Auswertungen machen lassen, so basieren die Ergebnisse auf Algorithmen, also Regeln, Parametern und Entscheidungsbäumen sowie auf den Trainingsdaten. Ein HR-KI-Tool kann beispielweise die Kompetenzen einer Person bewerten. Manche Algorithmen sind einfach linear mit wenigen Parametern und Regeln gestaltet – diese sind daher für Menschen einfach verständlich. Mit fortschreitender Entwicklung des maschinellen Lernens nutzen Modelle heute jedoch hunderte Regeln und Entscheidungsbäume, um präziser Vorhersagen treffen zu können – das geht aber auf Kosten der Verständlichkeit. Denn komplexe Algorithmen können von Menschen nicht mehr nachvollzogen werden, sie werden zur „Black Box“. Wenn dann jemand wissen will, warum er oder sie diesen Job nicht bekommen hat, so ist die Antwort „Das hat die KI entschieden“ für beide Seiten natürlich weder akzeptabel noch befriedigend. Es mangelt an Transparenz.
Für dieses Problem wird an Lösungsansätzen unter dem Titel „Explainable AI“ gearbeitet. So könnte in unserem Beispiel erklärt werden, dass man bei Kompetenz X einen Wert größer Y erreichen muss, um für den Job qualifiziert zu sein. Im Bereich erklärbare verständliche KI ist allerdings noch viel Forschungsarbeit nötig. Für HR stellt sich daher bei der Entscheidung über eine KI-Software die Frage, ob der Einsatz von komplexen Black Box Modellen bessere Ergebnisse bringt. Oder ob es zielführender wäre, einfachere Modelle zu nutzen, die von Menschen nachvollziehbar sind.
Diskriminierung oder Fairness?
Benachteiligung aufgrund von Kriterien wie Geschlecht oder Herkunft vermeiden, Menschen fair behandeln und damit Vertrauen in KI ermöglichen, diese Bestrebungen werden unter dem Begriff „Responsible AI“ zusammengefasst. Das umfasst mehrere Ansatzpunkte:
- Verantwortungsvoll designte KI-Systeme sollen Datenschutzprinzipien beachten wie Anonymität, Vertraulichkeit, Datensparsamkeit; genauso betrifft das Information und Zustimmungsmöglichkeit, welche Daten genutzt werden dürfen. Wenn etwa Leistungskennzahlen gemessen werden, so müssen die betroffenen Arbeitskräfte zustimmen können; gleichzeitig sollte – in Anbetracht der Unzahl an heute verfügbaren Daten – überlegt werden, wo die Grenzen der Überwachung sind.
- Wesentlich für faire Ergebnisse sind die Trainingsdaten, denn eine KI ist nicht automatisch objektiver als ein Mensch; sie lernt ja aus früheren Entscheidungen und wenn für einen Programmierjob über Jahre hinweg Bewerber zumeist Bewerberinnen vorgezogen wurden, unabhängig von deren Kompetenz, so wird die KI das ebenfalls tun.
- Das Prinzip Human-in-the-Loop ist ebenfalls ein wesentlicher Punkt der Responsible AI: Es besagt, dass jede Personalentscheidung menschliche Kontrolle braucht. Die Maschine darf nie allein entscheiden, sondern die HR-Verantwortlichen haben das letzte Wort.
Deep Dive 1: Gleichbehandlung
Mit den beiden folgenden Deep Dives können Sie konkret und praktisch den Einsatz von HR-KI-Tools analysieren.
Zahlreiche Tipps, Q&A und Informationen der Gleichbehandlungsanwaltschaft erklären, wie Unternehmen für einen rechtskonformen Einsatz von Künstlicher Intelligenz laut KI-Verordnung sorgen können. Das sind wesentliche Punkte:
- Das Antidiskriminierungsrecht muss auf KI-Systeme angewendet werden; Arbeitgeber mussten jedoch schon vorher (also bei früheren HR-Tools) darauf achten.
- Beispiel: Ein KI-System trifft unter hunderten Bewerbungen eine Vorauswahl und schlägt daraus die Top 20 vor. Die Personalabteilung sieht sich nur diese zwanzig Bewerbungen für die Job-Entscheidung an. Dann wäre die Vorauswahl für die Job-Vergabe nur durch eine Maschine passiert, ohne dass ein Mensch das kontrolliert hat (Human-in-the-Loop). Laut geltender Rechtslage ist das verboten.
- Wenn Arbeitskräfte KI-Systeme nutzen, so müssen sie entsprechend geschult werden (Stichwort KI-Kompetenz).
Deep Dive 2: Ethik-Check KI für HR
Ein interdisziplinäres Gremium hat 10 Richtlinien für den verantwortungsvollen Einsatz von KI in der Arbeitswelt erstellt: Der Ethik-Check KI gibt dazu Rahmen und Orientierung. Dabei richtet man sich an HR-Entscheider, genauso wie an Sozialpartner oder IT-Entwickler. Die Richtlinien wurden in Checklisten übersetzt, mit denen der Einsatz von KI-basierten HR-Lösungen bewertet werden kann. Die 10 Richtlinien behandeln Themen wie
- Transparenter Zielsetzungsprozess und Einbindung
- Menschen entscheiden
- HR treibt KI-Lösungen – nicht umgekehrt
- Zweckbindung und Datenminimierung
- Vermeidung von Diskriminierung