Das frische Online-Magazin
für Human Resources
Diversity Campus
mavie
Mayerhofer-Trajkovski
Familypark Teambuilding

Wenn Artificial Intelligence HR den Kopf verdreht | Trust in AI.

Artificial Intelligence, AI = KI

Beim HR Inside Summit (11+12okt2023 in der Wiener Hofburg) wird Steffi Bärmann über Artificial Intelligence sprechen. Ich habe sie schon vorab interviewt

Das konkrete Thema ihrer Session lautet: „Trust in AI. Zum Aufbau von Vertrauen in künstliche Intelligenz im Bereich Human Resources Development.“ Ich freu mich schon drauf! Jetzt aber tauchen wir ein ins Interview:

Anm: Artificial Intelligence = AI = künstliche Intelligenz = KI

INHALT

Interview

Interview-Partnerin

Wenn Artificial Intelligence HR den Kopf verdreht | Trust in AI.

Steffi Bärmann, ehemalige Handball-Weltmeisterin, mit internationaler Business Coaching Erfahrung unter anderem im Iran, ist seit 2016 Academic Expert & Lecturer an der Fachhochschule Wien der WKW im Bereich Personalentwicklung, Training & Coaching. Sie forscht in den Bereichen Trust in AI und dem Einsatz von Künstlicher Intelligenz im Human Ressources Development.

Stffi Bärmann, FHwien, c Feel Image - Matern

.

Weshalb ist Artificial Intelligence gerade in HR richtig angesiedelt? Welche Anwendungsbereiche siehst du vor allem für HR nutzbar?

Künstliche Intelligenz ist generell gut einsetzbar, wenn es darum geht, große Datenmengen auszuwerten, miteinander zu verknüpfen und daraus zum Beispiel Vorhersagen zu treffen oder Empfehlungen abzugeben. Daher ist künstliche Intelligenz auch im Personalmanagement dort einsetzbar, wo viele Daten gesammelt und verarbeitet werden.

Ausgangspunkt für die Anwendung von Artificial Intelligence im HR ist in der Regel eine Fragestellung, ein Problem, wie z.B. hohe Bewerbungszahlen im Recruiting oder Fachkräftemangel und die Notwendigkeit der internen Weiterbildung für das Lernen.

So kann KI im Recruiting umfassend von der Veröffentlichung der Stellenanzeigen auf einschlägigen Webseiten, über Jobempfehlungen für Kandidaten, Durchsicht der Lebensläufe und Onboarding eingesetzt werden.

Im Learning & Development, wird Artificial Intelligence zum Beispiel eingesetzt, um Trends und Veränderungen in den Lernerfordernissen zu erfassen, aber auch um personalisierte Lernerfahrungen, z.B. über e-learning Plattformen zu ermöglichen.

Es gibt aber auch andere Bereiche, wie das Performance Management, Compensation & Benefits, Mitarbeiterengagement oder Personaleinsatzplanung, in denen (derzeit vor allem datenaffine) Unternehmen KI im HR einsetzen können.

Worin liegen die größten Bedenken, was das Vertrauen in AI betrifft?

Vertrauen der Beteiligten wird relevant, wenn ein Risiko besteht, in einer Situation z.B. verletzt, enttäuscht oder hintergangen zu werden.

Große Bedenken liegen unter anderem im drohenden Jobverlust und in der Unfähigkeit, mit den vorausgesagten schnellen und einschneidenden Veränderungen umzugehen. KI / Machine Learning-Algorithmen brauchen viele Daten, um ständig und ohne Pause trainiert zu werden und/oder lernen selbständig weiter, tatsächlich in einer Form, die die menschliche Aufnahme- und Verarbeitungskapazität übersteigt.

Weitere Bedenken bestehen in Bezug auf die verwendeten Daten, dessen Qualität, Sicherheit der Aufbewahrung, Zugang, Entscheidungsmacht, Einspruchsmöglichkeit. Artificial Intelligence macht nur das, was durch den vom Menschen vorgegebenen Algorithmus indiziert wurde und lernt im Falle von unsupervised Machine-Learning Algorithmen selbständig weiter. Dabei kreiert der Algorithmus ein Abbild dessen, was gefordert und gelernt wurde, ein ETWAS, wie zum Beispiel eine „perfektes“ strategisch relevantes Skill-Profil. Durch die Entscheidung der Anwendung dieser Profile für die Weiterbildung und das Messen von (Lern-)Performance anhand dieser, werden Realitäten für die Anwendenden geschaffen, die zum Teil absehbar und i.d.R. seitens der Organisation gewollt, zum Teil aber nicht vorhersehbar sind. Bleiben wir beim Beispiel des strategisch relevanten Lernens: Mitarbeitende lernen anhand der Vorgaben, aber der gemessene Lernfortschritt ist nicht wie erwartet, auch bleibt eine Perfomance-Steigerung (im Vergleich zu anderen Kollegen) aus. Welche Konsequenzen gibt es? Hier bedarf es eine entsprechende Organisations- und Führungskultur, um Vertrauen in eine Anwendung zu schaffen, und einen geleisteten Vertrauensvorschuss nicht zu enttäuschen.

Beispiele aus der Presse haben gezeigt, dass Ergebnisse nicht immer fair (z.B. Amazon) sind. Ein Grund für die Anwendung von Artificial Intelligencein Organisationen ist dessen Potenzial, ohne Bias auszukommen. Dieses Potenzial ist bei weitem nicht ausgeschöpft, spielt aber eine wesentliche Rolle. Die Anwendenden wollen sicher sein, dass das verwendete System faire Ergebnisse produziert, vor allem wenn Vergleiche mit anderen Mitarbeitenden/ Bewerbenden vollzogen werden und dies konkrete Konsequenzen z.B. auf Karriere- und Gehaltsentwicklungen haben.

Wie kann Trust hinsichtlich Artificial Intelligence bewusst gefördert werden?

Unternehmen, die eine Vision haben, Artificial Intelligence zu implementieren, um die Mitarbeitenden zu fördern und zu fordern – und diese nicht zu entlassen, werden als vertrauenswürdig wahrgenommen.

Vertrauen in KI kann gefördert werden, indem z.B. transparent vom Unternehmen kommuniziert wird, welche Daten für welche Zwecke, mit welchen Zugängen (z.B. Einsicht durch Führungskräfte) gesammelt und aufbewahrt werden und wie diese mittels Artificial Intelligence verarbeitet werden.

Wichtig ist hierbei für jene, die den KI-Einsatz im Unternehmen forcieren, z.B. auch die Anwendung möglichst diverser Daten zu fordern, um Ergebnisse zu erzeugen, die nicht diskriminierend und Optionen erweiternd sind.  

Anwendende sollten zudem die Möglichkeit haben, zu erkennen, wann KI-Systeme verwendet werden, sowie Erklärungen zu erhalten, anhand welcher Parameter und welcher Prozesse ein KI-System Entscheidungen trifft.

Empfohlen wird auch die Entwicklung von Algorithmen und die dahinterstehende Intention zu dokumentieren, so dass ggf. Einsicht genommen werden kann und auch, auch von dritten Instanzen.

Des Weiteren ist es wichtig, dass die Führungskräfte Ansprechpersonen bleiben, an die sich Mitarbeitende wenden können, sollten sie Ergebnisse nicht verstehen, oder mit diesen nicht einverstanden sein. Führungskräfte sind hier gefordert sich mit dem Thema Artificial Intelligence, seinen Möglichkeiten und Grenzen auseinanderzusetzen und Kompetenz zu entwickeln. Die Mitarbeitenden sollten nach wie vor das Gefühl haben, dass ihre Aussagen ernst genommen werden und Ergebnisse eines KI-Systems diskutierbar sind. Eine Möglichkeit besteht auch darin, eine weitere Instanz, die sich mit den ethischen und Vertrauensfragen auseinandersetzt zu implementieren.

Wichtig ist hier auch, dass Führungskräfte in Ihrer Rolle die Verantwortung für etwaig produzierte Fehler von KI-Systemen übernehmen und diese nicht an Mitarbeitende abwälzen (das System kann Verantwortung nicht übernehmen).

Generell spielt neben Vertrauen auch eine gewisse Vertrautheit eine Rolle. Es kann davon ausgegangen werden, dass z.B. Mitarbeitende in Unternehmen, die z.B. bereits Produkte mit KI-Unterstützung entwickeln, und daher bereits eine Vorerfahrung haben, sich diese auch auf die Anwendung in anderen Bereichen, wie dem Personalmanagement übertragen lässt.

Welche Erkenntnis kannst du noch aus deiner  Forschung teilen?

Das Implementieren von strategisch relevanter Artificial Intelligence im Unternehmen kann durch die Zusammenarbeit von Programmierern, Fachexperten und Mitarbeitenden gelingen. Aus den Befragungen hat sich ergeben, dass nie volles Vertrauen in ein KI-System gegeben wurde, sehr wohl aber Vertrauen zwischen den anwendenden Stakeholdern förderlich ist und gefördert werden kann. Derzeit spielt der Mensch nach wie vor eine Rolle, denn er entscheidet, welche Daten verwendet werden bzw. auf welchen Daten-Pool zugegriffen wird, welche Zusammenhänge zwischen diesen Daten hergestellt werden sollen, wie letztendlich mit den Ergebnissen umgegangen wird. Je nach Fortschritt der Implementierung werden z.B. die Ergebnisse der Algorithmen noch von den Fachexperten und Anwendenden verifiziert und auf Anwendbarkeit und Plausibilität geprüft. Das ist eine wichtige Erkenntnis, die aus der Rolle der Überforderung heraushelfen kann. Wir sind als KI-Anwendende auch Gestaltende, trainieren sowohl die Artificial Intelligence, die wir verwenden als auch die Umgebung in der es eingesetzt wird.

Mag. Eva Selan, MSc | HR-Redakteurin aus Leidenschaft

Theoretischer Background: MSc in HRM & OE. Praktischer Background: HR in internationalen Konzernen und KMUs in Österreich und den USA.
Nach der Tätigkeit beim Print-Medium Magazin TRAiNiNG als Chefredakteurin, wechselte sie komplett in die Online-Welt und gründete Ende 2010 das HRweb.

Kategorien

Schlagwörter

Want a successful team?
Radikales Coaching
Want a successful team?