Neue Studie von
AlgorithmWatch
Düsseldorf, Duisburg, 16. März 2023 - Damit KI-Systeme in
der Personalpolitik von Unternehmen kein Unheil anrichten,
sollten Beschäftigte und Betriebsräte am gesamten
Entwicklungs-, Einführungs- und Anwendungsprozess beteiligt
werden. Das ergibt eine neue Studie von AlgorithmWatch. In
ihrer von der Hans-Böckler-Stiftung geförderten Untersuchung
zeigen Forschende der Nichtregierungsorganisation, in
welchen Phasen Mitsprache der Belegschaft besonders wichtig
ist, wenn „Maschinelles Lernen“ im Personalbereich angewandt
wird. Erleichtert würde das durch neue gesetzliche
Regelungen, etwa umfassende Transparenz-Anforderungen für
KI-Systeme, analysieren Dr. Anne Mollen und Lukas Hondrich
von AlgorithmWatch.
Die Notwendigkeit von Gesetzesreformen auf der Höhe der Zeit
sieht auch Dr. Johanna Wenckebach: Stärkere gesetzliche
Mitbestimmungsrechte beim betrieblichen Datenschutz und bei
der Prävention von Diskriminierungen sind ein wichtiger
Baustein, um Fehlentwicklungen zu verhindern, betont die
wissenschaftliche Direktorin des Hugo Sinzheimer Instituts
(HSI) für Arbeits- und Sozialrecht der
Hans-Böckler-Stiftung.
Sogenannte Künstliche Intelligenz (KI) ist mittlerweile in
der Lage, Kunstwerke zu generieren, Unterhaltungen zu führen
oder Jura-Prüfungen zu bestehen. Dass man ihr auch in der
Arbeitswelt zunehmend Aufgaben anvertraut, dürfte da kaum
überraschen. Tatsächlich nutzen manche Unternehmen bereits
Programme „automatisierter Entscheidungsfindung“, die
Lebensläufe von Bewerberinnen und Bewerbern auswerten, die
Schichtplanung übernehmen, Beschäftigte für Weiterbildungen,
Beförderungen oder Entlassungen auswählen.
KI in Form von „Maschinellem Lernen“, wie sie bereits im
Personalbereich zum Einsatz kommt, laufe darauf hinaus,
komplexe Muster in existierenden Daten zu identifizieren und
auf dieser Basis Prognosen zu stellen, erklären Mollen und
Hondrich von AlgorithmWatch. Wenn aus diesen automatisierten
Prognosen Personalentscheidungen abgeleitet werden, habe das
weitreichende Konsequenzen für die Beschäftigten: Die
Intransparenz der Entscheidungsfindung mache es ihnen
schwer, sich zum Beispiel gegen Fehlentscheidungen oder
Diskriminierung zu wehren, und vergrößere das
Machtungleichgewicht zwischen Management und Belegschaft.
Die Beschäftigten hätten keine Möglichkeit nachzuvollziehen,
ob die Entscheidungen ihre Interessen angemessen
berücksichtigen. Tatsächlich habe die Politik dieses Problem
erkannt, heißt es in dem Papier. Im Entwurf der
EU-Kommission für eine KI-Richtlinie werden Anwendungen, die
sich auf Personalentscheidungen beziehen, als
Hochrisiko-Systeme eingestuft. Das heißt: Die Anbieter
solcher Programme sind verpflichtet, gewisse
Transparenzvorgaben einzuhalten.
Diese Vorschriften beschränken sich allerdings auf die
Markteinführung und gelten nur für die Anbieter, aber nicht
für die Unternehmen, die diese Systeme dann nutzen,
kritisieren die Expertin und der Experte. Daher seien solche
risikobasierten Ansätze zwar ein erster Schritt in die
richtige Richtung. In einem zweiten Schritt müssten aber die
Risiken in der betrieblichen Praxis fallweise kontrolliert
und im Idealfall auch die Interessen der Beschäftigten
berücksichtigt werden. Und das gehe nicht ohne Mitbestimmung
der Beschäftigten.
Mollen und Hondrich beschreiben in ihrer Analyse fünf
Phasen, in denen es sinnvoll ist, dass sich Beschäftigte und
ihre Betriebsräte jeweils einbringen. Bei der
Problemdefinition geht es zunächst darum, Aufgaben und Ziele
einer KI-Anwendung zu definieren. Dabei mitzureden sei
besonders wichtig, weil hier fundamentale Fragen verhandelt
werden, die weitreichende Folgen für die innerbetrieblichen
Machtverhältnisse haben können. Wenn beispielsweise der
interne Jobmarkt automatisiert werden soll, werde Wissen
über Einstellungs- und Beförderungspraktiken in einem
Unternehmen zentralisiert, das vorher über viele
verschiedene Beteiligte verteilt war, und ein
Informationsungleichgewicht geschaffen, das die
Verhandlungsposition der Arbeitnehmerinnen und Arbeitnehmer
schwächt.
In dieser Phase sollten die Anwendung und insbesondere ihre
Grenzen sehr klar definiert werden, um zu vermeiden, dass
die Systeme später für Zwecke eingesetzt werden, für die sie
nicht ausgelegt sind. So wäre denkbar, dass ein System, das
nur statistische Zusammenhänge zwischen bestimmten
Datenpunkten identifizieren soll, später auch genutzt wird,
um Kausalitäten abzuleiten. Dass in der Vergangenheit vor
allem Männer in einem IT-Unternehmen zu
Einstellungsgesprächen eingeladen wurden, könnte dann dazu
führen, dass nur Männer in die engere Personalauswahl
einbezogen werden.
In der Daten-Phase steht die Datensammlung für
Trainingszwecke an. Hier stellen sich der Studie zufolge
Fragen vor allem zu Datenschutz und Überwachung.
Existierende Kommunikationsdaten wie Mails oder
Chat-Protokolle auszuwerten könne die Privatsphäre verletzen
und zudem zu Verzerrungen führen, weil nicht alle diese
Kanäle gleichermaßen nutzen. Ein Grundproblem bestehe darin,
dass KI-Anwendungen zu verzerrten Ergebnissen neigen, wenn
die Trainingsdaten selbst verzerrt sind, etwa durch
diskriminierende Personalentscheidungen und ungleiche
Verhältnisse in der Vergangenheit. Hier brauche es ein
tiefes technisches Verständnis und unter Umständen Beratung
durch Expertinnen und Experten.
Im Rahmen des Modell-Trainings ermittelt die KI die
mathematische Funktion, die am besten dem definierten Zweck
entspricht. Während dieser Phase zeige sich, ob etwaige
Verzerrungen aus den Datensätzen und der Programmierung auf
die Ergebnisse abfärben, so Mollen und Hondrich. Das sollte
die Beschäftigtenseite genau im Auge behalten. Zudem sei es
technisch möglich, die Interessen der Beschäftigten gezielt
in den KI-Algorithmus einzuspeisen.
Die Zielfunktion lasse sich beispielsweise so kalibrieren,
dass bei Stellenbesetzungen neben der Eignung auch die
persönlichen Interessen und Karriereziele von Beschäftigten
berücksichtigt werden. Auch nach dem Training, bei der
Anwendung in der Praxis und dem Retraining, brauche es
Vorkehrungen gegen Fehlentwicklungen, so die Fachleute von
AlgorithmWatch. Zentraler Ansatz dafür sei die regelmäßige
Kontrolle, ob sich schädliche Muster bei den Resultaten
abzeichnen. Ein weiteres Einfallstor für Willkür ergebe sich
dadurch, wenn die Umsetzung der Empfehlungen der KI in der
Hand von Menschen liegt. Hier seien klare Regeln nötig, wann
Personalverantwortliche von diesen Empfehlungen abweichen
können oder sollen.
Damit Beschäftigte und Betriebsräte in der Lage sind, den
nötigen Einfluss zu nehmen, wäre laut der Analyse von
AlgorithmWatch auch der Gesetzgeber gefragt. Nötig wären
demnach umfassende Transparenz-Anforderungen für KI-Systeme
sowie die Förderung von KI-Weiterbildungen für Betriebsräte.
„Transparenzanforderungen alleine reichen nicht aus, sie
müssen auch genutzt werden“, erläutert Dr. Stefan Lücking,
Referatsleiter für den Förderbereich „Mitbestimmung und
Wandel der Arbeitswelt“ der Hans-Böckler-Stiftung.
„Die Anwendung von ‚maschinellem Lernen‘ im Personalbereich
ist ein komplexer Prozess, bei dem sich viele Fragen
stellen, zu denen eine Mitbestimmung der Beschäftigten
erforderlich ist.“ Dass die Gesetzgebung rasch auf die
technische Entwicklung reagieren und dabei auch die
Mitbestimmung stärken muss, unterstreicht Johanna
Wenckebach.
„Die Bundesregierung hat das wichtige Vorhaben, den
Beschäftigtendatenschutz zu verbessern. Das ist überfällig.
Damit der Schutz von Persönlichkeitsrechten in der Praxis
durchgesetzt wird, ist Mitbestimmung entscheidend“, sagt die
HSI-Direktorin, die auch an einem Gesetzentwurf für ein
zeitgemäßes Betriebsverfassungsgesetz mitgearbeitet hat.**
„Der Reformvorschlag sieht deshalb unter anderem mehr
Mitbestimmungsmöglichkeiten beim betrieblichen Datenschutz
vor. Wichtig ist auch, mehr Instrumente für Betriebsräte zu
schaffen, um gegen Diskriminierungen vorzugehen“, sagt
Wenckebach.
*Anne Mollen, Lukas Hondrich From
risk mitigation to employee action along the Machine
Learning Pipeline, Working Paper der HBS-Forschungsförderung
Nr. 278, März 2023
MEHR ›
|