Willkommen bei der IG Metall

IG Metall: die Gewerkschaft in der ITK
Die Informationstechnologie- und Telekommunikationsbranche (ITK) gehört zu den größten Arbeitgebern in Deutschland. Seit mehr als 40 Jahren gestaltet die IG Metall mit den Beschäftigten aktiv die Arbeitsbedingungen in der Branche mit. In nahezu allen ITK-Unternehmen engagieren sich unsere Mitglieder für sichere Arbeitsplätze, Gute Arbeit und gerechte Einkommen. In großen und in kleinen Betrieben stehen wir den Beschäftigten kompetent zur Seite, beraten und informieren sie. Unsere Tarifverträge und Entgeltanalysen wirken weit in die Branche.

ITK-Sektor - ITK-Arbeitsmarkt

Personalmanagement der Zukunft: Findet der Algorithmus die richtigen Leute?

03.05.2018 | Katharina Zweigist Professorin an der Technischen Universität Kaiserlautern. Sie forscht zu komplexen Netzwerken.

Katharina Zweig

So und ähnlich bewerben Firmen ihre algorithmischen Entscheidungssysteme zur „Predictive HR Analytics“ oder einfach nur „People Analytics“. Unternehmen setzen solche Computerprogramme ein, um Kosten für unnötige Bewerbungsgespräche zu sparen, die richtigen Talente zu fördern – aber auch, um Absprungkandidaten zu identifizieren. Letzteres nennt sich „Employee retention“-Vorhersage, also eine Vorhersage über den Verbleib in der Firma. Im besten Fall dient eine solche Prognose dazu, die Betroffenen zum Bleiben zu motivieren. Sie kann aber auch dabei helfen, bei Personalabbau diejenigen zu identifizieren, die sich vielleicht mit einer kleineren Abfindung zufriedengeben, weil sie sich dem Unternehmen ohnehin nicht mehr verbunden fühlen.

Meist ist völlig unklar, wie gut die zugrunde liegenden Algorithmen in ihrer Vorhersage tatsächlich sind. Handelt es sich bei diesen Algorithmen um mechanisch abzuarbeitende Regeln, die von Experten basierend auf jahrelanger Erfahrung in Personalplanung zusammengestellt wurden, so sind die Systeme gut zu beurteilen: Ihre Entscheidungsregeln sind meist kurz, für andere Menschen verständlich, und die Ergebnisse können auch von den Beurteilten einfach infrage gestellt werden. Die Maschine ist hier also wenig mehr als der verlängerte (und schnellere, kostengünstigere) Arm der ursprünglichen Expertengruppe.

Ganz anders sieht es bei Systemen aus, die mit Hilfe des Maschinellen Lernens (ML) oder der Künstlichen Intelligenz (KI) ihre Entscheidungsregeln aus Daten selbstständig ableiten. Sie suchen nach Korrelationen von persönlichen Daten und gesuchter Eigenschaft. Beispielsweise könnte die Methode erkennen, dass erfolgreiche Bewerber oftmals keine Lücken im Lebenslauf haben und ein Auslandsaufenthalt die Wahrscheinlichkeit für eine erfolgreiche Einstellung erhöht.

Diese Korrelationen werden als Regeln abgespeichert, so dass die nächsten Personen danach bewertet werden können. Gut nachvollziehbar sind einfache Formeln, die die einzelnen Eigenschaften lediglich gewichten und summieren. Andere Regelstrukturen sind dagegen wenig einsehbar. Dies gilt insbesondere für die gerade sehr erfolgreichen „neuronalen Netze“. Sie sind genauso wenig transparent wie die Entscheidung eines Menschen und daher mindestens ebenso schwierig zu beanstanden.

Solange das Regelsystem bessere Entscheidungen trifft als der Mensch, mag das nebensächlich sein. Schwierig wird es, wenn auch die Maschine diskriminiert. Solche Fälle gibt es. Schon die zugrunde liegenden Daten können Diskriminierungen enthalten. Diese werden dann „mitgelernt“. Außerdem können die Daten zu fehlerbehaftet sein – die Entscheidungen der Maschine werden dann zu algorithmisch legitimierten Vor-Urteilen. Nicht zuletzt könnte eine Maschine, die Lebensläufe ohne Pausen für optimal hält, Eltern und Pflegende diskriminieren. So führt die eigentlich objektive zugrunde liegende Mathematik zu ungewünschten Entscheidungen.

Mitarbeiterbewertung ist so komplex, dass auch eine Maschine keine zu hundert Prozent gültigen Regeln finden wird – schlicht deswegen, weil es diese nicht gibt. Die algorithmischen Entscheidungssysteme werden genauso Fehler machen wie die menschlichen Experten – unter Umständen aber weniger. Das gilt insbesondere für solche Algorithmen des ML und der KI, die zugleich wenig transparent sind.

Im betrieblichen Umfeld braucht es deshalb klare qualitätssichernde Prozesse: Nach welchen Kriterien bewerten wir algorithmische Entscheidungssysteme? Wann beispielsweise rechtfertigt eine wesentlich höhere Entscheidungsgüte auch eine weniger gute Einsicht in den Entscheidungsprozess?

Klar ist: Die Maschine erkennt den Regelfall gut, nicht aber die positive Ausnahme. Das birgt die Gefahr, dass die Menschen sich der Maschine anpassen; sie richten ihren Bildungsweg und ihre Arbeitsweise auf das aus, was die Maschine einmal als optimal erkannt hat. Auf der Strecke bleibt dann der bunte Vogel mit dem zusammengestückelten Lebenslauf, der aber das Lagerteam zusammengehalten hätte, ebenso die Japanologin mit ihren kreativen Ideen fürs Management und der 45-Jährige, der nach seiner Meisterprüfung an der Fernuni studiert. Sie alle sortiert die Maschine bei der nächsten Bewerbung leider aus.

Bilder

  • Katharina