Könnte Künstliche Intelligenz bald auch die Bewerbungsprozesse erobern?
Könnte Künstliche Intelligenz bald auch die Bewerbungsprozesse erobern? ©Warakorn/AdobeStock

KI im Recruiting: Automatisch, praktisch, gut?

Im Marketing fast schon Standard könnte Künstliche Intelligenz jetzt auch die Bewerbungsprozesse erobern. Fachgrößen sehen darin auf jeden Fall viel Potenzial. Doch welche Möglichkeiten bieten sich hier – und vor allem welche Risiken?

Im Handumdrehen nicht nur die qualifiziertesten, sondern auch die geeignetsten Bewerbenden für die freien Posten finden? Das kann bekanntlich dauern. Auch Monate, wenn viele Bewerbungen im Posteingang landen. Künstliche Intelligenz (KI) schafft so ein Personal-Auswahlverfahren quasi mit links. Innerhalb weniger Klicks, gegebenenfalls sogar mit Ranking. Dafür wird die KI mit Daten trainiert, beispielsweise mit Lebensläufen von Menschen, aus denen der Algorithmus lernt. KI-Systeme können, so heißt es, Einstellungsprozesse beschleunigen, indem sie automatisch Bewerbungsunterlagen sichten, Skills & Co. sortieren, potenzielle Bewerbende vorselektieren. Und das alles unvoreingenommen, ohne dass ein unbewusstes Vorurteil oder Denkschubladen („Unconscious Bias“) die Bewertung einer Bewerbung verzerren. Aber stimmt das auch?

Hat KI etwa Vorurteile?

In den USA hatte die Journalistin Hilke Schellmann bei der Recherche zum Einfluss von KI-Systemen mit einem Anwalt gesprochen, der herausgefunden hatte, dass ein KI-System, das Lebensläufe auswertet, mehr Punkte vergeben hat, wenn das Wort Baseball vorkam. Wer hingegen Softball angegeben hatte, bekam weniger Punkte. In den USA sei das ganz klar eine Geschlechterdiskriminierung, erklärte die Buch-Autorin („The Algorithm“) in einem Interview der Zeitschrift Impulse. „Und das passiert leicht mit KI-Systemen: Kriterien, die wie das Hobby erstmal neutral aussehen, haben einen diskriminierenden Effekt. Die Maschine reproduziert Biases, die in den Daten stecken.“

Kann so etwas wie eine diskriminierende Hobby-Zuschreibung hierzulande auch passieren? „Es ist nicht auszuschließen, dass Algorithmen Vorurteile reproduzieren“, sagt Adél Holdampf- Wendel, Bereichsleiterin Future of Work beim Digitalverband Bitkom. Das liege allerdings nicht unbedingt an der Technologie. KI hat per se keine Vorurteile, sondern entscheidet auf Grundlage der Daten, mit denen sie trainiert worden sind.

Laut Christian Schmitz von Lufthansa Industry Solutions (LHIND), IT-Dienstleister für die digitale Transformation, sind die gängigsten Systeme im Recruiting „Application Tracking Systems (ATS)“, die Lebensläufe analysieren und mit den Anforderungen der Stellen abgleichen. Diese Systeme nutzen maschinelles Lernen, um Muster zu erkennen, die erfolgreiche von weniger geeigneten Personen unterscheiden. Natural Language Processing (NLP) wird eingesetzt, um die Inhalte von Texten wie Anschreiben und Lebensläufen zu analysieren. Außerdem spielen im Workforce & Document Management Schmitz zufolge IT- Chatbots eine zentrale Rolle, indem sie Bewerberfragen rund um die Uhr beantworten und den Kommunikationsprozess beschleunigen.

Transparenz ist unerlässlich

Das Training einer KI ist ein langwieriger Prozess. „Wichtig ist, immer wieder Kontrollen einzuführen und mit gezielten Trainingsdaten nachzusteuern“, sagt auch Holdampf-Wendel. Die Anbieter selbst seien daran interessiert, solche Verzerrungen auszumerzen. Deshalb sieht die Expertin das Thema „Unconscious Bias“ relativ entspannt. Gute Trainingsdaten seien den Anbietern schließlich schon deshalb wichtig, um gute Ergebnisse zu erzielen und eine gewisse Erklärbarkeit herzustellen. „Transparenz ist unerlässlich, damit Bewerber verstehen, wie und warum bestimmte Entscheidungen getroffen werden, und um Vertrauen in den Prozess zu schaffen“, so Schmitz. „Unternehmen müssen offenlegen, welche Daten verarbeitet werden und wie die Entscheidungen zustande kommen.“

So einfach dürfen Bewerbende nämlich nicht mal eben in Schubladen der Voreingenommenheit sortiert werden. Hier greift einiges an Rechten. „In Deutschland gilt zum Beispiel das allgemeine Gleichbehandlungsgesetz“, erinnert Holdampf-Wendel. „Der Arbeitgeber ist dazu verpflichtet, die erforderlichen Maßnahmen zum Schutz vor Benachteiligungen etwa wegen der ethnischen Herkunft oder des Geschlechts zu treffen. Bei einem Verstoß gegen das Benachteiligungsverbot ist der Arbeitgeber verpflichtet, betroffenen Beschäftigten eine angemessene Entschädigung oder auch Schadensersatz zu zahlen.“

Mal abgesehen vom Publikumssport Baseball oder Softball, liegt in diesem Aspekt vielleicht auch ein Unterschied zu den USA? „In beiden Ländern gibt es ähnliche Risiken, vor allem in Bezug auf Vorurteile und mangelnde Transparenz“, sagt Schmitz. „Allerdings bietet der AI Act in der EU strengere Vorschriften, um sicherzustellen, dass KI-Systeme ethisch und transparent arbeiten.“ Der AI Act ist die Regelung über verbotene KI-Systeme der EU, kürzlich in Kraft getreten, es gibt aber noch Übergangsfristen.“ Mit der vor sechs Jahren in Kraft getretenen Datenschutz-Grundverordnung (DSGVO) sei dafür in Deutschland bereits ein Grundstein gelegt worden.

DSGVO und AI Act regeln Umgang mit KI

Lufthansa Industry Solutions hat hier schon Erfahrung. „Wir bei LHIND nutzen AI-Tools bereits im Employer Branding und prüfen aktuell Use Cases in der Talent Acquisition“, erzählt seine Kollegin Stephanie Lumpe, Head of Talent Acquisition bei Lufthansa Industry Solution. „Beim Einsatz der KI im Recruiting muss man die rechtlichen Implikationen beachten.“ So setze die DSGVO klare Grenzen für den Einsatz von KI im Personalwesen, sowohl vor als auch nach der Begründung eines Arbeitsverhältnisses. „Aber eine hohe Qualität und Rechtssicherheit von KI-Anwendungen sind schon heute gut möglich.“ Das ist womöglich nicht überall so. „In den USA gibt es weniger strenge Regularien, was potenziell größere Risiken zum Einsatz von KI birgt, insbesondere wenn es um Datenschutz und faire Entscheidungsfindung geht“, weiß der Business Manager von Lufthansa Industry Solutions. „Der AI Act zwingt Unternehmen in Europa, mehr Verantwortung bei der Nutzung von KI zu übernehmen.“

KI im Recruiting noch nicht verbreitet

Und das könnte laut Schmitz das Vertrauen in die Technologie stärken und ihren Einsatz breiter vorantreiben. Denn noch ist KI im Recruiting in Deutschland wenig verbreitet. Der KI-Studie vom Digitalverband Bitkom zufolge setzten 2022 gerade mal neun Prozent der Unternehmen in Deutschland KI ein und von denen lediglich 23 Prozent in der Personalabteilung. Zum Vergleich: Im Marketing waren es bereits 81 Prozent. „Hochgerechnet auf alle setzten also nur rund zwei Prozent KI in der Personalarbeit ein“, rechnet Adél Holdampf-Wendel vor. Ganz so aussagekräftig sind die Zahlen von 2022 nicht mehr, der Bitkom aktualisiert gerade. „Aber man erkennt an ihnen auf jeden Fall eine Tendenz. Von meiner Wahrnehmung her steckt das Personalwesen in puncto KI im Vergleich zu anderen Bereichen noch in den Kinderschuhen.“

Hierzulande nutzen vor allem große Unternehmen KI im Recruiting, um wiederkehrende Aufgaben wie das Screening und die Kommunikation zu automatisieren, berichtet Schmitz. „Kleinere Unternehmen zögern noch, da Bedenken hinsichtlich des Datenschutzes bestehen und sie oft in der Digitalisierung noch nicht so weit fortgeschritten sind.“ Mit der Einführung des AI Acts Anfang August dieses Jahres werde der Einsatz von KI jedoch voraussichtlich zunehmen.

Bewerbungsprozesse entlasten durch KI

Potenzial hat KI im Recruiting den Experten zufolge auf jeden Fall eine Menge. „Ich sehe absolut Vorteile“, meint etwa Adél Holdampf-Wendel vom Digitalverband Bitkom. „Man kann zum Beispiel in verschiedenen Sprachen gleichzeitig kommunizieren, Stellen ausschreiben – alles viel schneller.“ Neben der Automatisierung repetitiver Aufgaben wie dem Screening von Lebensläufen und einer generellen Entlastung, kann KI etwa bei administrativen Aufgaben oder beim Matching von Kandidaten zu Stellen helfen. KI-gestützte Job-Matching-Systeme verbesserten die Zusammenführung von Bewerbern und Unternehmen, indem Algorithmen die Stärken und Schwächen der Kandidaten sowie die Anforderungen der Stelle analysieren, berichtet etwa Acquisa. „Was gut funktionieren kann ist KI für die Bewerbungsreise, die Candidate Journey“, meint Holdampf-Wendel. „Regelmäßige Updates schicken zum Beispiel, also den Bewerber nicht alleine lassen.“ Das spart auch die vielen Nachfragen, bei denen die Personalabteilung oft erstmal nur vertrösten kann.

KI im Team mit der Personalabteilung

Allerdings: Ein weiteres Problem sei die Unpersönlichkeit von KI, die den Bewerbungsprozess für einige Bewerbende distanziert erscheinen ließe, so Schmitz. Das muss jedoch nicht sein. „Eine Kombination von KI und menschlicher Interaktion kann helfen, eine Balance zu schaffen und die Candidate Experience zu verbessern.“ Ähnlich sieht es die Personalexpertin Stephanie Lumpe mit ihrer praktischen Erfahrung: „KI ist ein wertvolles Werkzeug, um die Mitarbeitenden bei Routineaufgaben zu entlasten. Zentrale Entscheidungen sollten aber weiterhin von Menschen getroffen werden.“ Auch für die Einordnung von komplexem beruflichem oder kulturellem Kontext, unkonventioneller Karrierewege oder Potenzialen der Bewerbenden brauche es geschulte Personalfachkräfte. „Denn KI kann keine emotionale Intelligenz entwickeln, die für das Verständnis von Motivation, Persönlichkeit und Teamfähigkeit notwendig ist.“