Zum Inhalt springen

Behauptungen, dass KI die Vielfalt am Arbeitsplatz steigern kann, sind falsch und gefährlich!

Behauptungen, dass KI die Vielfalt am Arbeitsplatz steigern kann, sind falsch und gefährlich!

  • Datum:10. Oktober 2022
  • Quelle:Universität von Cambridge

Neue Forschungsergebnisse heben einen wachsenden Markt für KI-gestützte Rekrutierungstools hervor, die zur Bearbeitung großer Mengen von Stellenbewerbern verwendet werden und behaupten, menschliche Vorurteile zu umgehen und Diskriminierung bei der Einstellung zu beseitigen. •Diese KI-Tools reduzieren Rasse und Geschlecht auf triviale Datenpunkte und verlassen sich oft auf Persönlichkeitsanalysen, die „automatisierte Pseudowissenschaft“ sind, so Forscher aus Cambridge. Akademiker haben sich auch mit Computerstudenten zusammengetan, um den Einsatz von KI bei der Personalbeschaffung zu entlarven, indem sie eine Version der Art von Software entwickeln, die zunehmend von HR-Teams verwendet wird. Es zeigt, wie zufällige Änderungen in Kleidung oder Beleuchtung radikal unterschiedliche Persönlichkeitswerte ergeben, die sich für eine Generation von Arbeitssuchenden als entscheidend erweisen könnten.

In den letzten Jahren sind KI-Tools aufgekommen, die als Antwort auf die mangelnde Vielfalt in der Belegschaft vermarktet werden, vom Einsatz von Chatbots und CV Scrapern zur Aufstellung potenzieller Kandidaten bis hin zu Analysesoftware für Videointerviews.

Diejenigen, die hinter der Technologie stehen, behaupten, dass sie menschliche Vorurteile gegenüber Geschlecht und ethnischer Zugehörigkeit bei der Einstellung aufhebt, stattdessen Algorithmen verwendet, die Vokabeln, Sprachmuster und sogar Mikrogesichtsausdrücke lesen, um riesige Pools von Bewerbern auf den richtigen Persönlichkeitstyp und die „kulturelle Eignung“ zu bewerten.

In einem neuen Bericht, der in Philosophy and Technology veröffentlicht wurde, argumentieren Forscher des Cambridge Centre for Gender Studies jedoch, dass diese Behauptungen einige Verwendungen von KI bei der Einstellung kaum besser machen als eine „automatisierte Pseudowissenschaft“, die an Physiognomie oder Phrenologie erinnert: die diskreditierten Überzeugungen, die Persönlichkeit sein kann aus Gesichtszügen und Schädelform abgeleitet.

Bild von Pete Linforth auf Pixabay

Sie sagen, es sei ein gefährliches Beispiel für „Technosolutionismus“: Wenden Sie sich der Technologie zu, um schnelle Lösungen für tief verwurzelte Diskriminierungsprobleme bereitzustellen, die Investitionen und Änderungen der Unternehmenskultur erfordern.

Tatsächlich haben die Forscher mit einem Team von Informatik-Studenten aus Cambridge zusammengearbeitet, um diese neuen Einstellungstechniken zu entlarven, indem sie ein KI-Tool nach dem Vorbild dieser Technologie entwickelt haben, das unter https://personal-ambiguator-frontend.vercel.app/ verfügbar ist.

Die „Persönlichkeitsmaschine“ demonstriert, wie willkürliche Änderungen des Gesichtsausdrucks, der Kleidung, der Beleuchtung und des Hintergrunds zu radikal unterschiedlichen Persönlichkeitswerten führen können – und könnte so für eine Generation von Arbeitssuchenden, die um Stellen mit Hochschulabschluss wetteifern, den Unterschied zwischen Ablehnung und Aufstieg ausmachen.

Das Cambridge-Team sagt, dass der Einsatz von KI zur Eingrenzung von Kandidatenpools letztendlich eher die Einheitlichkeit als die Vielfalt in der Belegschaft erhöhen könnte, da die Technologie darauf kalibriert ist, nach dem „idealen Kandidaten“ des Arbeitgebers zu suchen.

Dies könnte dazu führen, dass diejenigen mit der richtigen Ausbildung und dem richtigen Hintergrund „die Algorithmen für sich gewinnen“, indem sie Verhaltensweisen replizieren, auf deren Erkennung die KI programmiert ist, und diese Einstellungen am Arbeitsplatz übernehmen, sagen die Forscher.

Da Algorithmen anhand von Daten aus der Vergangenheit verfeinert werden, argumentieren sie außerdem, dass Kandidaten, die als am besten geeignet gelten, wahrscheinlich diejenigen sind, die der aktuellen Belegschaft am ähnlichsten sind.

„Wir befürchten, dass einige Verkäufer ‚Schlangenöl‘-Produkte in eine glänzende Verpackung packen und sie an ahnungslose Kunden verkaufen“, sagte Co-Autorin Dr. Eleanor Drage.

„Indem sie behaupten, dass Rassismus, Sexismus und andere Formen der Diskriminierung mithilfe künstlicher Intelligenz aus dem Einstellungsprozess entfernt werden können, reduzieren diese Unternehmen Rasse und Geschlecht auf unbedeutende Datenpunkte, anstatt auf Machtsysteme, die bestimmen, wie wir uns durch die Welt bewegen. “

Die Forscher weisen darauf hin, dass diese KI-Rekrutierungstools oft proprietär sind – oder „Black Box“ –, so dass ihre Funktionsweise ein Rätsel ist.

„Während Unternehmen möglicherweise nicht in böser Absicht handeln, gibt es wenig Verantwortung dafür, wie diese Produkte hergestellt oder getestet werden“, sagte Drage. „Als solche könnten diese Technologie und die Art und Weise, wie sie vermarktet wird, zu einer gefährlichen Quelle von Fehlinformationen darüber werden, wie die Einstellung ‚vorurteilsfrei‘ und fairer gestaltet werden kann.“

Trotz einiger Widerstände – das von der EU vorgeschlagene KI-Gesetz stuft beispielsweise KI-gestützte Einstellungssoftware als „hohes Risiko“ ein – sagen Forscher, dass Tools von Unternehmen wie Retorio und HIreVue mit wenig Regulierung eingesetzt werden, und verweisen auf Umfragen, die eine Verwendung nahelegen der KI bei der Einstellung ist ein Schneeball.

Eine Studie aus dem Jahr 2020 mit 500 Unternehmen aus verschiedenen Branchen in fünf Ländern ergab, dass 24 % der Unternehmen KI für Rekrutierungszwecke implementiert haben und 56 % der Personalchefs planten, sie im nächsten Jahr einzuführen.

Eine weitere Umfrage unter 334 Führungskräften im Personalwesen, die im April 2020 durchgeführt wurde, als die Pandemie Einzug hielt, ergab, dass 86 % der Unternehmen neue virtuelle Technologien in ihre Einstellungspraktiken integrieren.

„Dieser Trend war bereits zu Beginn der Pandemie vorhanden, und die durch COVID-19 verursachte beschleunigte Umstellung auf Online-Arbeit wird in Zukunft wahrscheinlich zu einem stärkeren Einsatz von KI-Tools durch Personalabteilungen führen“, sagte Co-Autor Dr. Kerry Mackereth, der präsentiert den Good Robot Podcast mit Drage, in dem das Duo die Ethik der Technologie erforscht.

Covid-19 ist laut Personalern, die die Forscher befragt haben, nicht der einzige Faktor. „Volumenrekrutierung ist zunehmend unhaltbar für Personalabteilungen, die verzweifelt nach Software suchen, um Kosten zu senken, sowie für die Zahl der Bewerber, die persönliche Aufmerksamkeit benötigen“, sagte Mackereth.

Drage und Mackereth sagen, dass viele Unternehmen jetzt KI verwenden, um Videos von Kandidaten zu analysieren, die Persönlichkeit durch die Bewertung von Gesichtsregionen zu interpretieren – ähnlich wie bei der Lügenerkennungs-KI – und die „Big Five“-Persönlichkeitstropen zu bewerten: Extroversion, Verträglichkeit, Offenheit, Gewissenhaftigkeit und Neurotizismus.

Die Studenten hinter der “Personality Machine”, die eine ähnliche Technik verwendet, um ihre Fehler aufzudecken, sagen, dass ihr Tool den Benutzern zwar nicht helfen kann, den Algorithmus zu schlagen, aber es wird Arbeitssuchenden einen Vorgeschmack auf die Art der KI-Prüfung geben, der sie möglicherweise unterliegen – – vielleicht sogar ohne ihr Wissen.

„Allzu oft ist der Einstellungsprozess schräg und verwirrend“, sagte Euan Ong, einer der studentischen Entwickler. „Wir wollen den Menschen eine viszerale Demonstration der Art von Urteilen geben, die jetzt automatisch über sie gefällt werden.

„Diese Tools sind darauf trainiert, die Persönlichkeit auf der Grundlage allgemeiner Muster in Bildern von Menschen vorherzusagen, die sie zuvor gesehen haben, und finden am Ende oft falsche Korrelationen zwischen der Persönlichkeit und scheinbar nicht verwandten Eigenschaften des Bildes, wie der Helligkeit. Wir haben eine Art Spielzeugversion erstellt.“ von Modellen, von denen wir glauben, dass sie in der Praxis verwendet werden, um selbst damit zu experimentieren”, sagte Ong.


Geschichte Quelle:

Materialien zur Verfügung gestellt von der University of Cambridge . Der Originaltext dieser Geschichte ist unter einer Creative Commons-Lizenz lizenziert . Hinweis: Inhalt kann für Stil und Länge bearbeitet werden.


Zeitschriftenreferenz :

  1. Eleanor Drage, Kerry Mackereth. Bietet AI Debias Rekrutierung? Rasse, Geschlecht und KIs „Ausrottung der Differenz“ . Philosophie & Technik , 2022; 35 (4) DOI: 10.1007/s13347-022-00543-1