• Startseite
  • Digital
  • Künstliche Intelligenzen bewerten Mitarbeiter: Ein grenzwertiges Verfahren

Künstliche Intelligenzen bewerten Mitarbeiter: Ein grenzwertiges Verfahren

  • Unternehmen setzen im Personalmanagement zunehmend auf sogenannte People-Analytics, bei denen Mitarbeiter von künstlichen Intelligenzen analysiert werden.
  • Doch dieses Vorgehen ist laut einer Studie oft rechtswidrig.
  • Demnach müssen Beschäftigte einer solchen Überwachung ausdrücklich zustimmen.
|
Anzeige
Anzeige

Ob bei der Auswahl von Bewerbern, der Weiterbildung von Mitarbeitern oder der Verschlankung von Mitarbeiterverwaltung – künstliche Intelligenzen (KI) im Personalwesen finden zunehmend Anklang. Einer Umfrage des Bundesverbandes der Personalmanager zufolge beschäftigen sich rund 74 Prozent der Befragten bereits mit KI-basierten Technologien, der Großteil prüft demnach, ob Algorithmen und Co. im eigenen Aufgabenbereich zum Einsatz kommen könnten.

Doch bei der Etablierung von KI-gestützten Softwares ist Vorsicht geboten. Wie ein zweijähriges Forschungsprojekt der Organisation Algorithmwatch mit Unterstützung der Hans-Böckler-Stiftung nun ergab, ist das Verwenden von sogenannten People-Analytics oft rechtswidrig. Denn die Verfahren dürfen nur eingesetzt werden, wenn die Beschäftigten dem Vorgang einzeln und freiwillig zustimmen oder eine Betriebsvereinbarung vorliegt. Dies ist laut den Urhebern der Studie nicht immer der Fall. “Es ist ethisch nicht zu rechtfertigen, Angestellte zu reinen Objekten derartiger Verfahren zu machen”, heißt es in einer Pressemitteilung der Organisation.

Observatorium untersucht Auswirkungen von KI auf Arbeit und Gesellschaft

Die Initiative Algorithmwatch wurde 2016 gegründet und nimmt seither verschiedene algorithmische Prozesse unter die Lupe. Dabei analysiert die Organisation, wie sich Algorithmen auf menschliches Verhalten auswirken, und zeigt ethische Konflikte auf. Eine andere Institution, die sich künftig mit den Einflüssen der Digitalisierung auf die neue Arbeitswelt und die Gesellschaft auseinandersetzen will, ist das KI-Observatorium, das am heutigen 3. März in Berlin seine Arbeit aufnimmt. Das Projekt ist Teil der Denkfabrik Digitale Arbeitsgesellschaft, die 2018 vom Bundesministerium für Arbeit und Soziales (BMAS) ins Leben gerufen wurde.

Das Observatorium soll jedoch nicht nur als Beobachter fungieren. So könnte es künftig eine Art TÜV für künstliche Intelligenzen berufen, der die Programme klassifiziert und offiziell für zulässig erklärt. “Wir schauen uns an, wo diese Technologie eingesetzt wird und wo das in sensiblen Bereichen geschieht”, erklärte dazu Björn Böhning, Staatssekretär im BMAS, der “Süddeutschen Zeitung”. Neben Anwendungsbereichen im Einzelhandel, der Automobilbranche und dem Finanzwesen sollen auch die Auswirkungen auf die Arbeitswelt genauer untersucht werden.

Softwares werten E-Mails und Besprechungen aus

Anzeige

Bereits jetzt gibt es mit Office 365 Workplace Analytics von Microsoft, Watson Talent Insight von IBM und Success Factors People Analytics von SAP Dienste großer Anbieter, die damit werben, Möglichkeit, Leistung und Potenzial von Mitarbeitern zu analysieren, vorauszusagen und sogar zu steuern. Das Programm von Microsoft ermittelt dazu beispielsweise, wie lange ein Arbeitnehmer braucht, um eine E-Mail zu verfassen oder eine Besprechung abzuhalten. Zwar erfolgt die Analyse laut Microsoft anonymisiert, dennoch soll der Vorgesetzte auf Optimierungsbedarf hingewiesen werden.

Forscher fordern gesetzliche Regelungen für KI im Personalwesen

Anzeige

“Um Beschäftigte vor den Möglichkeiten und insbesondere vor dem immanent hohen Kontrollpotenzial zu schützen, das sich mit KI-Software und mit selbst lernenden Algorithmen verbindet, ist ein Ausbau bestehender Mitwirkungs- und Mitbestimmungsrechte durch den Gesetzgeber unumgänglich”, kommentiert der Rechtswissenschaftler Peter Wedde die Entwicklungen in einem Gutachten. Demnach werden mit Algorithmen im Personalmanagement völlig neue Formen der Überwachung möglich, die mit massiven Eingriffen in die Persönlichkeitsrechte der Mitarbeiter verbunden sind. Heimliche Kontrollen seien laut Wedde nur dann erlaubt, wenn Verdacht auf eine strafbare Handlung besteht.

In einem Positionspapier fordert Algorithmwatch von der Bundesregierung gesetzliche Regelungen, die Arbeitgeber dazu verpflichten, die verwendeten Verfahren transparent, verständlich und nachvollziehbar zu machen. Dies wird zurzeit oft durch die Hersteller der KI-Softwares blockiert, da diese nicht vollständig offenlegen, wie die People Anlayticts funktionieren und welche Daten in welcher Weise berücksichtigt werden. Doch auch die Arbeitnehmervertreter ruft die Organisation zum Handeln auf und fordert Betriebsräte auf, sich entsprechende Kompetenzen im Bereich der künstlichen Intelligenz anzueignen. Wie Betriebsräte mit dem Thema umgehen können, haben die Forscher in einem Leitfaden festgehalten.

RND

  • Laden Sie jetzt die RND-App herunter, aktivieren Sie Updates und wir benachrichtigen Sie laufend bei neuen Entwicklungen.

    Hier herunterladen