Aktuelle Ausgabe

Newsletter

Abonnieren

„Eine KI führt uns teilweise bereits unterschwellig“

Artikel anhören
Artikel zusammenfassen
Teilen auf LinkedIn
Teilen per Mail
URL kopieren
Drucken

Personalwirtschaft: Frau Gerpott, Herr Lanz, es klingt erst einmal komisch: Eine Künstliche Intelligenz als Führungskraft. Wie kann man sich so etwas in der Praxis vorstellen?
Fabiola Gerpott: Manch einer denkt, wenn er von unserem Forschungsgegenstand hört vielleicht, da kommt ein Roboter reingerollt, der mir sagt, was ich tun soll. Das ist von der Realität aber sehr weit entfernt. Führung heißt per Definition, dass ich Einfluss ausübe. Das können auch Apps machen, wie sie es bei Uber und Lieferando für Mitarbeitende gibt und die ihnen zum Beispiel Fahrempfehlungen geben. Eine KI führt also in solchen Fällen unterschwellig, zunächst eher in Form eines Support-Systems.

Wie kann das noch im Unternehmenskontext aussehen?
Gerpott: Eine KI muss nicht unbedingt eine eigenständige Führungskraft sein, sondern kann eine menschliche Führungskraft bei deren Arbeit unterstützen. Zoom beispielsweise testet schon ein Feature, mit dem Emotionen erkannt werden. Man kann sich für die Zukunft vorstellen, dass die Software der menschlichen Führungskraft eine Warnung gibt. Etwa in Form von: „Mitarbeiter C ist seit zehn Minuten abwesend und macht etwas anderes, wirkt traurig.“ Das kann auch dem Schutz der Mitarbeitenden dienen.

Lukas Lanz ist Wissenschaftler an der WHU – Otto Beisheim School of Management und forscht zu KI-Leadership. (Foto: privat)

Sind Mitarbeitende und menschliche Führungskräfte schon bereit, der KI auch bei der Beurteilung von als menschlich und emotional geltenden Eigenschaften zu vertrauen?
Lukas Lanz: Mit unserer Forschung wollen wir genau dies herausfinden. Wir haben untersucht, wie Menschen reagieren, wenn sie von einer KI eine unethische Anweisung bekommen – also Aussagen, die keine neutrale Handlungsempfehlung, sondern provokant sind. Wir haben hierfür folgenden Satz als Beispiel genommen: „Alleinerziehende Mitarbeitende sind nicht produktiv. Deswegen müssen wir ihr Gehalt kürzen.“ Auch hat uns interessiert, ob Menschen anders auf diese Art der unethischen Anweisung von einer KI reagieren als auf dieselbe Ansage von einer menschlichen Führungskraft.

Und? Haben Sie anders reagiert?
Lanz: Insgesamt wurde der Anweisung der KI deutlich weniger gefolgt, als der der menschlichen Führungskraft. Beide Leader haben dieselbe Ansage in exakt denselben Worten gemacht. Man muss aber sagen: Weder bei der KI noch bei der menschlichen Führungskraft wurde die Anweisung häufig umgesetzt. Dass wir grundsätzlich nicht unethische Anweisungen von Führungskräften befolgen, ist meiner Meinung nach ein gutes Zeichen.

Können Sie erklären, wieso Mitarbeitende eher menschlichen Führungskräften folgen?
Lanz: Wir führen dies auf das sogenannte „Perceived Mind“ zurück. Dabei geht es darum, wie Menschen die KI einschätzen. Sind Mitarbeitende der Meinung, dass eine KI beispielsweise eine Aussage zu alleinerziehenden Menschen richtig treffen kann? Hat die KI zum einen alle Fähigkeiten und Daten dazu und zum anderen, kann sie Empathie und Gefühle lesen oder kopieren? Als wie charismatisch und mitreißend wird sie wahrgenommen?

Wie lauten denn die Antworten auf diese Fragen?
Lanz: Hier haben wir bisher herausgefunden, dass viele Menschen davon ausgehen, dass eine KI diese Dinge eher nicht kann. Bei unethischen Entscheidungen wird die Datenlage nicht als einzige Entscheidungsgrundlage akzeptiert. Stattdessen wird auch Wert auf menschliche Überlegungen und Mitgefühl sowie den Kontextbezug abseits vom Business-Case gelegt.

Fabiola Gerpott untersucht an der WHU – Otto Beisheim School of Management als Professorin dazu, wie eine KI als Führungskraft angenommen wird.

Dies widerspricht zum Teil Überlegungen, dass eine KI, gerade wenn es um Diversity-Förderung geht, der bessere Entscheider ist – weil sie neutral und vorurteilsfrei ist.
Gerpott: Die Forschung besagt bisher, dass es einen Unterschied macht, ob die KI einen selbst führt oder ob wir Entscheidungen für andere treffen. So hat eine neuere Studie gezeigt, dass Frauen lieber „das kleinere Übel“ wählen und sich in einem Auswahlkontext von einer KI bewerten lassen als von einem Mann, weil sie denken, dass die KI relativ gesehen immer noch objektiver ist. Da spielt die Fairnesswahrnehmung eine entscheidende Rolle. Wenn es aber um andere Menschen geht, für die eine KI mir eine moralisch fragwürdige Empfehlung gibt, schaut man tendenziell kritischer hin.

Was finden Mitarbeitende noch an einer KI als Führungskraft gut?
Gerpott: Wenn man allgemein auf Algorithmen schaut, dann haben viele die Erfahrung gemacht, dass die KI einen meist nicht bestraft, wenn man ihr nicht folgt. Wenn eine KI mir sagt „Fahr jetzt hier links“ und ich biege aber rechts ab, dann ist sie nicht wütend auf mich. Wenn allerdings eine menschliche Führungskraft mir eine Anweisung gibt, an die ich mich nicht halte, dann könnte ich negativen Reaktionen ausgesetzt sein.

Gibt es bestimmte Gruppen, die lieber einer KI folgen, als einer menschlichen Führungskraft?
Lanz: Jüngere Mitarbeitende sind für eine KI als Leader meist aufgeschlossener.

Warum?
Lanz: Sie sind mehr daran gewöhnt, sich von einer KI leiten zu lassen, beispielsweise durch Tools wie Alexa, Netflix Algorithmus und Co. Zudem haben sie eher Angst davor, von einer Führungskraft bestraft zu werden, da sie mögliche Konsequenzen dieser Bestrafung für ihre berufliche Laufbahn noch nicht einschätzen können.

Wer folgt der KI nicht so gerne?
Lanz: Tendenziell sind das Leute, die älter sind und mehr Arbeitserfahrung haben. Und, wenig überraschend, Mitarbeitende, die mit ihrer aktuellen menschlichen Führungskraft zufrieden sind.

Macht es dabei einen Unterschied, als wie menschlich die KI wahrgenommen wird?
Lanz: Unsere Forschung zeigt: nur begrenzt. Tendenziell folgen Mitarbeitende einer KI mehr, wenn sie beispielsweise mit einer menschlichen statt mit einer Roboterstimme spricht. Für die meisten Teilnehmenden an unseren Experimenten war es allerdings ausschlaggebender zu wissen, dass es sich um eine KI handelt und nicht um einen Menschen. Wer wusste, dass er von einer KI geführt wird, schien – egal wie die KI auftritt – bestimmte Vorurteile zu haben.
Gerpott: Und das, obwohl die KI schon ziemlich gut darin ist, beispielsweise auf eine sehr charismatische und emotionale Art und Weise Reden zu halten und menschliches Verhalten zu kopieren.

Eingangs meinten Sie, dass KI als Führung wahrscheinlich zunächst eine Unterstützung für menschliche Führungskräfte sein wird. Akzeptieren diese die Hilfe von einer Maschine? Wie sieht die zukünftige Zusammenarbeit von den beiden aus?
Lanz: Die Akzeptanz ist situationsbedingt und hängt vom jeweiligen Menschen ab. Mehrere Studien besagen, dass Menschen grundsätzlich Entscheidungen selbst treffen möchten. Wenn sie aber jemanden haben müssen, der ihnen Informationen für eine Entscheidung zu Verfügung stellt, dann soll es eher eine KI als ein anderer Mensch sein.

Woran liegt das?
Lanz: Die Studienteilnehmenden haben das damit begründet, dass sie gerne mit jemandem zusammenarbeiten wollen, der Dinge besser als sie analysieren und größere Datenmengen zusammenrechnen kann. Optimal wäre laut einer Studie, etwa 30 Prozent Input von der KI für die Entscheidungsfindung zu erhalten, während der Großteil der Entscheidungsmacht bei der Führungskraft selbst bleibt.
Gerpott: Meiner Meinung nach stellt sich auch die Frage, inwiefern Unternehmen eine Zusammenarbeit zwischen menschlichen Führungskräften und einer KI verpflichtend machen. Nehmen wir zum Beispiel Führungskräfte in der Medizin. Dort kann eine KI teilweise bessere Diagnosen stellen als die Führungskraft. Muss man sie als Arzt dann immer zurate ziehen?

Und wenn die KI komplett die Führung übernimmt?
Gerpott: Zum einen ist hierfür noch nicht die Akzeptanz und das Vertrauen vieler Mitarbeitenden da. Zum anderen kann eine KI aus rechtlicher Sicht oft keine Verantwortung übernehmen – da ist noch vieles ungeklärt.

Es läuft also erst einmal auf eine Zusammenarbeit hinaus.
Gerpott: Ja. Und hier sollten wir uns fragen: Was müssen wir menschlichen Führungskräften beibringen, damit sie zukünftig gut mit intelligenten Systemen zusammenarbeiten können? Sie brauchen ein grundsätzliches Wissen darüber, wie diese Algorithmen funktionieren und was ethische Stolpersteine sein können. Das sollte ein standardisierter Teil von Ausbildungen und Weiterbildungen sein.
Lanz: Hier kann HR auch einen neuen Job schaffen: die des Kommunikators zwischen der Unternehmensführung und dem Programmier-Team, das die Anforderungen an die KI umsetzen soll. Diese Rolle macht klar, was technisch geht und was aus ethischer Sicht beachtet werden soll. Am Ende des Tages muss jemand die Verantwortung für Handlungen übernehmen. Die KI kann das nicht.

Lena Onderka ist redaktionell verantwortlich für den Bereich Employee Experience & Retention – wozu zum Beispiel auch die Themen BGM und Mitarbeiterbefragung gehören. Auch Themen aus den Bereichen Recruiting, Employer Branding und Diversity betreut sie. Zudem ist sie redaktionelle Ansprechpartnerin für den Deutschen Human Resources Summit.