Eine aktuelle Umfrage aus den USA sorgt gerade für Aufsehen. Über 1.300 HR-Manager wurden von ResumeBuilder – einer Plattform für Jobsuchende – danach gefragt, wie sie KI im Arbeitsalltag einsetzen. Das Ergebnis dürfte vielen Beschäftigten nicht gefallen: Immer öfter mischen Chatbots wie ChatGPT bei der Kündigung oder anderen wichtigen Personalentscheidungen mit.
- Hört zum Thema auch gerne in unseren Podcast Casa Casi rein: Aaah, KI klaut uns alle Jobs!!
Daumen hoch oder runter? So entscheidet ChatGPT über deinen Job
Tatsächlich sagen 78 Prozent der Befragten, dass sie Large Language Models (LLMs) wie ChatGPT nutzen, um zu entscheiden, ob jemand eine Gehaltserhöhung bekommen sollte. Fast genauso viele – 77 Prozent – setzen KI ein, wenn es darum geht, wer eine Beförderung verdient.
Auch bei Kündigungen spielt künstliche Intelligenz längst mit: 66 Prozent der HR-Manager holen sich bei solchen Entscheidungen Rat von Tools wie ChatGPT, Claude oder Gemini. Und fast ebenso viele lassen sich sogar dabei helfen, wie man die Entlassung am besten formuliert. Heißt: Die KI bestimmt nicht nur ob, sondern auch wie jemand gekündigt wird.
Spätestens da wird es heikel – ethisch wie menschlich. Und es geht noch weiter: Jeder fünfte Befragte gibt an, dass ChatGPT am Ende sogar allein entscheidet, ob jemand seinen Job verliert!
- Auch lesenswert zum Thema: Heute ist der Tag, an dem du deine Angst vor KI besiegt
KI entscheidet – gute oder schlechte Idee?
Laut Umfrage nutzt etwa die Hälfte der HR-Verantwortlichen ChatGPT, dahinter folgen Microsoft Copilot und Google Gemini. Was sie gemeinsam haben: Sie bewerten neutral – ohne Vorlieben, ohne Vitamin B. Das kann durchaus als Vorteil gesehen werden. Denn wenn die Entscheidung nicht von Sympathie oder Beziehungen abhängt, wird vielleicht fairer entschieden.
Also ja: Theoretisch könnte eine Entscheidung mit KI-Hilfe die gerechtere sein – solange Datenbasis und Regeln fair sind, und alles transparent kommuniziert wird. Eine Vorauswahl der entsprechenden Kandidat:innen könnte effizienter und objektiver erfolgen.
Was gegen die KI-Hilfe spricht
So spannend der Einsatz von KI auch ist – er wirft eine Menge ethischer Fragen auf. Und ganz objektiv ist das Ganze auch nicht unbedingt. Wenn du regelmäßig mit ChatGPT arbeitest, weißt du: Das Modell neigt dazu, deine Haltung zu spiegeln. Heißt im Klartext: Es bestätigt oft das, was du ohnehin schon denkst – anstatt dir wirklich neutral zu helfen. Dazu kommt ein potenzieller Bias, der sich aus dem Training und den eingegebenen Prompts ergibt.
Vor allem aber fehlt der KI der nötige Kontext. Wie hat sich jemand im Laufe der Jahre entwickelt? Welche Rolle spielt die Person im Team? Und wie sieht es mit dem menschlichen Miteinander aus? All das fließt in KI-Entscheidungen kaum ein – schlicht, weil die Daten dazu oft fehlen. Noch heikler: Unternehmen könnten sich mithilfe der KI elegant aus der Verantwortung ziehen, wenn es um schwierige Entscheidungen geht. Wenn Kündigungen durch Algorithmen abgesegnet werden, fühlt sich das schnell entmenschlichend an – und kann das Betriebsklima massiv belasten.
KI als Zünglein an der Waage? Noch nicht!
Klar ist: Der Trend lässt sich kaum aufhalten. Aber im Moment ist noch große Vorsicht geboten. KI kann im HR-Bereich nützlich sein – als Unterstützung. Doch die finale Entscheidung sollte nicht an ChatGPT ausgelagert werden.
Denn auch wenn die KI heute noch keine Jobs in Massen frisst – sie wird schon jetzt oft als Vorwand für Kündigungen genutzt. Und genau das könnte dafür sorgen, dass die Hemmschwelle sinkt, wenn es ums Freisetzen von Mitarbeitenden geht. Schließlich war’s ja „nur die KI“, oder?
