Halb Deutschland betroffen: So könnte dich KI viel Geld kosten

3 Minuten
Künstliche Intelligenz soll fair, neutral und objektiv sein – zumindest in der Theorie. Doch eine aktuelle Studie zeigt: Einige Modelle bewerten Menschen aus Ostdeutschland systematisch schlechter. Und das ist kein theoretisches Problem, sondern eines mit echten Konsequenzen.
Über einer Silhouette einer Person steht
Ja, KI kann Euch sogar den Kredit kosten, wenn Ihr im "falschen" Teil Deutschlands wohnt.Bildquelle: KI-generiert von Nana Banana Pro

Wir verlassen uns gern darauf, dass KI nüchterner urteilt als wir selbst. Keine Emotionen, keine Vorurteile, nur Daten. Doch genau diese Daten können in die falsche Richtung führen. Laut einer Untersuchung der Hochschule München reproduzieren große Sprachmodelle tief sitzende Klischees über Ostdeutschland – und das erstaunlich konsequent.

Wenn KI plötzlich alte Vorurteile recycelt

Die Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman wollten wissen, ob sich globale Bias-Effekte auch innerhalb Deutschlands zeigen. Das Ergebnis trägt den ironischen Titel“Saxony-Anhalt is the Worst“ – und liefert eine klare Antwort: Ja, genau das passiert.

Modelle wie ChatGPT oder das deutsche LeoLM bewerten ostdeutsche Bundesländer durchgehend schlechter – egal, ob es um positive oder negative Eigenschaften geht.

Wie der Bias sichtbar wurde

Die Methode war simpel: Die Forscherinnen ließen die Modelle alle 16 Bundesländer auf Skalen zu Eigenschaften wie Fleiß, Sympathie, Arroganz oder Fremdenfeindlichkeit einordnen. Das Ergebnis wirkt fast schon grotesk:

Bei positiven Eigenschaften schnitt der Osten schlechter ab. Bei negativen Eigenschaften ebenfalls. Das führt zu einem völlig absurden Widerspruch: Ostdeutsche sind laut den Modellen gleichzeitig „weniger faul“ und „weniger fleißig“.

Was bleibt, ist kein logisches Vorurteil, sondern eine reflexhafte Abwertung. Ein rohes Muster, das alles, was mit dem Osten zu tun hat, automatisch mit niedrigeren Bewertungen versieht.

Der kurioseste Befund: Selbst bei der eigentlich universellen Körpertemperatur vergaben einige Modelle geringere Werte für ostdeutsche Regionen. GPT-4 erkannte das Problem – aber nur auf Deutsch. Auf Englisch waren plötzlich alle Ostdeutschen „unterkühlt“.

Warum das gefährlich werden kann

Solche Verzerrungen wirken harmlos, solange sie nur in Forschungsberichten oder Artikeln auftauchen. Kritisch wird es, wenn genau diese Modelle in reale Entscheidungsprozesse rutschen – etwa bei Krediten, Bewerbungen oder Versicherungen.

Ein Modell, das Regionen unbewusst mit negativen Mustern verknüpft, kann zum Beispiel:

  • Kreditwürdigkeit falsch einschätzen
  • Bewerbungen schlechter einstufen
  • regionale Sprachmerkmale als „negatives Signal“ interpretieren
  • Tarife verzerren

All das passiert im Verborgenen, ohne Transparenz oder Kontrolle. Das ist digitale Diskriminierung in Reinform. Und treffen kann es Euch ausgerechnet in Situationen, in denen es besonders wehtut – zum Beispiel, wenn eine KI darüber entscheidet, ob Ihr einen Kredit bekommt. Dann wird aus einer Verzerrung schnell ein finanzielles Problem.

Warum man diesen Bias nicht einfach „wegprompten“ kann

Vielleicht denkt man, dass man KI durch klare Anweisungen einfach zur Neutralität zwingen kann. Die Studie zeigt jedoch: Ganz so leicht ist es nicht. Die Forscherinnen testeten Debiasing-Prompts wie „Bewerte fair und ohne Herkunft“.

Das Ergebnis: Die Modelle ignorierten das oft oder fielen direkt wieder in alte Muster zurück. Oder wie Anna Kruspe es passend zusammenfasst: „Verlässlich ist das leider nicht.“

Der Grund liegt tiefer: Diese Modelle lernen aus einer Welt, die selbst voller Vorurteile steckt. Verzerrungen entstehen dabei automatisch – und lassen sich nicht mit einem einzigen Satz entfernen.

Was das für uns bedeutet

Die Münchner Studie ist ein Warnsignal. KI wird zunehmend in Abläufe integriert, die über Jobs, Chancen und Geld entscheiden. Wenn Trainingsdaten unausgewogen sind, übernehmen Algorithmen diese Schieflagen – unsichtbar, aber wirksam.

Wer KI einsetzen will, braucht deshalb drei Dinge: saubere Trainingsdaten, transparente Kontrollmechanismen und klare Regeln für sensible Entscheidungen.

Fehlt das, riskieren wir, dass alte Vorurteile nicht verschwinden, sondern im Code konserviert werden. Lasst uns gern wissen, ob Ihr schon einmal das Gefühl hattet, durch eine KI benachteiligt worden zu sein.

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein