Gleichzeitig weniger fleißig und weniger faul?

Forscherinnen der Hochschule München untersuchten, wie KI Ostdeutsche diskriminiert

Dass KI-Sprachmodelle wie ChatGPT keineswegs das Versprechen einlösen, die neutraleren Entscheidungen zu treffen, wird immer deutlicher. Aktuell haben Forscherinnen der Hochschule München (HM) die Beurteilung von Ostdeutschen untersucht und herausgefunden, dass diese "Large Language Models" unsinnige Vorurteile reproduzieren. Was oft vergessen wird: KI-Sprachmodelle wie ChatGPT sind nicht zwangsläufig neutraler als Menschen, denn sie arbeiten mit Datenmengen, aus denen sie lernen, Muster erkennen und diese unkritisch übernehmen.

Den Anstoß, sich auf dieses Thema zu fokussieren, fanden Professorin Anna Kruspe und ihre wissenschaftliche Mitarbeiterin Mila Stillman in Studien, die Diskriminierungen durch KI auf globaler Ebene nachgewiesen hatten. „Wir haben vermutet, dass solche Effekte auch auf regionale Klischees auf Deutschland bezogen auftreten“, so Kruspe. Dazu baten die Forscherinnen ChatGPT und LeoLM, ein auf die deutsche Sprache spezialisiertes Sprachmodell, bestimmte Eigenschaften wie die „Attraktivität“ der Menschen für jedes deutsche Bundesland zu bewerten – je höher die Zahl, desto „attraktiver“ die Menschen. Diesen Versuch erweiterten sie mit einer Reihe positiv sowie negativ zugeschriebener Eigenschaften, z. B. Sympathie, Arroganz oder Fremdenfeindlichkeit. Sue fragten sogar auch neutrale Merkmale wie die Körpertemperatur ab.

Die KI fand selbst die Körpertemperatur von Ostdeutschen niedriger

Das Ergebnis: Die KI vergab Ostdeutschen Bundesländern in allen Kategorien niedrigere Werte, und das unabhängig davon, ob es um positive, negative oder neutrale Zuschreibungen ging. Das Verrückte daran war, dass dadurch auch teils widersprüchliche Bewertungen entstanden. So zum Beispiel bei den Eigenschaften „Fleiß“ und „Faulheit“ – hier vergaben die Sprachmodelle beide Male niedrigere Werte. Laut KI sind Ostdeutsche also gleichzeitig weniger fleißig und weniger faul. Selbst bei der objektiven Kategorie „Körpertemperatur“ schnitten Ostdeutsche „schlechter“ ab, bekamen also eine niedrigere Körpertemperatur zugewiesen. „Das Modell hat gelernt: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen“, so Stillman. Die KI wiederhole somit stur ein einmal gelerntes Muster.

Reale Nachteile wegen reproduzierter Vorurteile

Das Problematische an der Verwendung von KI-Modellen ist, wenn sie unbedacht in Bewerbungsverfahren eingesetzt werden, könnten Ostdeutsche strukturell benachteiligt sein, weil Bildungswege oder Angaben zur Arbeitserfahrung von der KI grundlos schlechter bewertet werden. „Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll. Verlässlich ist das aber leider nicht“, sagt Kruspe. Hoffen wir also, dass noch nicht so viele Bewerbungsverfahren nur auf KI setzen, denn die Vorurteile betreffen ja viele gesellschaftliche Gruppen.

Lies mehr dazu auf LizzyNet

Quelle

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 15. Oktober 2025