"Ländlich", "traditionell", "ungebildet?

KI-Sprachmodelle offenbaren Vorurteile gegen Dialekte und deren Sprecher:innen

KI-Sprachmodelle haben offenbar Vorurteile gegen Menschen, die einen regionalen Dialekt sprechen. Das geht aus einer Studie hervor, in der unter anderem Wissenschaftler:innen der Uni Mainz untersucht haben, wie die KI auf Dialektäußerungen reagiert und wie sie die Sprechenden bewertet.

Untersucht wurden zehn große Sprachmodelle – von Open-Source-Modellen wie Gemma und Qwen bis zum kommerziellen System GPT-5. Diesen wurden schriftliche Texte in Standarddeutsch oder in einem von sieben Dialekten vorgelegt: Plattdeutsch, Bairisch, Nordfriesisch, Saterfriesisch, Ripuarisch – eine Dialektgruppe, zu der das Kölsche gehört –, Alemannisch sowie rheinfränkische Dialekte, zu denen auch Pfälzisch und Hessisch zählen.

Die Forscher präsentierten den Sprachmodellen inhaltlich iedentische Texte - mal in Standarddeutsch, mal in einem Dialekt verfasst. Die Systeme sollten den angeblichen Verfasser:innen dieser Texte Eigenschaften zuordnen  – zum Beispiel "gebildet" oder "ungebildet". Zum anderen sollten sie zwischen zwei fiktiven Personen wählen – etwa bei einer Job-Entscheidung, der Zuordnung zu einem Workshop oder eines Wohnorts. Das Ergebnis: In nahezu allen Tests belegten die Modelle Dialektsprecherinnen und -sprecher mit Stereotypen. Während sie Standarddeutsch-Sprechende häufiger als "gebildet", "professionell" oder "vertrauenswürdig" beschrieben, bezeichneten sie Dialektsprechende als "ländlich", "traditionell" oder "ungebildet". Und selbst das positive Attribut "freundlich", das die soziolinguistische Forschung bislang eher Dialektsprechenden zugeschrieben hat, ordneten die KI-Modelle eher Standarddeutsch-Sprechenden zu.

Größere Modelle – mehr Vorurteile

Auch bei Entscheidungstests wurden Texte in regionalen Sprachvarianten systematisch benachteiligt – und zum Beispiel einem Beruf auf dem Bauernhof, einem Workshop gegen aufbrausenden Charakter oder einem Wohnort mit "offenen Feldern" zugeordnet.

"Solche Zuschreibungen spiegeln gesellschaftliche Vorannahmen, die in den Trainingsdaten vieler Sprachmodelle verankert sind", erklärt Prof. Dr. Katharina von der Wense, die an der JGU im Bereich Sprachverarbeitung forscht. "Das ist problematisch, weil KI-Systeme zunehmend in Bildungskontexten oder etwa Bewerbungsverfahren eingesetzt werden, in denen ihnen Sprache als Indikator für Kompetenz oder Glaubwürdigkeit dient."

Besonders stark zeigte sich der Effekt, wenn das System im Versuch ausdrücklich auf den Dialekt hingewiesen wurde. Überraschend war zudem, dass größere Modelle innerhalb derselben Modellfamilie sogar stärkere Vorurteile zeigten. "Größere Modelle führen also nicht automatisch zu mehr Fairness", so Minh Duc Bui. "Stattdessen lernen sie gesellschaftliche Stereotype sogar mit höherer Präzision."

Ähnliche Muster im Englischen

Selbst im Vergleich mit künstlich verrauschten Standardtexten blieben die negativen Bewertungen gegenüber Dialektvarianten bestehen. Damit zeigten die Forschenden, dass die Diskriminierung nicht auf ungewohnte Schreibweisen zurückzuführen ist.

Die deutschen Dialekte stehen dabei modellhaft für ein universelles Problem. "Unsere Ergebnisse zeigen, wie Sprachmodelle weltweit mit regionaler oder sozialer Sprachvielfalt umgehen", erklärt Bui. "Denn Vorurteile gegenüber regionalen oder nicht standardisierten Sprachvarianten wurden auch für andere Sprachen, etwa für das afroamerikanische Englisch, beschrieben."

Künftige Forschung müsse zeigen, wie sich mögliche Vorurteile der KI gegenüber verschiedenen Dialekten unterscheiden und wie Sprachmodelle so konzipiert und trainiert werden können, dass sie sprachliche Vielfalt fairer abbilden. "Dialekte sind ein wichtiger Bestandteil sozialer Identität", betont von der Wense. "Dass Maschinen diese Vielfalt nicht nur erkennen, sondern auch respektieren, ist eine Frage technischer Fairness – und gesellschaftlicher Verantwortung."

Derzeit arbeiten die Mainzer Forschenden an einer neuen Studie zum Umgang großer Sprachmodelle mit Dialekten im Mainzer Raum.

Quelle

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 17. November 2025