Hey KI, bist du ein Mann oder eine Frau?

Menschen projizieren Rollenbilder auf KI – und behandeln „weibliche“ und „männliche“ Systeme unterschiedlich

Normalerweise geht es an dieser Stelle oft um Vorurteile, die KI-Systeme mitbringen, weil sie ihnen antrainiert wurden. Heute berichten wir über eine Studie, die menschliche Vorurteile gegenüber einer KI untersucht hat. Laut dieser Untersuchung mit über 400 Teilnehmer:innen von Forschenden der LMU und des Trinity College Dublin bringen Menschen nämlich geschlechtsspezifische Voreingenommenheiten ein, wenn sie mit Künstlicher Intelligenz (KI) kommunizieren, der ein Geschlecht zugewiesen wurde.

So zeigte sich, dass Menschen weiblich gekennzeichnete KI ähnlich ausnutzen wie menschliche Frauen und männlich gekennzeichneter KI in ähnlichem Ausmaß misstrauen wie menschlichen Männern. Insbesondere im Fall von weiblich gekennzeichneter KI stellte die Studie fest, dass Menschen die KI sogar noch häufiger ausbeuteten, als sie dies mit menschlichen Gesprächspartnerinnen taten.

Die Studie ist die erste, die die Rolle des Geschlechts von Maschinen in der Zusammenarbeit zwischen Mensch und KI mit einem systematischen empirischen Ansatz untersucht hat.

Dazu spielten die Teilnehmenden wiederholt Runden des „Gefangenendilemmas“ – eines klassischen Experiments der Spieltheorie und Verhaltensökonomik, bei dem sich die Spielenden entscheiden müssen, ob sie sich kooperativ verhalten oder die andere Person ausnutzen. Die Spielpartner wurden jeweils als Mensch oder KI und zusätzlich als männlich, weiblich, nicht-binär oder geschlechtsneutral bezeichnet.

Wie kann KI-Entwicklung ohne Vorurteile stattfinden?

Die Ergebnisse zeigen, dass sich geschlechtsspezifische Erwartungen aus Mensch-Mensch-Zusammenhängen auch auf die Zusammenarbeit zwischen Mensch und KI übertragen. Dies hat laut den Forschenden erhebliche Auswirkungen darauf, wie Organisationen interaktive KI-Systeme entwerfen, einsetzen und regulieren sollten.

„Diese Studie weist auf ein wichtiges Dilemma hin“, sagt Dr. Jurgis Karpus, Mitautor der Studie. Wenn man KI mit menschenähnlichen Eigenschaften ausstatte, könne dies zwar die Zusammenarbeit zwischen Menschen und KI fördern. Die Gefahr liege jedoch darin, dass unerwünschte geschlechtsspezifische Vorurteile von Menschen auf Künstliche Intelligenz übertragen und verstärkt würden.

Da KI zunehmend Teil unseres Alltags werde, sei es wichtig, die Geschlechterdarstellung bei der Gestaltung von KI sorgfältig zu berücksichtigen, so die Forschenden. Entwicklerinnen und Entwickler interaktiver KI-Anwendungen sollten Vorurteile in menschlichen Interaktionen erkennen und abbauen, um eine Verstärkung schädlicher geschlechtsspezifischer Diskriminierung zu verhindern und vertrauenswürdige, faire und sozial verantwortliche KI-Systeme zu schaffen.

Quelle

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 20. November 2025