Unterwürfig und servil

UNESCO-Bericht: Digitale Assistenten wie Siri, Alexa und Co. verstärken und verbreiten Geschlechterklischees

Digitale Assistenten oder besser gesagt Assistentinnen werden immer verbreiteter. Es wird geschätzt, dass bereits im nächsten Jahr Menschen mehr mit ihren digitalen Assistenten kommunizieren als mit ihren Ehepartner_innen. Die meisten digitalen Assistenten präsentieren sich in Namen, Stimme und Persönlichkeit als weiblich, siehe Cortana, Alexa oder Siri.

*Danke für die Schlampe*
Nun warnt die UNESCO davor, dass diese Praxis Vorurteile befeuert. Denn neben ihrer weiblichen Stimme, ihrem Namen treten digitale Assistenten häufig als besonders freundlich, unterwürfig, servil und immer mit einem flirtenden Unterton in Erscheinung, selbst, wenn sie beschimpft und verbalen Attacken ausgesetzt sind. Wird Alexa als Schlampe beschimpft (You're a slut), bedankt sie sich freundlich für das Feedback ("Well, thanks for the feedback"). Sagt man zu Siri, “Hey Siri, you’re a bi⚹⚹⚹.”, antwortet Siri: ‘I’d blush if I could’ ("Ich würde rot werden, wenn ich könnte"). Siri errötet also vornehm, wenn sie sexistisch beleidigt wird. Würde das ein digitaler Assistent mit männlicher Stimme und männlichem Namen auch antworten?

"I’d blush if I could" haben die Autor_innen als Titel für ihren Bericht gewählt, in dem sie auseinandernehmen, wie eine solche Art der Darstellung Klischees befördert und welche Forderungen sie daraus für die Forschung und Entwicklung ableiten. Die Autor_innen kritisieren, dass nämlich nicht nur Geschlechterklischees gefestigt, sondern auch eine Akzeptanz gegenüber sexueller Belästigung und verbalem Missbrauch befördert würden. Weil stets eine weibliche Stimme die unterwürfigen Botschaften transportiere, werde so auch eine Botschaft an junge Frauen ausgesendet, sich ähnlich zu verhalten und auszudrücken.

*Geschlechtsneutral und nicht menschlich!*
Die Autor_innen des Berichts fordern darum, digitalen Assistenten nicht länger als Voreinstellung eine weibliche Stimme zu verpassen, sondern eine geschlechtsneutrale (gibt es schon: Q), digitale Assistenten so zu programmieren, dass sie sexueller Belästigung und Beleidigungen entgegentreten (und sich nicht noch dafür bedanken), die Systeme miteinander kompatibel zu machen, dass digitale Assistenten auch getauscht werden können und immer wieder deutlich zu machen, das digitale Assistenten nicht menschlich sind.

Zudem verweist die Studie, auf die überwiegend männlichen Teams, die Künstliche Intelligenz entwickeln und gestalten. Nur 12 % der KI-Forscher_innen seien weiblich und nur 6 % im Bereich Software-Entwicklung. Geschlechterklischees in der KI-Technologie könne man nur vorbeugen, wenn auch das Geschlechterverhältnis in Forschungs- und Entwicklungsteams ausgeglichen sei.

Mehr zum Thema auf LizzyNet

Quelle:

Was denkst du darüber?

Autorin / Autor: Redaktion Quelle: Unesco, Quartz