Algorithmen machen Vorurteile sichtbar

Forschung: Gegenüber unseren eigenen Vorurteilen sind wir blind. Aber bei Algorithmen können wir sie erkennen. Das könnte uns helfen, Vorurteile besser zu bekämpfen - auch in uns.

Vorurteile? Ich? Neiiiiiiin! Die meisten Menschen haben einen blinden Fleck, wenn es darum geht, Vorurteile bei sich selbst zu erkennen. Dafür erkennen sie offenbar Vorurteile recht gut, wenn sie die Entscheidungen von Algorithmen betrachten, sagen Forscher:innen.

Algorithmen sollen eigentlich dafür sorgen, dass alles etwas gerechter zugeht, etwa wenn ein Job oder Kredit vergeben werden soll. Entscheidungen sollen nicht länger abhängig vom subjektiven Urteil von Einzelpersonen abhängen, sondern auf der Analyse von Daten beruhen. Nun ist bekannt, dass Algorithmen, weil sie mit Daten trainiert werden, die selbst voller Vorurteile stecken, weit davon entfernt sind, gerechte und vorurteilsfreie Entscheidungen zu fällen.

Und doch könnte daran auch etwas Gutes sein, meinen Forschende um Carey Morewedge von der Boston University. Denn interessanterweise fällt es Menschen offenbar leichter, solche vorurteilsbelasteten Entscheidungen bei Algorithmen zu erkennen als bei sich selbst. Der Algorithmus führt uns also vor Augen, wie Vorurteile aussehen und welche Folgen sie haben können.

"Algorithmen können menschliche Voreingenommenheit kodieren und verstärken, aber Algorithmen offenbaren auch strukturelle Voreingenommenheit in unserer Gesellschaft", sagt Morewedge. "Viele Voreingenommenheiten können nicht auf individueller Ebene beobachtet werden. Es ist schwer, Voreingenommenheit zum Beispiel bei einer einzelnen Einstellungsentscheidung nachzuweisen. Aber wenn wir Entscheidungen innerhalb von Personen und über Personen hinweg addieren, wie wir es bei der Entwicklung von Algorithmen tun, können wir strukturelle Verzerrungen in unseren Systemen und Organisationen aufdecken."

Zusammen mit Begüm Çeliktutan und Romain Cadario von der niederländischen Erasmus University hat Morewedge eine Reihe von Experimenten durchgeführt, die dies belegen. Dabei wurden die Testpersonen in unterschiedlichen Situationen dazu gebracht, Entscheidungen zu fällen. Sio sollten sie beispielsweise anhand von nur sehr wenigen Informationen beurteilen, ob sie bestimmte Airbnb Wohnungen buchen würden. Die Testpersonen sahen nur die durchschnittliche Anzahl von Bewertungssternen und den Namen der Gastgeber:innen, der mal „weiß“, mal afroamerikanisch klang.

In einem zweiten Durchlauf bekamen die Testpersonen dann Informationen, dass der Name von Gastgeber:innen oft rassistische Vorurteile und infolgedessen schlechtere Bewertungen verursachen kann. Ihnen wurden dann verschiedene Bewertungsergebnisse vorgelegt, bei denen sie beurteilen sollten, ob diese von Vorurteilen beeinflusst worden sein könnten.

Die Bewertungen waren in einigen Fällen tatsächlich ihre eigenen Bewertungen aus dem ersten Durchlauf, die nun angeblich von einem Algorithmus oder einer anderen Person stammen sollten (oder tatsächlich von einem Algorithmus kamen). Für alle Versuchsdurchgänge zeigte sich: Vorurteile wurden in den Bewertungen dann besonders gut erkannt, wenn geglaubt wurde, sie kämen von einer anderen Person oder von einer Maschine. Das galt auch für die Urteile, die ursprünglich selbst verfasst worden waren.

Die Forscher:innen sehen in ihren Versuchen einen hoffnungsvollen Ansatz. Denn um Vorurteile zu beseitigen, müsse man sie zunächst erkennen. Möglicherweise können Algorithmen uns dabei behilflich sein, zu sehen, was wir bei uns selbst nicht erkennen können oder wollen. Während alle sich daran abarbeiten, Algorithmen auf weniger vorteilsbelastete Füße zu stellen, sind sie immer noch ein Produkt von Menschen. Es müsse also vor allem darum gehen, Menschen weniger voreingenommen zu machen. Und dabei könnten uns Algorithmen befilflich sein.

Quelle:

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 15. April 2024