Keine Ahnung, aber das mit Überzeugung
Algorithmen sorgen für verzerrten Blick auf die Realität und können das Lernen behindern
Was ihr in sozialen Netzwerken an Inhalten angezeigt bekommt, basiert auf dem, was euch interessiert, was ihr früher schon angeklickt oder verfolgt habt. Der Algorithmus sorgt dafür, dass die Inhalte, die ihr angezeigt bekommt, euren Interessen entsprechen. Verrückterweise scheint der Algorithmus aber auch bei Themen, von denen ihr noch gar nichts wisst, schon eine begrenzte Vorauswahl zu treffen. Das wird natürlich dann problematisch, wenn Menschen noch gar nichts über ein Thema wissen und etwas darüber lernen wollen, denn wenn sie dem Algorithmus folgen, dann übersehen sie Informationen. Das haben US-amerikanische Forscher:innen um Giwon Bahg von der Pennsylvania State University in einer Studie herausgefunden.
Als Beispiel nennen die Forscher:innen jemanden, der noch nie Filme aus einem Land XY gesehen hat, diese aber gerne mal kennenlernen würde. Ein Streaminganbieter schlägt ihm Filme zum Einstieg vor. An erster Stelle steht ein Actionfilm, den die Person dann auswählt. Darauf hin schlägt der Algorithmus immer weiter Filme aus diesem Genre vor. Möglicherweise endet die Person dann in dem verallgemeinernden Urteil, dass im Land XY sehr gerne Actionfilme produziert und gesehen werden. Und sie hat vermutlich viele tolle Filme aus anderen Genres verpasst. Der Witz ist, dass die Person oft trotzdem das Gefühl hat, einen guten Überblick über Filme aus dem Land XY zu haben und sich bestens auszukennen. Möglicherweise zieht sie auch verallgemeinerte Schlüsse daraus, wie die Leute in XY ticken.
Bahg und seine Kollegen testeten in einem Online-Experiment mit 346 Teilnehmenden, wie dies geschehen könnte.
Dafür verwendeten die Forscher ein völlig fiktives Setting, über das die Testpersonen nichts wussten. Die Teilnehmenden sollten nämlich lernen, Außerirdische anhand bestimmter Merkmale zu identifizieren. Nur durch Überprüfung aller Merkmale konnten die Außerirdischen mit Sicherheit richtig erkannt werden. Auf unterschiedliche Art und Weise sollten sich die Testpersonen nun dieser Aufgabe widmen. Sie mussten entweder alle möglichen Merkmale ausprobieren oder aber sie konnten selbst entscheiden, welche Merkmale sie überprüfen wollten. Konnten sie selbst wählen, wurde der Algorithmus aktiv, der sie ermutigte, immer wieder dieselben Merkmale zu testen. Sie durften dabei auch auf die Überprüfung anderer Merkmale verzichten.
Und genau das taten sie dann auch. Wer dem Algorithmus folgte, probierte häufig nicht alle Merkmale aus und kam dadurch zu falschen Schlüssen. Dennoch waren sich die Testpersonen gerade dann sicher, dass sie Recht hatten. „Sie waren sogar noch zuversichtlicher, wenn sie mit ihren Entscheidungen falsch lagen, als wenn sie richtig lagen, was besorgniserregend ist, da sie weniger Wissen hatten“, sagte Bahg.
Die Forscher:innen befürchten, dass das Auswirkungen auf die reale Welt hat. „Was passiert, wenn ein kleines Kind wirklich versucht, etwas über die Welt zu lernen, und es mit Online-Algorithmen interagiert, die darauf ausgerichtet sind, dass Nutzer mehr Inhalte konsumieren?“, fragte Turner. „Der Konsum ähnlicher Inhalte steht oft nicht im Einklang mit dem Lernen. Dies kann zu Problemen für die Nutzer und letztlich für die Gesellschaft führen.“
Quelle
Autorin / Autor: Redaktion - Stand: 27. November 2025