Aufräumen gegen Ablenkung

Erkenntnisse aus den Verhaltenswissenschaften bieten Tipps, um uns vor Manipulation und Fake News aus dem Netz zu schützen

Was wäre unsere Welt ohne das Internet? Gerade jetzt in Pandemie-Zeiten profitieren wir sehr davon, dass uns digitale Technologien zur Verfügung stehen. Homeschooling, Filme streamen, Shoppen, virtuelle Geburtstagsfeiern mit den Liebsten - all das wäre offline nicht möglich. Aber bei aller Begeisterung über die schier unendlichen Möglichkeiten: die dahinterstehenden Technologien werden nicht nur zu unserem Vorteil eingesetzt. Im Gegensatz zur Offline-Welt funktioniert die Online-Welt weitgehend nach der Logik der Aufmerksamkeitsökonomie. Die kostbarste Währung für die Anbieter all dieser Online-Plattformen ist unsere Aufmerksamkeit. Wieviele Sekunden bleiben wir auf Instagram? Wieviele Likes vergeben wir einem Katzenbildchen? Wie lange ruht unser Blick auf einer Werbeanzeige? Die Steuerung und Kontrolle darüber liegt in den Händen weniger, aber nicht in denen der Gesetzgeber und noch weniger in unseren Händen als Nutzer_innen. Doch was können wir tun, um mit diesen Herausforderungen umzugehen und wie könnte die Online-Welt besser gestaltet werden? Mit diesen Fragen beschäftigen sich Forscher_innen des Max-Planck-Instituts für Bildungsforschung und der University of Bristol aus verhaltenswissenschaftlicher Perspektive.

„Wie müssen Online-Umgebungen aussehen, sodass sie die menschliche Autonomie respektieren und die Wahrheit fördern? Und was können die Menschen selbst tun, um sich nicht so leicht leiten und in ihrem Verhalten beeinflussen zu lassen?“, sagt Anastasia Kozyreva, vom Max-Planck-Institut für Bildungsforschung. Zusammen mit ihren Kolleg_innen identifizierte vier große Herausforderungen.

"Dark Patterns"
Das Verhalten von uns Nutzer_innen wird durch manipulative Auswahlarchitekturen, sogenannte „Dark Patterns“, beeinflusst, die uns oft zu eigentlich ungewolltem Verhalten verleiten. Da ist zum Beispiel Werbung, die als Inhalt der Seite oder der Navigationsführung erscheint, so dass man zwangsläufig auf sie klickt, ohne es zu wollen. Ein weiteres Beispiel sind verwirrende Privatsphäre-Einstellungen, denen man oft vorschnell zustimmt und die einen dazu bringen, mehr Informationen zu teilen als man eigentlich will.

Unsere Daten bestimmen unsere Suchergebnisse
KI-gestützte Informationsarchitekturen präsentieren uns Inhalte nicht neutral, sondern auf Basis der über uns gesammelten Daten personalisiert. Das heißt, dass zwei Personen, die den gleichen Begriff bei einer Suchmaschine eingeben, sehr wahrscheinlich unterschiedliche Ergebnisse gezeigt bekommen. Das kann hilfreich sein, wenn wir ein bestimmtes Restaurant in unserer Nähe suchen und die Suchmaschine zuerst Treffer in unserer Nachbarschaft anzeigt – statt ein Restaurant gleichen Namens am anderen Ende der Welt. Wenn wir jedoch Nachrichten oder politische Inhalte auf Basis unserer Nutzerpräferenzen angezeigt bekommen, drohen sich Filterblasen zu bilden, in denen wir keine andere Meinung mehr angezeigt bekommen.

Schädliche Infos
Auch falsche und irreführende Informationen sind laut der Forscher_innen eine große Gefahr. Videos und Posts mit Verschwörungsideologien und unbestätigten Gerüchten können sich über soziale Medien schnell verbreiten und zum Beispiel dazu führen, dass sich Menschen aufgrund von Falschinformationen nicht impfen lassen und so Gefahr laufen, zu erkranken und andere zu gefährden.

Aufmerksamkeits-Challenge
Ob Push-Benachrichtigungen, blinkende Displays, aufpoppende Werbebotschaften - es geht darum unsere Aufmerksamkeit zu erlangen und so lange wie möglich aufrechtzuerhalten. Das ist das Geschäftsmodell und davon profitieren die Dienste. Gleichzeitig erwischen wir uns dabei, dass unsere Bildschirmzeit wieder viel länger war als eigentlich gewollt – ohne, dass wir einen wirklichen Nutzen davon hatten und zulasten unserer Aufmerksamkeit für andere Dinge. 

Was wir tun können
Um mit diesen Herausforderungen umzugehen, empfehlen die Forscher_innen sogenannte “Boosting-Tools”, also kompetenzfördernde kognitive Werkzeuge aus der Verhaltenswissenschaft. Self-Nudging ist eines davon, mit dem wir selbstbestimmt unsere digitale Umwelt gestalten können. Neben dem Stummschalten von Apps könnte es helfen, den Startbildschirm unseres Smartphones aufzuräumen und nur die gewünschten Anwendungen sichtbar zu lassen: Kalender, Kamera und Kartendienst, die Gymnastik-App oder das Wetter dürften bleiben. Alles was zu sehr ablenkt, wie soziale Medien und Spiele, solle man dagegen besser in Ordner verschieben. Für die Nutzung sozialer Medien empfehlen die Forscher_innen bewusst Zeitbeschränkungen festzulegen.

„Die digitale Welt ist voller Fallen, die uns gestellt werden. Aber wir können uns vor den Fallen schützen. So wie wir Süßigkeiten im Schrank verstecken und uns eine Schale Äpfel auf den Tisch stellen, können wir auch Benachrichtigungen von Apps ausschalten, um uns vor permanenter Ablenkung und Überflutung zu schützen. Aus den Augen, aus dem Sinn. Das funktioniert auch in der digitalen Welt“, sagt Ralph Hertwig, Direktor des Forschungsbereichs Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung.

Genauso, wie wir vor dem Überqueren einer Straße nach rechts und links schauen, sollten wir uns auch angewöhnen bei der Online-Nutzung bestimmte Fragen zu stellen: Woher kommt die Information ursprünglich? Welche Quellen werden angegeben? Finde ich ähnliche Inhalte auf mir bekannten, seriösen Internetseiten? Das schule die eigene digitale Kompetenz mit Blick auf den Wahrheitsgehalt von Informationen. Doch auch die Internetdienste könnten bei der besseren Einordnung von Inhalten helfen. So zum Beispiel durch Entscheidungsbäume, die vor dem Teilen eines Inhalts erscheinen und daran erinnern, zunächst die Quelle und die Fakten zu überprüfen.

Was Politik und Bildung leisten muss
Generell müssten aber auch politische Entscheidungsträger_innen stärker regulatorische Maßnahmen in Betracht ziehen, die sicherstellen, dass wir Kontrolle über unsere digitale Umgebung und unsere persönlichen Daten haben – zum Beispiel durch voreingestellten Datenschutz. Außerdem müsse das Thema kluge und selbstbestimmte Nutzung digitaler Technologien Teil der Schul- wie auch Erwachsenenbildung sein. Je früher, desto besser, fordern die Autor_innen und sie betonen, dass keines der vorgeschlagenen Werkzeuge allein ausreiche, um Online-Manipulation zu entgehen oder die Verbreitung von falschen Informationen zu verhindern. „Im Zusammenspiel kluger kognitiver Werkzeuge, früher Bildung in Medienkompetenz sowie einer Einschränkung der Möglichkeiten der kommerziellen Lenkung unserer Aufmerksamkeit kann die Online-Welt ein demokratischerer und wahrhaftigerer Ort werden“, sagt Stephan Lewandowsky, Professor für Kognitionswissenschaften an der britischen University of Bristol.

Quelle:

Was denkst du darüber?
Autorin / Autor: Pressemitteilung/ Redaktion