Bot or not?

Studie der Universität Duisburg Essen: Weicht eine Meinung von unserer ab, vermuten wir dahinter eher einen Softwareroboter als wenn er unsere eigene Meinung widerspiegelt

Schreibt hier ein Mensch oder steckt Künstliche Intelligenz dahinter? Wer auf Twitter, Instagram oder TikTok surft, ist – bewusst oder nicht – bereits auf Social Bots gestoßen: Automatisierte Profile, die kommentieren, liken oder Nachrichten schreiben. Sozialpsycholog_innen der UDE haben in mehreren Studien untersucht, wie wir damit umgehen. Erkennen wir die Künstliche Intelligenz? Akzeptieren wir sie? Das hängt vom Thema ab – und von der Meinung des Bots.

Bots an sich sind praktisch: Sie erinnern uns ans Trinken oder geben Wetter-Updates. Doch Social Bots werden auch eingesetzt, um bestimmte Meinungen im Netz zu unterstützen oder gar gezielt Fake News – Falschinformationen – zu streuen.

Das Team aus der Sozialpsychologie hat untersucht, ob wir manipulative Social Bots als solche wahrnehmen, wann wir misstrauisch werden und sogar prüfen, ob ein Profil zu einem echten Menschen gehört: Für die drei online durchgeführten Befragungen haben sich insgesamt rund 600 Proband:innen aus den USA verschiedene Twitter-Profile angesehen. Diese Profile waren entweder stark den Republikanern oder den Demokraten zugewandt und darüber hinaus unterschiedlich individuell oder automatisiert gestaltet.

„Aufgrund des politischen Systems in den USA konnten wir davon ausgehen, dass die Teilnehmenden entweder die eine oder die andere Partei klar favorisieren würden“, erklärt Doktorandin und eine der Studienleiterinnen Magdalena Wischnewski. „In wenigen anderen Lebensbereichen gibt es eine so klare Zweiteilung.“

Es zeigte sich, dass die Teilnehmenden misstrauisch wurden, wenn die Profile sehr automatisiert wirkten. Jedoch wurde das von den Proband_innen eher toleriert, wenn der fragliche Account die gleiche politische Meinung zur Schau stellte wie sie selbst. Anders bei gegenteiligen Positionen: Wer den demokratischen US-Präsidenten unterstützt, wurde bei republikanischen Inhalten eher misstrauisch – und umgekehrt. Software, um Bots zu identifizieren, nutzten die Proband:innen meist, um eine bereits gefasste Meinung zu bestätigen.

„Die Ergebnisse lassen sich nicht nur geographisch auf Deutschland, sondern auch inhaltlich auf alle Lebensbereiche übertragen, bei denen es unterschiedliche Positionen gibt“, so Wischnewski. „Damit wir mit Social Bots interagieren, müssen diese menschlich wirken und sie müssen unserer Meinung sein. Davon gibt es aber nur sehr wenige. Entsprechend unwahrscheinlich ist es daher, dass viele User im direkten Kontakt auf Bots hereinfallen. Social Bots dienen also eher dazu, Themen so oft aufzugreifen, dass es scheint, als lägen sie im Trend.“

Quelle:

Was denkst du darüber?

Autorin / Autor: Pressemitteilung / Redaktion