Traue deinen Augen nicht!

Forschung: Auch Journalist_innen erkennen gefakte Bilder nicht immer und tragen zu ihrer Verbreitung bei

Dr T.J. Thomson, QUT's Digital Media Research Centre; Ein manipuliertes Bild, das während der australischen Buschfeuer 2019-2020 in den sozialen Medien weit verbreitet war.

Delfine in den Kanälen von Venedig, eine aufgeblasene Menschenmenge bei der Amtseinführung Donald Trumps, Politiker_innen mit obszönen Gesten - wir alle haben solche Bilder gesehen, haben gestaunt, uns gewundert, uns aufgeregt. Sie wurden uns als Wahrheit präsentiert und genau so haben wir sie oft auch aufgefasst. Dass die gezeigten Delfine nicht in Venedig, sondern bei Sardinien gefilmt wurden, Trumps Fangemeinde kleiner war als die Bilder vermuten ließen und so manche rüde Geste eines Politikers in der Wirklichkeit so nie stattgefunden hat, kam erst nachträglich heraus und kann das einmal gesehene Bild oft gar nicht wieder auslöschen.

Bildbearbeitungssoftware ist so allgegenwärtig und einfach zu bedienen, dass sie laut den Forscher_innen des australischen Queensland University of Technology (QUT) die Macht hat, Geschichte neu zu erfinden. Das Team um DR. T.J. Thomson hat die Problematik von Fake-Bildern in sozialen Netzwerken und ihrer Bekämpfung beleuchtet.

Wenn Journalist_innen schnell eine aktuelle Meldung herausbringen wollen, hätten sie oft weder die Zeit noch die Werkzeuge, echte von gefakten Bildern zuverlässig zu unterscheiden, besonders wenn die Bilder aus sozialen Medien kommen, so die Forscher_innen.

Hauptautor Dr. T.J. Thomson erklärt, dass manchmal eine Manipulation durch im Netz vorhandene Originale auffällt, wie in dem Fall als Mitarbeiter von Donald Trump 2019 ein Bild auf seiner offiziellen Facebook-Seite veröffentlichten, und Journalist_innen die mit Photoshop bearbeiteten Bearbeitungen von Haut und Körperbau aufdeckten, weil es eine unbearbeitete Version auf dem offiziellen Flickr-Feed des Weißen Hauses gab. Er fragt aber, was passiere, wenn solche Originalversionen nicht verfügbar seien und Journalist_innen sich nicht auf eine einfache umgekehrte Bildsuche verlassen könnten, um zu überprüfen, ob ein Bild echt ist oder manipuliert wurde.

Zu den Beispielen, die in dem Bericht hervorgehoben werden, gehören Fotos von Krokodilen auf den Straßen von Townsville während einer Überschwemmung im vergangenen Jahr, die später als Bilder von Alligatoren in Florida ab 2014 gezeigt wurden. Der Bericht zitiert auch einen Reuters-Mitarbeiter zu seiner Entdeckung, dass ein erschütterndes Video während des Zyklons Idai, der 2019 Teile Afrikas verwüstete, fünf Jahre zuvor in Libyen gedreht worden war.
Ein Bild der Reaktion von Dr. Martin Luther King Jr. auf die Verabschiedung des Bürgerrechtsgesetzes durch den US-Senat im Jahr 1964 wurde manipuliert, um den Eindruck zu erwecken, er würde einen Stinkefinger in die Kamera halten. Diese bearbeitete Version wurde auf Twitter, Reddit und einer Website von weißen Rassisten verbreitet.

Immer mehr nutzergenerierte Bilder in journalistischen Medien
In ihrer Studie zeigen die Wissenschaftler_innen auf, dass immer mehr nutzergenerierte und von der Masse stammende visuelle Inhalte in Nachrichtenberichten verwendet würden. Dabei werde aber die Erkennung von Falschbildern durch die Anzahl der täglich erstellten Bilder - mehr als 3,2 Milliarden Fotos und 720.000 Stunden Video - und die Geschwindigkeit, mit der sie produziert, veröffentlicht und weitergegeben werden, erschwert. Offenbar nutzen Nachrichtenredaktionen Verifizierungsinstrumente für soziale Medien nur in geringem Umfang, wie eine kürzlich vom Internationalen Zentrum für Journalisten (ICFJ) durchgeführte quantitative Studie herausgestellt hat.

Die Forscher_innen empfehlen darum eine verstärkte Nutzung von bereits vorhanden Werkzeugen - etwa die umgekehrte Bildsuche, die Untersuchung von Bild-Metadaten und den Einsatz von Bildbearbeitungssoftware sowie eine genaue Betrachtung von Licht und Schatten. Es müssten allerdings mehr Werkzeuge entwickelt werden, einschließlich fortgeschrittenerer Methoden des maschinellen Lernens, um gefälschte Bilder in sozialen Medien zu erkennen.

Fehlende Instrumente und mangelnde Medienkompetenz
Außerdem brauchen natürlich auch die Betrachter_innen solcher Bilder eine bessere Medienkompetenz. "Der Mangel an benutzerfreundlichen forensischen Werkzeugen und die geringe digitale Medienkompetenz sind zusammengenommen die Haupthindernisse für diejenigen, die versuchen, die Flut visueller Fehlinformationen/Desinformationen im Internet einzudämmen", resümieren die Forscher_innen.

Wenn euch also demnächst mal wieder äußerst spektakuläre Bilder unterkommen - seien es wilde Tiere in der Innenstadt oder Prominente, die skandalöse Dinge tun - lasst euch nicht gleich blenden und hinterfragt immer, wie verlässlich die Bilder sind, die euch präsentiert werden.

Die Studie "Visual Mis/disinformation in Journalism and Public Communications" wurde im Fachjournal Journalism Practice veröffentlicht.

Mehr Hilfen gegen die Verbreitung von Fake News

Quelle:

Was denkst du darüber?
Autorin / Autor: Redaktion / Pressemitteilung; Bild: Dr T.J. Thomson, QUT's Digital Media Research Centre - Stand: 27. Oktober 2020