KI-generierte Medien kaum zu erkennen

Forschung: KI-generierte Bilder, Texte und Videos können gezielt für Meinungsmache eingesetzt werden - eine Gefahr für unsere Demokratie. Um ihre Verbreitung zu bremsen, müssten sie erkannt werden. Eine Aufgabe, an der Maschinen und Menschen scheitern.

Visualisierung zum Paper “A Representative Study on Human Detection of Artificially Generated Media Across Countries”

KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmer:innen aus Deutschland, China und den USA.

Durch die rasanten Entwicklungen der letzten Jahre im Bereich der Künstlichen Intelligenz können heute mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien generiert werden. Prof. Dr. Thorsten Holz vom CISPA Helmholtz-Zentrum für Informationssicherheit erläutert, welche Risiken aus seiner Sicht damit verbunden sind: „Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“.

Vor diesem Hintergrund wäre eine automatisierte Erkennung von KI-generierten Medien sehr wichtig. „Das ist allerdings ein Wettlauf mit der Zeit“, erklärt  Dr. Lea Schönherr. „Medien, die mit neu entwickelten Methoden zur Generierung mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann“. Ob Menschen aber überhaupt in der Lage sind, KI-generierte Medien als solche zu erkennen, wollten die Forschenden in ihrer Studie herausfinden.

Das war bestimmt ein Mensch?

Die Ergebnisse der medien- und länderübergreifenden Studie sind erstaunlich: „Wir sind jetzt schon an dem Punkt, an dem es für Menschen schwierig ist – wenn auch noch nicht unmöglich – zu unterscheiden, ob etwas echt oder KI-generiert ist. Und das gilt eben für alle Arten von Medien: Text, Audio und Bild“ erklärt Holz.
Für die Studie wurden wischen Juni 2022 und September 2022 in China, Deutschland und den USA 2.609 Datensätze von Testpersonen ausgewertet. Diese mussten bestimmen, ob die ihnen gezeigten Medien (entweder „Texte“, „Bilder“ oder „Audios“) von Menschen oder von KI erzeugt worden waren. Außerdem wurden verschiedene persönliche und psychologische Faktoren erfasst (z.B. Bildung, Medienkompetenz, politische Einstellung usw.). Dabei kam heraus, dass fast alle Teilnehmenden - ob jung, ob alt, ob sehr gebildet oder eher nicht - KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht beurteilten.

Und jetzt?

Das Ergebnis der Studie liefert wichtige Erkenntnisse für die Cybersicherheitsforschung: „Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt“, erläutert Schönherr. Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht sie eine wichtige Aufgabe für die Zukunft. Aber aus der Studie ergeben sich auch weitere Themen: „Zum einen müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Wir planen eine Laborstudie, wo Teilnehmer:innen uns erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Zum anderen müssen wir überlegen, wie wir das technisch unterstützen können, etwa durch Verfahren zum automatisierten Fakt-Checking,“ so Schönherr abschließend.

CISPA-Faculty Dr. Lea Schönherr und Prof. Dr. Thorsten Holz präsentierten die Ergebnisse diese Woche auf dem 45. IEEE Symposium on Security and Privacy in San Francisco. Die Studie entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin.

Quelle:

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 24. Mai 2024