Trügerische Mimik

Forschung: Wer ein Gesicht lesen will, muss auch die Körperhaltung und den Kontext beachten

Gesichter sprechen Bände. Ein freundliches Lächeln, eine gerunzelte Stirn, zusammengezogene Augenbrauen. Wir lesen Gefühle und Stimmungen in ihnen und reagieren entsprechend. Die Erkenntnisse aus der Mimik-Forschung fließen in die Entwicklung von Algorithmen, die dafür sorgen sollen, dass virtuelle Assistenten bald in unseren Gesichtern erkennen können, wie es uns gerade geht und was wir vorhaben. Tatsächlich gibt es aber auch Zweifel daran, ob Gesichter wirklich verlässliche Informationen über die Gefühle der jeweiligen Person liefern.

Aleix Martinez von der Ohio State University und seinne Kolleg_innen arbeiten an Algorithmen, die lernen sollen, Gefühle und Intentionen zu erkennen, darum sind sie dieser Frage genauer nachgegangen und kommen zu dem Schluss: Nein, wir können Gefühle nicht am Gesicht ablesen, zumindest nicht am Gesicht allein. Die Wissenschaftler_innen analysierten Muskelbewegungen im Gesicht und verglichen sie mit verschiedenen Gefühlen einer Person. Der Versuch, anhand solcher Muskelbewegungen die richtigen Gefühle zu erraten oder zu definieren, welche Gefühle welche Bewegungen verursachen, scheiterte in den meisten Fällen.

Kontext und kultureller Hintergrund sind wichtig
Der Forscher erklärte, dass Gesichtsausdrücke eben auch vom kulturellen Hintergrund und vom Kontext abhingen. Nicht jeder, der lächle sein glücklich. Es sei auch nicht jeder, der nicht lächle, unglücklich. Und manche würden auch aufgrund sozialer Normen lächeln. Das sei zwar an sich kein Problem, wohl aber, wenn Mimik künstlich ausgewertet würde und falsche Schlüsse daraus gezogen würden.

In ihren Experimenten ließen die Forscher_innen Testpersonen Bilder von Gesichtern bewerten und dabei zeigte sich, dass verschiedene zusätzliche Hinweise benötigt werden, um Gesichtsausdrücke richtig einzuordnen. So kann etwa die Gesichtsfarbe helfen – denn Emotionen wirken sich auch auf die Durchblutung aus. Auch die Körperhaltung ist aufschlussreich. Und nicht zuletzt der Kontext.
So wurde in den Experimenten etwa das Bild eines männlichen Gesichts gezeigt: stark gerötet, mit geöffnetem Mund, der zu schreien schien. Die Testpersonen, die die Emotionen erkennen sollten, vermuteten Ärger und Wut hinter diesem Gesicht. Ein Ganzkörperbild zeigte dann aber, dass hier ein Fußballspieler gerade ein Tor geschossen hatte. Während das Bild im Kontext also einen glücklichen Mann darstellt, erscheint die Person - auf das Gesicht reduziert - als gefährlich.

Martinez glaubt grundsätzlich durchaus daran, dass Computer Algorithmen lernen können, Gefühle und Intentionen von Menschen zu erkennen. Hierbei sei aber wichtig zu wissen, dass eine solche Interpretation nie 100% genau sein könne und mehr erfordere als die Auswertung des Gesichtsausdrucks. Dies müssten Menschen und die Algorithmen, die sie entwickeln, wissen.

Quelle:

Was denkst du darüber?
Autorin / Autor: Quelle: Pressemitteilung Ohio State University