Ich sehe, was du sagst

Lippenlesen - die Verknüpfung bestimmter Hirnareale machts möglich

Hörgeschädigte sind täglich darauf angewiesen: Um zu verstehen, was ein anderer gesagt hat, müssen sie genau hinschauen - nämlich auf die Lippenbewegung der RednerInnen. Aber auch für "normal" Hörende ist es - zum Beispiel an einer lauten Straße oder in der Disko - hilfreich, dem Gesprächspartner auf den Mund zu schauen. Helen Blank, Wissenschaftlerin am Leipziger Leipziger Max-Planck-Institut (MPI) erklärt, warum das funktioniert: Wenn wir Lippen lesen, führt unser Gehirn Informationen aus verschiedenen sensorischen Quellen zusammen, und dadurch verbessert sich das Verstehen von Sprache“.

Die Mitarbeiterin der Forschungsgruppe "Neuronale Mechanismen zwischenmenschlicher Kommunikation" untersuchte in einer Studie, auf welche Weise die verschiedenen Hirn-Areale beim Lippenlesen zusammenarbeiten. Sie ließ ihre Probanden zunächst kurze Sätze hören und maß dabei ihre Hirnaktivität mithilfe funktioneller Magnetresonanztomografie. Anschließend zeigte sie ihnen ein kurzes Video einer sprechenden Person - allerdings ohne Ton. Die TeilnehmerInnen sollten danach per Knopfdruck angeben, ob Wörter und Mundbewegung ihrer Meinung nach zusammengepasst hatten. In den Fällen, wo sie keine Übereinstimmung finden konnten, begannen jene Hirnareale, die gesehene und gehörte Informationen verknüpfen, aktiver zu werden und erhöhten ihre Verbindung zu rein auditorischen Sprachregionen.

„Wahrscheinlich entsteht durch die akustische Vorinformation eine Erwartungshaltung darüber, welche Lippenbewegungen man sehen wird“, vermutet Blank. Ist die Vorhersage und das tatsächlich Wahrgenommene widersprüchlich, registriert das dafür zuständige Hirnareal dies als Fehler. Die Stärke dieses Signals hing direkt davon ab, wie gut die Testpersonen im Lippenlesen waren: „Bei den besten Lippenlesern wurde also ein besonders starkes Fehlersignal generiert“, sagt Blank.

Diesen Effekt kann man aber offenbar nur bei Sprache beobachten, denn der Fehleralarm im Gehirn kam nicht in Gang, wenn die Testpersonen entscheiden sollten, ob die Identität der Stimme und des Gesichtes zusammen passten. Die Studie ist ein wichtiges Ergebnis nicht nur für die Grundlagenforschung auf diesem Gebiet. Besseres Wissen darüber, wie das Hirn Gehörtes und Gesehenes bei der Sprachverarbeitung miteinander verbindet, könnte auch in den klinischen Wissenschaften Anwendung finden. „Menschen mit Hörstörungen sind oft sehr stark auf das Lippenlesen angewiesen“, sagt Blank. Weiterführende Studien könnten etwa untersuchen, was im Gehirn passiert, wenn Lippenlesen bewusst trainiert oder mit Zeichensprache kombiniert wird, so die Forscherin.

Mehr zum Thema auf LizzyNet

Autorin / Autor: Redaktion/ Pressemitteilung - Stand: 7. November 2012