Multisensorische Repräsentation von Eigenbewegung im menschlichen Gehirn

Wenn wir uns durch den Raum bewegen, erhalten wir visuelle, propriozeptive, vestibuläre, auditive und bisweilen auch taktile Informationen über die Position, Geschwindigkeit und Beschleunigung unseres Körpers. Nur eine erfolgreiche Integration dieser Signale ermöglicht uns eine kohärente Wahrnehm...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
1. Verfasser: von Hopffgarten, Anna
Beteiligte: Bremmer, Frank (Prof.) (BetreuerIn (Doktorarbeit))
Format: Dissertation
Sprache:Deutsch
Veröffentlicht: Philipps-Universität Marburg 2011
Schlagworte:
Online-Zugang:PDF-Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:Wenn wir uns durch den Raum bewegen, erhalten wir visuelle, propriozeptive, vestibuläre, auditive und bisweilen auch taktile Informationen über die Position, Geschwindigkeit und Beschleunigung unseres Körpers. Nur eine erfolgreiche Integration dieser Signale ermöglicht uns eine kohärente Wahrnehmung unserer Eigenbewegung. Zwar liefern die Informationen aller Sinnesmodalitäten zusammen die zuverlässigste Repräsentation, jedoch konnte gezeigt werden, dass auch visuelle, vestibuläre oder propriozeptive Signale allein ausreichen, um etwa die Distanzen von Vorwärtsbewegungen abzuschätzen. Das Ziel meiner Arbeit war es, herauszufinden, welche Rolle auditive Reize für die Wahrnehmung von Eigenbewegung spielen und wo im menschlichen Gehirn audiovisuelle Eigenbewegungssignale verarbeitet werden. Diesen Fragen ging ich mit Hilfe psychophysikalischer Untersuchungen sowie funktioneller Magnetresonanztomographie (fMRT) auf den Grund. In einer ersten Studie untersuchte ich, ob auditive Eigenbewegungsinformationen dazu genutzt werden können, die Distanzen simulierter Vorwärtsbewegungen zu reproduzieren. Dazu präsentierte ich meinen Probanden eine visuell simulierte Eigenbewegung über eine Ebene (passive Fahrt), die von einem Ton begleitet wurde, dessen Frequenz proportional zur simulierten Fahrtgeschwindigkeit war. Die Aufgabe der Probanden war es, die Distanz der Strecke mit Hilfe eines Joysticks zu reproduzieren (aktive Fahrt). Während dieser aktiven Fahrt erhielten die Teilnehmer entweder audio-visuelle, nur visuelle oder rein auditive Bewegungssignale. Es zeigte sich, dass die Probanden die Distanzen am zuverlässigsten reproduzierten, wenn sie ausschließlich den Ton hörten, und am schlechtesten, wenn sie nur visuelle Informationen erhielten. In einem Folgeexperiment war ohne das Wissen der Teilnehmer bei einigen aktiven Fahrten das Verhältnis zwischen Geschwindigkeit und Tonhöhe reskaliert, d.h., die Tonfrequenz war entweder höher (positive Reskalierung) oder tiefer (negative Reskalierung) als während der passiven Fahrten (Catch Trials). Ich stellte fest, dass die Leistung der Probanden durch die Reskalierung gestört wurde: War die Tonfrequenz tiefer, fuhren sie schneller und weiter, während sie bei einer positiven Reskalierung langsamer und kürzere Distanzen fuhren als in den Durchgängen ohne Reskalierung. Ich schließe daraus, dass während Eigenbewegung die Tonfrequenz als Geschwindigkeitshinweis dienen kann und dazu genutzt wird, Distanzen abzuschätzen und zu reproduzieren. Während Eigenbewegungen wird eine Bildbewegung auf der Netzhaut erzeugt – auch optischer Fluss genannt –, die bei starrer Blickrichtung Informationen über die Eigenbewegungsrichtung und -geschwindigkeit liefert. Diese Verschiebung löst jedoch reflexive, kompensatorische Augenbewegungen aus, die dazu dienen, das Bild auf der Netzhaut zu stabilisieren. Ich stellte in einer zweiten Studie fest, dass auch simulierte Vorwärtsbewegungen über eine Ebene, wie sie in Studie I durchgeführt wurden, solche reflexiven Augenbewegungen auslösen. Sie setzen sich aus langsamen Folge- und schnellen Rückstellbewegungen zusammen. Ich konnte zeigen, dass Probanden die Geschwindigkeit der Augenfolgebewegungen exakter kontrollieren können, wenn sie ihre Fahrtgeschwindigkeit aktiv mit einem Joystick steuern, als wenn sie passiv über die Ebene bewegt werden. Möglicherweise unterstützt das propriozeptive Feedback der Joystickauslenkung während der aktiven Fahrten die Kontrolle der Augenbewegungen. Außerdem stellte ich fest, dass Probanden ihre Augen auch in Richtung der Bewegung der Ebene bewegen, wenn sie diese nicht sehen, sondern nur auditive Geschwindigkeitshinweise erhalten. In einer dritten Studie untersuchte ich mittels fMRT, welche Regionen des menschlichen Gehirns an der Verarbeitung audio-visueller Eigenbewegungssignale beteiligt sind. Da nur räumlich und zeitlich kongruente Informationen unterschiedlicher Sinnesmodalitäten optimal zu einer Gesamtwahrnehmung integriert werden können, überprüfte ich, ob und ggf. wie die Kongruenz der Reize die Hirnaktivität beeinflusst. Der visuelle Stimulus bestand aus einer im Wechsel expandierenden und kontrahierenden Punktewolke, die eine Vor- bzw. Rückwärtsbewegung des Betrachters simulierte. Als auditiver Reiz diente ein Sinuston, der in einer audio-visuell kongruenten Bedingung wie der visuelle Stimulus eine Vor- bzw. Rückwärtsbewegung simulierte. In einer audio-visuell inkongruenten Bedingung simulierte der auditive Reiz eine frontoparallele Bewegung, während der visuelle Stimulus eine Vor- bzw. Rückwärtsbewegung simulierte. Die bimodale Stimulation aktivierte im Unterschied zur unimodalen Stimulation unter anderem Bereiche des Präzentralen Sulcus, des Superioren Temporalen Sulcus sowie des Intraparietalen Sulcus. Verglichen mit der inkongruenten Stimulation aktivierte der kongruente Stimulus einen Bereich des Präzentralen Sulcus. Zusammengenommen konnte ich in meiner Arbeit zeigen, dass auditive Eigenbewegungsinformationen eine wichtige Rolle für die Einschätzung und Reproduktion von Distanzen spielen und im menschlichen Gehirn gemeinsam mit visuellen Eigenbewegungssignalen in einem parieto-frontalen Netzwerk verarbeitet werden. Räumlich kongruente Eigenbewegungssignale werden in einem Areal verarbeitet, bei dem es sich auf Grund der funktionalen und räumlichen Ähnlichkeit um ein Äquivalent der "Polysensory Zone" des Makakengehirns handeln könnte.
DOI:10.17192/z2011.0114