Multisensorische Repräsentation von Eigenbewegung im menschlichen Gehirn
Wenn wir uns durch den Raum bewegen, erhalten wir visuelle, propriozeptive, vestibuläre, auditive und bisweilen auch taktile Informationen über die Position, Geschwindigkeit und Beschleunigung unseres Körpers. Nur eine erfolgreiche Integration dieser Signale ermöglicht uns eine kohärente Wahrnehm...
Saved in:
Main Author: | |
---|---|
Contributors: | |
Format: | Doctoral Thesis |
Language: | German |
Published: |
Philipps-Universität Marburg
2011
|
Subjects: | |
Online Access: | PDF Full Text |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
Summary: | Wenn wir uns durch den Raum bewegen, erhalten wir visuelle, propriozeptive,
vestibuläre, auditive und bisweilen auch taktile Informationen über die Position,
Geschwindigkeit und Beschleunigung unseres Körpers. Nur eine erfolgreiche Integration
dieser Signale ermöglicht uns eine kohärente Wahrnehmung unserer Eigenbewegung.
Zwar liefern die Informationen aller Sinnesmodalitäten zusammen die
zuverlässigste Repräsentation, jedoch konnte gezeigt werden, dass auch visuelle,
vestibuläre oder propriozeptive Signale allein ausreichen, um etwa die Distanzen
von Vorwärtsbewegungen abzuschätzen.
Das Ziel meiner Arbeit war es, herauszufinden, welche Rolle auditive Reize für die
Wahrnehmung von Eigenbewegung spielen und wo im menschlichen Gehirn audiovisuelle
Eigenbewegungssignale verarbeitet werden. Diesen Fragen ging ich mit Hilfe
psychophysikalischer Untersuchungen sowie funktioneller Magnetresonanztomographie
(fMRT) auf den Grund.
In einer ersten Studie untersuchte ich, ob auditive Eigenbewegungsinformationen
dazu genutzt werden können, die Distanzen simulierter Vorwärtsbewegungen zu reproduzieren.
Dazu präsentierte ich meinen Probanden eine visuell simulierte Eigenbewegung
über eine Ebene (passive Fahrt), die von einem Ton begleitet wurde,
dessen Frequenz proportional zur simulierten Fahrtgeschwindigkeit war. Die Aufgabe
der Probanden war es, die Distanz der Strecke mit Hilfe eines Joysticks zu reproduzieren
(aktive Fahrt). Während dieser aktiven Fahrt erhielten die Teilnehmer
entweder audio-visuelle, nur visuelle oder rein auditive Bewegungssignale. Es zeigte
sich, dass die Probanden die Distanzen am zuverlässigsten reproduzierten, wenn sie
ausschließlich den Ton hörten, und am schlechtesten, wenn sie nur visuelle Informationen
erhielten. In einem Folgeexperiment war ohne das Wissen der Teilnehmer
bei einigen aktiven Fahrten das Verhältnis zwischen Geschwindigkeit und Tonhöhe
reskaliert, d.h., die Tonfrequenz war entweder höher (positive Reskalierung) oder
tiefer (negative Reskalierung) als während der passiven Fahrten (Catch Trials). Ich
stellte fest, dass die Leistung der Probanden durch die Reskalierung gestört wurde:
War die Tonfrequenz tiefer, fuhren sie schneller und weiter, während sie bei einer positiven
Reskalierung langsamer und kürzere Distanzen fuhren als in den Durchgängen
ohne Reskalierung. Ich schließe daraus, dass während Eigenbewegung die Tonfrequenz
als Geschwindigkeitshinweis dienen kann und dazu genutzt wird, Distanzen
abzuschätzen und zu reproduzieren.
Während Eigenbewegungen wird eine Bildbewegung auf der Netzhaut erzeugt –
auch optischer Fluss genannt –, die bei starrer Blickrichtung Informationen über die
Eigenbewegungsrichtung und -geschwindigkeit liefert. Diese Verschiebung löst jedoch
reflexive, kompensatorische Augenbewegungen aus, die dazu dienen, das Bild auf der
Netzhaut zu stabilisieren. Ich stellte in einer zweiten Studie fest, dass auch simulierte
Vorwärtsbewegungen über eine Ebene, wie sie in Studie I durchgeführt wurden,
solche reflexiven Augenbewegungen auslösen. Sie setzen sich aus langsamen Folge- und
schnellen Rückstellbewegungen zusammen. Ich konnte zeigen, dass Probanden
die Geschwindigkeit der Augenfolgebewegungen exakter kontrollieren können, wenn
sie ihre Fahrtgeschwindigkeit aktiv mit einem Joystick steuern, als wenn sie passiv über die Ebene bewegt werden. Möglicherweise unterstützt das propriozeptive Feedback der Joystickauslenkung während der aktiven Fahrten die Kontrolle der
Augenbewegungen. Außerdem stellte ich fest, dass Probanden ihre Augen auch in
Richtung der Bewegung der Ebene bewegen, wenn sie diese nicht sehen, sondern nur
auditive Geschwindigkeitshinweise erhalten.
In einer dritten Studie untersuchte ich mittels fMRT, welche Regionen des
menschlichen Gehirns an der Verarbeitung audio-visueller Eigenbewegungssignale
beteiligt sind. Da nur räumlich und zeitlich kongruente Informationen unterschiedlicher
Sinnesmodalitäten optimal zu einer Gesamtwahrnehmung integriert werden
können, überprüfte ich, ob und ggf. wie die Kongruenz der Reize die Hirnaktivität beeinflusst. Der visuelle Stimulus bestand aus einer im Wechsel expandierenden
und kontrahierenden Punktewolke, die eine Vor- bzw. Rückwärtsbewegung des Betrachters
simulierte. Als auditiver Reiz diente ein Sinuston, der in einer audio-visuell
kongruenten Bedingung wie der visuelle Stimulus eine Vor- bzw. Rückwärtsbewegung simulierte. In einer audio-visuell inkongruenten Bedingung simulierte der auditive
Reiz eine frontoparallele Bewegung, während der visuelle Stimulus eine Vor- bzw.
Rückwärtsbewegung simulierte. Die bimodale Stimulation aktivierte im Unterschied
zur unimodalen Stimulation unter anderem Bereiche des Präzentralen Sulcus,
des Superioren Temporalen Sulcus sowie des Intraparietalen Sulcus. Verglichen mit
der inkongruenten Stimulation aktivierte der kongruente Stimulus einen Bereich des
Präzentralen Sulcus.
Zusammengenommen konnte ich in meiner Arbeit zeigen, dass auditive Eigenbewegungsinformationen
eine wichtige Rolle für die Einschätzung und Reproduktion
von Distanzen spielen und im menschlichen Gehirn gemeinsam mit visuellen Eigenbewegungssignalen
in einem parieto-frontalen Netzwerk verarbeitet werden. Räumlich
kongruente Eigenbewegungssignale werden in einem Areal verarbeitet, bei dem
es sich auf Grund der funktionalen und räumlichen Ähnlichkeit um ein Äquivalent
der
"Polysensory Zone" des Makakengehirns handeln könnte. |
---|---|
DOI: | 10.17192/z2011.0114 |