Publikationsserver der Universitätsbibliothek Marburg

Titel: Multisensorische Repräsentation von Eigenbewegung im menschlichen Gehirn
Autor: von Hopffgarten, Anna
Weitere Beteiligte: Bremmer, Frank (Prof.)
Erscheinungsjahr: 2011
URI: https://archiv.ub.uni-marburg.de/diss/z2011/0114
URN: urn:nbn:de:hebis:04-z2011-01145
DOI: https://doi.org/10.17192/z2011.0114
DDC: 500 Naturwissenschaften
Titel(trans.): Multisensory Self-Motion Representation in the Human Brain

Dokument

Schlagwörter:
Multisensorik, Optischer Fluss, optic flow, Multisensory Integration, Funktionelle NMR-Tomographie, Self-Motion, Eigenbewegung

Zusammenfassung:
Wenn wir uns durch den Raum bewegen, erhalten wir visuelle, propriozeptive, vestibuläre, auditive und bisweilen auch taktile Informationen über die Position, Geschwindigkeit und Beschleunigung unseres Körpers. Nur eine erfolgreiche Integration dieser Signale ermöglicht uns eine kohärente Wahrnehmung unserer Eigenbewegung. Zwar liefern die Informationen aller Sinnesmodalitäten zusammen die zuverlässigste Repräsentation, jedoch konnte gezeigt werden, dass auch visuelle, vestibuläre oder propriozeptive Signale allein ausreichen, um etwa die Distanzen von Vorwärtsbewegungen abzuschätzen. Das Ziel meiner Arbeit war es, herauszufinden, welche Rolle auditive Reize für die Wahrnehmung von Eigenbewegung spielen und wo im menschlichen Gehirn audiovisuelle Eigenbewegungssignale verarbeitet werden. Diesen Fragen ging ich mit Hilfe psychophysikalischer Untersuchungen sowie funktioneller Magnetresonanztomographie (fMRT) auf den Grund. In einer ersten Studie untersuchte ich, ob auditive Eigenbewegungsinformationen dazu genutzt werden können, die Distanzen simulierter Vorwärtsbewegungen zu reproduzieren. Dazu präsentierte ich meinen Probanden eine visuell simulierte Eigenbewegung über eine Ebene (passive Fahrt), die von einem Ton begleitet wurde, dessen Frequenz proportional zur simulierten Fahrtgeschwindigkeit war. Die Aufgabe der Probanden war es, die Distanz der Strecke mit Hilfe eines Joysticks zu reproduzieren (aktive Fahrt). Während dieser aktiven Fahrt erhielten die Teilnehmer entweder audio-visuelle, nur visuelle oder rein auditive Bewegungssignale. Es zeigte sich, dass die Probanden die Distanzen am zuverlässigsten reproduzierten, wenn sie ausschließlich den Ton hörten, und am schlechtesten, wenn sie nur visuelle Informationen erhielten. In einem Folgeexperiment war ohne das Wissen der Teilnehmer bei einigen aktiven Fahrten das Verhältnis zwischen Geschwindigkeit und Tonhöhe reskaliert, d.h., die Tonfrequenz war entweder höher (positive Reskalierung) oder tiefer (negative Reskalierung) als während der passiven Fahrten (Catch Trials). Ich stellte fest, dass die Leistung der Probanden durch die Reskalierung gestört wurde: War die Tonfrequenz tiefer, fuhren sie schneller und weiter, während sie bei einer positiven Reskalierung langsamer und kürzere Distanzen fuhren als in den Durchgängen ohne Reskalierung. Ich schließe daraus, dass während Eigenbewegung die Tonfrequenz als Geschwindigkeitshinweis dienen kann und dazu genutzt wird, Distanzen abzuschätzen und zu reproduzieren. Während Eigenbewegungen wird eine Bildbewegung auf der Netzhaut erzeugt – auch optischer Fluss genannt –, die bei starrer Blickrichtung Informationen über die Eigenbewegungsrichtung und -geschwindigkeit liefert. Diese Verschiebung löst jedoch reflexive, kompensatorische Augenbewegungen aus, die dazu dienen, das Bild auf der Netzhaut zu stabilisieren. Ich stellte in einer zweiten Studie fest, dass auch simulierte Vorwärtsbewegungen über eine Ebene, wie sie in Studie I durchgeführt wurden, solche reflexiven Augenbewegungen auslösen. Sie setzen sich aus langsamen Folge- und schnellen Rückstellbewegungen zusammen. Ich konnte zeigen, dass Probanden die Geschwindigkeit der Augenfolgebewegungen exakter kontrollieren können, wenn sie ihre Fahrtgeschwindigkeit aktiv mit einem Joystick steuern, als wenn sie passiv über die Ebene bewegt werden. Möglicherweise unterstützt das propriozeptive Feedback der Joystickauslenkung während der aktiven Fahrten die Kontrolle der Augenbewegungen. Außerdem stellte ich fest, dass Probanden ihre Augen auch in Richtung der Bewegung der Ebene bewegen, wenn sie diese nicht sehen, sondern nur auditive Geschwindigkeitshinweise erhalten. In einer dritten Studie untersuchte ich mittels fMRT, welche Regionen des menschlichen Gehirns an der Verarbeitung audio-visueller Eigenbewegungssignale beteiligt sind. Da nur räumlich und zeitlich kongruente Informationen unterschiedlicher Sinnesmodalitäten optimal zu einer Gesamtwahrnehmung integriert werden können, überprüfte ich, ob und ggf. wie die Kongruenz der Reize die Hirnaktivität beeinflusst. Der visuelle Stimulus bestand aus einer im Wechsel expandierenden und kontrahierenden Punktewolke, die eine Vor- bzw. Rückwärtsbewegung des Betrachters simulierte. Als auditiver Reiz diente ein Sinuston, der in einer audio-visuell kongruenten Bedingung wie der visuelle Stimulus eine Vor- bzw. Rückwärtsbewegung simulierte. In einer audio-visuell inkongruenten Bedingung simulierte der auditive Reiz eine frontoparallele Bewegung, während der visuelle Stimulus eine Vor- bzw. Rückwärtsbewegung simulierte. Die bimodale Stimulation aktivierte im Unterschied zur unimodalen Stimulation unter anderem Bereiche des Präzentralen Sulcus, des Superioren Temporalen Sulcus sowie des Intraparietalen Sulcus. Verglichen mit der inkongruenten Stimulation aktivierte der kongruente Stimulus einen Bereich des Präzentralen Sulcus. Zusammengenommen konnte ich in meiner Arbeit zeigen, dass auditive Eigenbewegungsinformationen eine wichtige Rolle für die Einschätzung und Reproduktion von Distanzen spielen und im menschlichen Gehirn gemeinsam mit visuellen Eigenbewegungssignalen in einem parieto-frontalen Netzwerk verarbeitet werden. Räumlich kongruente Eigenbewegungssignale werden in einem Areal verarbeitet, bei dem es sich auf Grund der funktionalen und räumlichen Ähnlichkeit um ein Äquivalent der "Polysensory Zone" des Makakengehirns handeln könnte.

Summary:
While moving through our environment we receive visual, auditory, proprioceptive, vestibular and sometimes tactile information about the position, velocity and acceleration of our body. Only a successful integration of these signals allows for a coherent perception of self-motion. Information from all modalities together provides the most reliable representation. However, previous studies demonstrated that one can use pure visual, vestibular or proprioceptive signals for distance estimation. The aim of my thesis was to analyse the role of auditory signals for self-motion perception and to determine which brain areas process audio-visual self-motion signals. For this purpose I carried out psychophysical tests and recorded brain activities using functional magnetic resonance imaging (fMRI). In my first study I investigated whether auditory self-motion information can be used to estimate and reproduce the distances of forward movements. Participants were presented with a visually simulated forward-motion across a ground plane (passive displacement). The frequency of an associated auditory stimulus was proportional to the simulated speed. Subjects had to reproduce the distance of the displacement with a joystick (active displacement). During the active displacements they received either audio-visual or pure visual or pure auditory motion signals. I found that reproduction was most precise when the participants only heard the tone while it was least precise when they only saw the ground plane. In a subsequent experiment in some trials the relationship between optical velocity and tone frequency was differently scaled during the active displacements, i.e., the tone frequency was either higher or lower than during the passive displacements (catch trials). I found that the re-scaling affected the subjects’ performance:When the frequency was lower subjects used higher speeds resulting in a substantial overshoot of travelled distance, whereas a higher frequency resulted in an undershoot of travelled distance. I conclude that during self motion tone frequency can be used as a velocity cue and helps to estimate and reproduce travel distance. During self-motion an image of the environment is shifted on the retina. This image motion – called optic flow – provides us with information about the direction and velocity of the displacement. It induces reflexive, compensatory eye movements which stabilize part of the image on the retina. In my second study I observed that a simulated forward motion across a ground plane (as used in Study I) induces such reflexive eye movements. They are composed of slow (following) and fast (resetting) phases. I found that subjects controlled the speed of the slow eye movements more precisely when they controlled the driving speed with a joystick. Probably the proprioceptive feedback from the joystick facilitated eye movement control. Moreover, I found that participants also moved their eyes in the direction of the ground plane motion when they did not see the plane but only received auditory velocity cues. In a third study I investigated by means of fMRI which brain regions are involved in the processing of audio-visual self-motion signals. Since only spatially and temporally congruent signals are integrated optimally into a common percept I investigated to what extend the congruency of signals influences brain activity. The visual stimulus consisted of an alternately expanding and contracting cloud of random dots simulating a forward and backward motion. Auditory stimuli consisted of a sinusoidal tone which simulated a forward and backward motion in a congruent bimodal condition. In an incongruent bimodal condition the tone simulated a frontoparallel motion while the visual stimulus simulated a forward and backward motion. The contrast of bimodal versus unimodal stimulation activated amongst others regions around the precentral sulcus, the superior temporal sulcus as well as the intraparietal sulcus. Compared to incongruent stimulation the congruent stimulus activated a part of the precentral sulcus. Taken together, I showed in my thesis that auditory self-motion information plays an important role for the estimation and reproduction of travelled distances. Audiovisual self-motion information is processed in a parieto-frontal brain network. Spatially congruent signals are processed in a brain area which might be an equivalent of the polysensory zone (PZ) in the macaque brain.


* Das Dokument ist im Internet frei zugänglich - Hinweise zu den Nutzungsrechten