Neural processing of continuous temporal information: visual and visuomotor systems
Our visual environment is highly dynamic, comprising changes in different parameters at multiple timescales in parallel. These changes inform us about the identities and movements of external objects, and at the same time depend on our own behavior. For us to efficiently interact with the environmen...
Main Author: | |
---|---|
Contributors: | |
Format: | Doctoral Thesis |
Language: | English |
Published: |
Philipps-Universität Marburg
2021
|
Subjects: | |
Online Access: | PDF Full Text |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
Unsere visuelle Umgebung ist dynamisch und umfasst, parallel, Änderungen verschiedener Parameter auf mehreren zeitlichen Skalen. Diese Änderungen geben uns Aufschluss über die Identität von Objekten sowie deren Bewegungen im Raum, werden gleichzeitig aber auch von unserem eigenen Verhalten bestimmt. Um uns eine effiziente Interaktion mit der Umgebung zu ermöglichen, benötigen wir daher visuelle Repräsentationen, die so präzise wie möglich sind, und dabei auch die Trennung verschiedener Informationsquellen in der zeitlichen Dimension ermöglichen. In meiner Arbeit habe ich die Verarbeitung von kontinuierlicher zeitlicher Information im visuellen System von Primaten untersucht. Dafür habe ich Verhaltens- und elektrophysiologische Messungen an humanen Versuchspersonen, sowie neuronale Messungen in zwei verschiedenen Primaten-Tiermodellen durchgeführt. Die Arbeit umfasst fünf experimentelle Studien. In diesen habe ich im Einzelnen untersucht, wie zeitliche Information aus visuellem Input extrahiert wird und wie dessen neuronale Repräsentation von motorischem Verhalten abhängt und dieses steuert. Die Reihenfolge der Studien folgt vereinfacht der Hierarchie der visuellen Verarbeitung im Gehirn, von Repräsentationen simpler Information in frühen (Studien I & II) und mittleren kortikalen Arealen des visuellen Systems (III), hin zur Verarbeitung komplexerer Information im visuomotorischen System (IV & V). In den ersten beiden Studien untersuchte ich die neuronalen Antworten des primären visuellen Kortex (Areal V1) auf kontinuierliche, zufällige Luminanz-Sequenzen. Die Antworteigenschaften von V1-Neuronen wurden lange durch eine näherungsweise lineare Impulsantwort beschrieben, die auch für kontinuierliche Stimulation über die Zeit stabil ist. Aktuelle humane EEG Studien haben jedoch gezeigt, dass V1 als Antwort auf Stimulation mit Sequenzen im Breitband-Frequenzbereich eine bestimmte zeitliche Frequenz (Alpha, ca. 10 Hz) selektiert und diese Information in Form von fortschreitenden Wellen über den Kortex propagiert (das “perzeptuelle Echo”; VanRullen and MacDonald, 2012; Lozano-Soldevilla and VanRullen, 2019). Ausgehend von Evidenz aus humanen EEG-Studien wird vermutet, dass diese nichtlineare Antwort eine Funktion im sampling (dem zeitlichen Abtasten) visueller Information einnimmt. Ihre Entstehung auf neuronaler Ebene, ebenso wie die intrakortikalen Antworten auf die gleiche Stimulation im Tiermodell, sind jedoch noch nicht beschrieben worden. In der ersten Studie kombinierte ich EEG-Messungen an humanen Versuchspersonen mit zwei etablierten behavioralen Paradigmen, um zu untersuchen, wie die Echo-Antwort durch Veränderungen der kortikalen Balance zwischen Exzitation und Inhibition moduliert wird. Ich konnte zeigen, dass die Antwort nach einer globalen Verstärkung der exzitatorischen Inputs erhöht ist. Dieser Effekt trat jedoch nicht auf, wenn die Modulation auf den Input eines Auges begrenzt war. Dies deutete darauf hin, dass das Echo eine globale Antwort darstellt, die an exzitatorische neuronale Aktivität gekoppelt ist. Dies unterscheidet es von spontanen Alpha-Oszillationen, die von inhibitorischen Mechanismen abhängen (Hindriks and van Putten, 2013). In meiner zweiten Studie untersuchte ich die neuronalen Antworten auf die gleiche Stimulation im primären visuellen Kortex im Primatenmodell (Weißbüschelaffe). Experimentell konnte ich zeigen, dass die lokalen Antworten in V1 bereits stark selektiv für einzelne Frequenzbänder sind und dabei auch eine Komponente im Alpha-Band beinhalten, die ein funktionales Homolog der humanen Echo Antwort darstellen könnte. Ein Vergleich der Antworten zwischen anästhesierten und wachen Tieren zeigte, dass die Frequenzselektivität ein Merkmal der aktiven visuellen Verarbeitung ist, was auf Modulation aus höheren Arealen (top-down) hinweist. Zusammengenommen zeigten die Ergebnisse der ersten beiden Studien, dass der primäre visuelle Kortex aktiv zeitliche Information in bestimmten Frequenzbändern aus kontinuierlichem Input herausfiltert und dabei die Information anderer Frequenzen abschwächt. Die zweite Studie lieferte zudem erste Hinweise auf ein neuronales Korrelat der perzeptuellen Echos. Die präzise Repräsentation zeitlicher Information im visuellen System wird u.a. dadurch erschwert, dass sich der visuelle Input bei jeder Augenbewegung drastisch verändert. Vergangene Studien haben verschiedene Mechanismen identifiziert, die diese Instabilität durch Modulation neuronaler Antworten im Zeitfenster um sakkadische Augenbewegung herum kompensieren. Diese Modulationen betreffen auch die zeitliche Dimension der visuellen Verarbeitung, wie aus Veränderungen neuronaler Antwortlatenzen (Reppas et al., 2002; Ibbotson et al., 2006) und illusorischen Verzerrungen der Zeitwahrnehmung (Yarrow et al., 2001; Morrone et al., 2005; Knöll et al., 2013) hervorgeht. Unterschiede der Verarbeitung zwischen Hirnarealen sowie gegenläufige Wahrnehmungseffekte haben eine kohärente Interpretation bislang jedoch erschwert. Mit dem Ziel, unser Verständnis perisakkadischer zeitlicher Modulationen über das visuelle System hinweg auszuweiten, untersuchte ich in der dritten Studie im Areal V4 des ventralen Pfads des Makaken, ob und ggf. wie sich die Verarbeitung zeitlicher Information zwischen Fixation und perisakkadischen Zeitfenstern verändert. Meine Analyse von neuronalen Antworten auf sequenzielle Luminanzkontrast-Stimulation ergab, dass die Repräsentationen in Bezug auf zeitliche und räumliche Antworteigenschaften stabil blieben. Dabei wurde jedoch das Verhältnis der Antwort-Amplituden innerhalb einer Sequenz durch eine unselektive Erhöhung der Aktivität in perisakkadischen Zeitfenstern moduliert. Dies könnte auf Amplitudenmodulation als ein neuronales Korrelat sakkadischer Wahrnehmungsverzerrungen hindeuten. Der Befund stabiler raum-zeitlicher Repräsentationen steht im Kontrast zu zuvor beschriebenen perisakkadischen Modulationen räumlicher Antworteigenschaften in V4 (Tolias et al., 2001). Im Kontext der Ergebnisse anderer Studien kann vermutet werden, dass dies durch Unterschiede in der Verarbeitung zwischen sequenzieller und isolierter visueller Stimulation zu erklären ist. Zusammengenommen konnte die dritte Studie neue Hinweise darauf bieten, wie zeitliche Informationsverarbeitung von Augenbewegungen moduliert wird, und die vorhandene Literatur um erste Ergebnisse aus dem Areal V4 erweitern. Die ersten drei Studien beschäftigten sich mit zeitlicher Information, die in basalen visuellen Parametern enthalten ist, wie z.B. Luminanz oder Kontrast. In unserem natürlichen Umfeld sind zeitliche Änderungen dieser Parameter jedoch häufig an Bewegungen einzelner Objekte oder der gesamten Umgebung relativ zum Betrachter gekoppelt. Optische Flussfelder auf der Retina ermöglichen es dem visuellen System, aus diesem Input Informationen über die Bewegung des eigenen Körpers zu gewinnen. Bereits frühe Studien haben gezeigt, dass Menschen im Stand auf visuell simulierte Eigenbewegung mit posturalen Korrekturbewegungen reagieren (Lee, 1980). Die abschließenden zwei Studien dieser Arbeit untersuchten, wie diese Reaktionen in der visuomotorischen Kontrolle der Balance an die zeitliche Struktur der wahrgenommenen Eigenbewegung gekoppelt sind. Die vierte Studie verwendete Messungen mit einer Kraftmessplatte und Virtual Reality, um die posturalen Antworten von Versuchspersonen auf visuell simulierte, sinusförmige Eigenbewegung in anterior-posteriorer Richtung zu beschreiben. Durch die Anwendung etablierter Analysemethoden aus humanen EEG-Studien konnten wir zeigen, dass die Antworten mit hoher Konsistenz an den Stimulus koppelten und dass diese Kopplung auch für hohe zeitliche Stimulus-Frequenzen (1.2 Hz) stabil blieb. Dies deutet darauf hin, dass Befunde vergangener Studien, die eine Selektivität für niedrige Frequenzen gezeigt hatten, durch die Analyse der Antwort-Amplitude statt deren Phase durch biomechanische Eigenschaften verzerrt waren. Die fünfte Studie erweiterte dieses Paradigma zusätzlich um ein video-basiertes Ganz-Körper-Tracking mit dem Ziel, die Anteile einzelner Körperpartien an der gesamten Antwort zu bestimmen. Die Ergebnisse zeigten, dass die Balance-Strategie des Körpers stark von der zeitlichen Frequenz des visuellen Inputs abhängt. Für höhere Frequenzen verlagerte sich die Kopplung zunehmend auf das Hüftgelenk. Dieser Befund bestätigt die Modellvorhersagen früherer Studien. Aufbauend auf den Ergebnissen dieser zwei Studien etablierten wir zusätzlich ein neues Paradigma, das eine generalisierte Beschreibung der zeitlichen Eigenschaften visuell-evozierter posturaler Antworten ermöglichen sollte. Basierend auf dem gleichen Prinzip wie in den ersten zwei Studien dieser Arbeit verwendeten wir zufällige Eigenbewegungs-Sequenzen im Breitband-Frequenzbereich, um die Abhängigkeit des Kopplungsverhaltens von der zeitlichen Frequenz zu untersuchen. Die Ergebnisse zeigten stark idiosynkratische Muster in den posturalen Antworten der einzelnen Versuchspersonen. Diese könnten sowohl auf interindividuelle Unterschiede in den visuomotorischen Fähigkeiten als auch anthropometrische Faktoren zurückzuführen sein. Die Frequenzverteilungen der Kopplung zeigten überraschend starke Anteile in sehr hohen Frequenzen (> 2 Hz), die vermutlich eine dritte, reflexive Strategie unter Kontrolle anderer motorischer Pfade repräsentieren. Diese Ergebnisse zeigen, dass das visuomotorische System die zeitliche Struktur von Eigenbewegung für die Kontrolle der Balance im Stand verwendet, und dabei bestimmte Frequenzbänder für unterschiedliche motorische Muster selektiert. Zusammenfassend habe ich in meiner Arbeit untersucht, wie das visuelle System zeitliche Information aus kontinuierlichem Input extrahiert und verarbeitet. Meine Befunde aus unterschiedlichen Sub-Systemen der visuellen Hierarchie zeigen, dass die neuronale Repräsentation zeitlicher Information durch ihre Selektivität für bestimmte Frequenzbänder funktionell spezialisiert sind. Im Primaten-Tiermodell konnte ich mögliche neuronale Korrelate dieser Frequenzselektivität identifizieren und ihre Dynamik während aktiven visuellen Verhaltens beschreiben. Diese könnten in zukünftigen Studien verwendet werden um unterschiedliche sensorische Systeme funktional voneinander zu trennen, sowie als Marker für die neuronale Verarbeitung einzelner Individuen in klinischen Anwendungen.