In the history of language research, language and speech have long been equated, although speech only represents one possibility of externalizing language. This can be achieved just as well by writing or signing. Increasing neurophysiological evidence supports this theory of separate processing of speech and language, assuming a division into a core language network, that processes syntactic and semantic aspects of language, and a closely linked sensory-motor input/output system. In addition, studies involving deaf participants point to a recruitment of similar perisylvian regions for signed and spoken language. Apart from these brain areas, their connecting pathways have progressively attracted scientific interest. Diffusion tensor imaging (DTI)-studies have shown alterations of different diffusion parameters indicating reduced myelination and fiber density in auditory pathways of deaf participants. Based on these findings, the central question of my work is: Can the theoretically proposed and functionally described separation of speech and language processing be corroborated on a structural level? To this end, I employed probabilistic fiber tracking to investigate the connectivity of six language- and speech-relevant areas in both hemispheres of ten deaf and ten hearing participants. The group comparisons showed reduced connection probability in the input/output tracts, but not in the core language network of the deaf participants. Thus, the results support the theory of separated language and speech processing in the brain and add structural evidence for the division into a core language network and an input/output system. Furthermore, they support the idea of a modality-independent language network that can develop normally with purely vision-based sign language input.
In der Geschichte der Sprachforschung wurde Sprache ("language") lange mit gesprochener Sprache, bzw. dem Sprechen ("speech") gleichgesetzt, obwohl das Sprechen nur eine Form ist, Sprache auszudrücken. Dies kann genauso über das Schreiben oder das Gebärden erfolgen. Es gibt zunehmende neurophysiologische Evidenz für diese Theorie der getrennten Verarbeitung von Sprache und Sprechen. Diese geht von einem zentralen Netzwerk ("core language network") aus, das syntaktische und semantische Aspekte von Sprache verarbeitet, und damit eng verbundenen Input- und Output-Elementen auf sensorisch-motorischer Ebene. Zudem deuten Studien mit tauben Teilnehmenden darauf hin, dass die semantische und syntaktische Verarbeitung von Gebärdensprache in den gleichen Regionen des perisylvischen Sprachnetzwerks erfolgt wie bei gesprochener Sprache. Hierbei sind nicht nur die relevanten Areale, sondern auch die verbindenden Faserbündel in das wissenschaftliche Interesse gerückt. So weiß man aus Diffusions-Tensor-Imaging (DTI)-Studien, dass auditorische Faserbahnen bei tauben Menschen Veränderungen bestimmter Parameter aufweisen, die Rückschlüsse auf verringerte Myelinisierung und Faserdichte zulassen. Basierend auf diesen Erkenntnissen lautet die zentrale Frage meiner Arbeit: Lässt sich die bisher theoretisch und funktionell beschriebene getrennte Verarbeitung von Sprache und Sprechen auch strukturell untermauern? Dazu habe ich mittels probabilistischer Traktographie die Konnektivität von sechs sprach- und sprechrelevanten Regionen pro Hemisphäre bei zehn tauben und zehn hörenden Teilnehmenden untersucht. Die Gruppenvergleiche zeigten eine verringerte Konnektivitätswahrscheinlichkeit in den Input/Output-Trakten der tauben Teilnehmenden, nicht aber in ihrem zentralen Sprachnetzwerk. Damit unterstützen die Ergebnisse die Theorie der getrennten Verarbeitung von Sprache und Sprechen und ergänzen die Aufteilung in zentrales Sprachnetzwerk und Input/Output-System um den strukturellen Aspekt. Zudem unterstützen die Ergebnisse auch die Hypothese, dass das zentrale Sprachnetzwerk modalitätsunabhängig ist und sich adäquat entwickelt, auch wenn der Sprachinput über Gebärdensprache erfolgt.