dc.contributor.author
Elliott, Eeva A.
dc.date.accessioned
2018-06-07T17:48:44Z
dc.date.available
2013-08-21T12:22:44.124Z
dc.identifier.uri
https://refubium.fu-berlin.de/handle/fub188/4303
dc.identifier.uri
http://dx.doi.org/10.17169/refubium-8503
dc.description
Contents Acknowledgments i Summary ii Zusammenfassung v Table of Contents viii
Notation Conventions xi 0\. Introduction 1 0.1 Some linguistic history and my
intended contribution to the field 1 0.2 German Signers and Signed Languages 2
0.3 What is language? 2 0.3.1 Language is a Cognitive System 3 0.3.2 The
Function of Language is Communication 3 0.3.3 Linguistic Forms are
Sensorimotor Entities 5 0.3.4 Optimal Rate of Meaning Transfer 8 0.3.5
Horizontal and Vertical Structure in Language 9 0.3.6 Duality of Patterning 10
0.3.7 Iconicity 14 0.3.8 Definition of Phonological 16 0.4 Phonological Facial
Movements 16 0.5 The Reality of Phonology 17 1\. Study One: A Dual Route
Cascaded Model of Reading by Deaf Adults: Evidence for grapheme to viseme
conversion 19 1.1 Introduction 20 1.1.1 Skills Related to Reading
Comprehension amongst Deaf Individuals 21 1.1.2 Visemes – the ‘phonemes’ of
deaf readers? 23 1.1.3 Construction of the German Viseme Set of Deaf Readers
24 1.1.4 The Dual Route Cascaded Model of Reading by Deaf Adults 28 1.2
Methods 33 1.2.1 Participants 33 1.2.2 Stimuli 34 1.3 Results 35 1.4
Discussion 37 2\. Study Two: Facial expressions, emotions, and sign languages
41 2.1 Introduction 42 2.1.2 Sign languages and the role of the face 43 2.2
The semantic dimension 44 2.3 The iconicity dimension 45 2.4 The
compositionality dimension 45 2.5. Conclusion 46 3\. Study Three: Phonological
and Morphological Faces: Disgust Signs in German Sign Language 47 3.1
Introduction 48 3.1.1 Facial expressions in sign languages 49 3.2 Methods 52
3.2.1 Structure of corpus 53 3.2.2 Participants 53 3.2.3 Procedure 53 3.3
Results 54 3.3.1 Reliability of coding 54 3.3.2 Tokens in corpus 54 3.4
Discussion 60 3.4.1 Multiple layers of information in communication 61 3.4.2
Information encoded in co-speech gestures 62 3.4.3 Information encoded in
intonational units 62 3.4.4 Information related to emotions or intentions 63
3.4.5 Summary of information types 63 3.4.6 The parallel lexicon layer 65 3.5
Conclusion 66 4\. General Discussion 67 4.1 How many functions do facial
movements have? 67 4.2 Does each different function entail independent
cognitive systems? 68 4.3 What constitutes an independent cognitive system? 70
5\. Limitations and Outlook 71 References 72 List of Figures 80 List of Tables
81 Appendices 82 Curriculum Vita 103 Erklärung
dc.description.abstract
In this dissertation I address the issue of how facial movements are used by
deaf signers of German Sign Language (Deutsche Gebärdensprache; DGS) at the
lexical and sub-lexical level. Although it is an empirical fact that signers
of various signed languages make facial movements that have scope over only
single lexical items, currently there is no consensus on how these movements
should be accounted for in linguistic theory, because many of the facial
movements occurring at this level do not fit neatly into the preexisting
linguistic constructs ‘phoneme’ or ‘morpheme’. The move that is taken by most
theorists in order to account for these facial elements is to propose that
there are at least two very distinct phenomena that occur at this level each
requiring a different model to account for its use. The facial movements that
fit well with the widely accepted definition of ‘morpheme’ are dealt with by
existing morpho-syntactic theories, the facial movements that fit well with
the widely accepted definition of ‘phoneme’ can be dealt with by existing
phonological theories, while those that seem to behave a bit like a phoneme
and a bit like a morpheme are accounted for with special frameworks or are
deemed ‘extra linguistic’, therefore not requiring linguistic explanation at
all. Although facial movements with scope over single lexical items vary on
the following dimensions: which facial muscles are used; their origin i.e.
derived from ambient spoken languages or derived within signed languages, and
whether they seem to add semantic information or not, I regard them as
essentially the same general phenomenon in contrast to most current accounts.
I claim that they are phonological features with some semantic properties. The
definition of phoneme then that I adopt is: a phoneme is a unit whose function
is to provide distinctive perceptual cues to allow receivers to distinguish
between elements in the communicated signal. Whether this unit is associated
with a meaning or not does not contradict the claim that it also functions to
create perceptually salient oppositions in the communicated signal. In this
dissertation I have conducted two studies on two types of facial movements
with scope over single lexical items: mouthings and expressions of disgust. In
my first study, I applied the claim that mouthings are phonological elements
to the issue of how deaf people read German (Elliott, Braun, Kuhlmann, &
Jacobs, 2012). In my second study, I attempt to establish whether facial
expressions from the domain of emotions are used as phonological elements
(Elliott & Jacobs, 2013; Elliott & Jacobs, submitted)
de
dc.description.abstract
In dieser Dissertation behandele ich das Thema, wie Gesichtsbewegungen von
gehörlosen Sprechern der Deutschen Gebärdensprache (DGS) auf der lexikalischen
und sublexikalischen Ebene benutzt werden. Obwohl es eine empirische Tatsache
ist, dass Sprecher unterschiedlicher Gebärdensprachen Gesichtsbewegungen
machen, die nur einzelne lexikalische Einheiten umfassen, gibt es derzeit
keine Übereinstimmung darüber, wie diese Bewegungen in der linguistischen
Theorie erklärt werden sollen. Dies liegt daran, dass viele der
Gesichtsbewegungen, die auf dieser Ebene geschehen, nicht nahtlos in die schon
existierenden linguistischen Konstrukte “Phoneme” oder “Morpheme” passen. Was
die meisten Theoretiker versucht haben, um diese Gesichtselemente zu erklären,
war der Vorschlag, dass es wenigstens zwei sehr unterschiedliche, auf dieser
Ebene geschehende Phänomene gibt, von denen jeder ein anderes Modell
erfordert, dass seinen Gebrauch rechtfertigen würde. Gesichtsbewegungen, die
zu der von vielen anerkannte Definition von “Morphem” passen, sind von den
existierenden morphosyntaktischen Theorien aufgegriffen; Gesichtsbewegungen,
die in die von vielen anerkannte Definition von “Phonem” passen, können durch
existierende phonologische Theorien aufgegriffen werden; und diejenigen
Gesichtsbewegungen letztendlich, die sich ein wenig wie Phoneme und ein wenig
wie Morpheme zu verhalten scheinen, werden von speziellen Referenzsystemen
aufgegriffen oder als “extralinguistisch” erachtet, weshalb sie keinerlei
linguistischer Erklärung erfordern. Obwohl Gesichtsbewegungen mit dem
Zeitumfang einzelner lexikalischer Einheiten variieren, und zwar in folgenden
Dimensionen: erstens welche Gesichtsmuskel gebraucht werden; zweitens in Bezug
auf ihre Herkunft, und drittens ob sie semantische Information hinzuzufügen
scheinen oder nicht, halte ich sie als im Wesentlichen für dasselbe allgemeine
Phänomen, in Abgrenzung zu den meisten gegenwärtigen Ansätzen. Ich behaupte,
dass sie phonologische Merkmale mit einigen semantischen Merkmalen sind. Daher
ist die Definition von Phonem, die ich vorschlage, wie folgt: Ein Phonem ist
eine Einheit, deren Funktion ist, distinktive Wahrnehmungshinweise
bereitzustellen, um dem Empfänger zu ermöglichen, zwischen den Elementen im
kommunizierten Signal unterscheiden zu können. Ob diese Einheit mit einer
Bedeutung assoziiert ist oder nicht, widerspricht nicht der Behauptung, dass
sie auch dazu dient, wahrnehmbare auffallende Gegensätze in dem kommunizierten
Signal zu kreieren. In dieser Dissertation habe ich zwei Studien zu zwei Typen
von Gesichtsbewegungen mit einem Zeitumfang einzelner lexikaler Einheiten
durchgeführt: Mundbilder und Ausdrücke des Ekels. In meiner ersten Studie habe
ich die Behauptung, dass Mundbilder phonologische Elemente sind, auf das Thema
angewandt, wie gehörlose Menschen auf Deutsch lesen (Elliott, Braun, Kuhlmann,
& Jacobs, 2012). In der zweiten Studie habe ich versucht zu bestimmen, ob
Gesichtsausdrücke aus dem Bereich der Emotionen als phonologische Elemente
gebraucht werden (Elliott & Jacobs, 2013; Elliott & Jacobs, eingereicht).
de
dc.format.extent
XI, 103 S.
dc.rights.uri
http://www.fu-berlin.de/sites/refubium/rechtliches/Nutzungsbedingungen
dc.subject.ddc
300 Sozialwissenschaften::370 Bildung und Erziehung
dc.subject.ddc
400 Sprache::410 Linguistik::414 Phonologie, Phonetik
dc.subject.ddc
100 Philosophie und Psychologie::150 Psychologie
dc.title
Phonological Functions of Facial Movements
dc.contributor.firstReferee
Prof. Arthur Jacobs
dc.contributor.furtherReferee
Ass. Prof. Mario Braun, Prof. Yishai Tobin
dc.date.accepted
2013-07-10
dc.identifier.urn
urn:nbn:de:kobv:188-fudissthesis000000094808-1
dc.title.subtitle
Evidence from deaf users of German Sign Language
dc.title.translated
Phonologische Funktionen der Gesichtsbewegungen
de
dc.title.translatedsubtitle
Beweise von gehörlosen Sprechern der Deutschen Gebärdensprache (DGS)
de
refubium.affiliation
Erziehungswissenschaft und Psychologie
de
refubium.mycore.fudocsId
FUDISS_thesis_000000094808
refubium.mycore.derivateId
FUDISS_derivate_000000013822
dcterms.accessRights.dnb
free
dcterms.accessRights.openaire
open access