dc.contributor.author
Gogolin, Sarah
dc.date.accessioned
2018-06-07T15:18:25Z
dc.date.available
2017-12-21T14:05:22.610Z
dc.identifier.uri
https://refubium.fu-berlin.de/handle/fub188/881
dc.identifier.uri
http://dx.doi.org/10.17169/refubium-5083
dc.description.abstract
Models, on one hand, aid students in their understanding, on the other, enable
researchers to investigate biological phenomena (Oh & Oh, 2011). From an
educational point of view, the process of thinking in and about models as a
form of scientific practice can be seen as one of the essential learning goals
for science students (e. g., Germany: KMK, 2005; USA: NGSS Lead States, 2013).
Existing instruments (e. g., Grosslight et al., 1991; Grünkorn, 2014) that are
used to assess students’ understanding of models are suitable for educational
research but, due to their complexity, cannot be employed by teachers when
seeking to obtain direct feedback on their students. In the present research
project, we developed a forced choice task diagnostic instrument based on the
‘model of model competence’ (Krell et al., 2016), which was to allow for a
valid and efficient diagnosis of students’ meta-modelling knowledge in the
aspects ‘nature of models’ and ‘purpose of models’. In order to provide
evidence for the validity of the proposed score interpretation with the
instrument, the constructed forced choice tasks were put to the test within
the first global research question (RQGI): In what way do evidence and theory
support the interpretation of the test scores for the intended use of
diagnosing students’ meta-modelling knowledge? We gathered evidence for
validity based on test content, on students’ response processes, on relations
to other variables and on internal structure (AERA et al., 2014). Most
evidence supports the valid interpretation of the proposed scores of meta-
modelling knowledge. Nevertheless, we have to advise that score interpretation
is sufficiently supported only for grades ten to twelve. Furthermore, there is
a demand for more research concerning construct-irrelevant variance caused by
information in the task stem as well as construct underrepresentation due to a
possible lack of differenciation across contexts. The second global research
question was set to provide information about students’ meta-modelling
knowledge (RQGII): How frequently are the three levels of understanding within
the aspects ‘nature of models’ and ‘purpose of models’ represented among
students? For the aspect ‘nature of models’, the students mainly express
perspectives on level II indicating that they understand models as idealised
representations of an original according to the ‘model of model competence’
(Krell et al., 2016). For the aspect ‘purpose of models’, on the other side,
the students mainly express perspectives on level I indicating that they
understand the purpose of models to be the description of phenomena. In
addition to these results, we assume students’ meta-modelling knowledge to be
context-specific as the frequency of the preferred levels altered across
contexts.
de
dc.description.abstract
Modelle dienen einerseits als Medien, um bereits etabliertes Wissen über
biologische Phänomene zu verstehen, andererseits ermöglichen sie es als
Instrumente der Wissenschaft, noch unbekannte biologische Phänomene zu
untersuchen (Oh & Oh, 2011). Aus didaktischer Sicht ist das Modellieren eine
zentrale Arbeits- und Denkweise der Naturwissenschaften und ein wesentlicher
Bestandteil einer naturwissenschaftlichen Grundbildung (KMK, 2005). Empirische
Studien zeigen jedoch, dass Schüler*innen die Bedeutung von Modellen im
wissenschaftlichen Erkenntnisprozess nur wenig wahrnehmen (Krell et al, 2016).
Die bisher entwickelten Instrumente (u. a. Grosslight et al., 1991; Grünkorn,
2014) sind aufgrund ihrer Komplexität für einen effizienten Einsatz im
Biologieunterricht durch Lehrkräfte nicht geeignet. Im vorliegenden
Forschungsprojekt wurde auf der Grundlage des Kompetenzmodells der
Modellkompetenz (Krell et al., 2016) ein Forced Choice Diagnoseinstrument
entwickelt, welches eine valide und effiziente Diagnose von Modellverstehen in
den Teilkompetenzen „Eigenschaften von Modellen“ und „Zweck von Modellen“
ermöglichen soll. Im Rahmen der ersten globalen Forschungsfrage (RQGI) wurde
die valide Interpretation der Schülerantworten in den konstruierten Forced
Choice Aufgaben überprüft: Inwiefern sind die Forced Choice Aufgaben geeignet,
um das Modellverstehen von Schüler*innen in den Teilkompetenzen „Eigenschaften
von Modellen“ und „Zweck von Modellen“ zu diagnostizieren? Hierbei wurden
Evidenzen für Validität in den Bereichen „Testinhalt“, „Antwortprozesse“,
„Beziehung zu anderen Variablen“ und „Interne Struktur“ (AERA et al., 2014)
gesammelt. Die meisten Evidenzen unterstützen die Interpretation der
Schülerantworten. Dennoch ist zu beachten, dass die valide Interpretation der
Antworten nur für die Schüler*innen der Jahrgangsstufen zehn bis zwölf
genügend durch die Evidenzdaten abgebildet wird. Des Weiteren ergibt sich aus
den Untersuchungen die Forderung nach einer stärkeren Aufklärung von
konstrukt-irrelevanter Varianz in den entwickelten Aufgaben zum
Modellverstehen, die möglicherweise durch Informationen im Aufgabenstamm
verursacht wird, sowie die Forderung nach der Analyse einer möglichen
Unterrepräsentation des Konstrukts des Modellverstehens aufgrund eines Mangels
an Differenzierung über Kontexte. Durch die zweite globale Forschungsfrage
(RQGII) sollte das Modellverstehen von Schüler*innen beschrieben werden: Wie
häufig sind die drei Niveaus des Modellverstehens in den Teilkompetenzen
„Eigenschaften von Modellen“ und „Zweck von Modellen“ in den Antworten der
Schüler*innen vertreten? In der Teilkompetenz „Eigenschaften von Modellen“
wählen die Schüler*innen vor allem Perspektiven auf Niveau II, welche Modelle
als idealisierte Repräsentationen eines Originals charakterisieren (Krell et
al., 2016). In der Teilkompetenz „Zweck von Modellen“ wählen die Schüler*innen
hauptsächlich Perspektiven auf Niveau I. Dies deutet darauf hin, dass sie den
Zweck der Modelle vorrangig in der Beschreibung der entsprechenden
biologischen Phänomene sehen. Zusätzlich bestärken die Ergebnisse des
vorliegenden Forschungsprojekts die Annahme, dass das Modellverstehen von
Schüler*innen kontextspezifisch ist, da die Häufigkeit der bevorzugten Niveaus
über die einzelnen Kontexte hinweg schwankt.
de
dc.format.extent
320 Seiten
dc.rights.uri
http://www.fu-berlin.de/sites/refubium/rechtliches/Nutzungsbedingungen
dc.subject
meta-modelling knowledge
dc.subject
test development
dc.subject.ddc
500 Naturwissenschaften und Mathematik::570 Biowissenschaften; Biologie::570 Biowissenschaften; Biologie
dc.title
Diagnosing Students’ Meta-Modelling Knowledge
dc.contributor.contact
sarah.gogolin@fu-berlin.de
dc.contributor.firstReferee
Prof. Dr. Dirk Krüger
dc.contributor.furtherReferee
Prof. Dr. Annette Upmeier zu Belzen
dc.date.accepted
2017-11-10
dc.identifier.urn
urn:nbn:de:kobv:188-fudissthesis000000105919-9
dc.title.subtitle
Gathering Validity Evidence during Test Development
dc.title.translated
Diagnose von Modellverstehen
de
dc.title.translatedsubtitle
Testentwicklung unter Berücksichtigung von Validitätsevidenzen
de
refubium.affiliation
Biologie, Chemie, Pharmazie
de
refubium.mycore.fudocsId
FUDISS_thesis_000000105919
refubium.mycore.derivateId
FUDISS_derivate_000000022848
dcterms.accessRights.dnb
free
dcterms.accessRights.openaire
open access