Beweisen als ‚Heartbeat of Mathematics‘ (Davis & Hersh, 1981) bietet als zentrale Tätigkeit der Fachmathematik eine Grundlage für die Gestaltung von Mathematikunterricht, wird damit zu einem Themenfeld in didaktischen Perspektiven (Hanna, 1990) und in Verbindung mit den Begriffen Begründen und Argumentieren auch zu einem zentralen Thema im Mathematikunterricht der Grundschule. Um ein authentisches und für die universitäre Ausbildung anschlussfähiges Bild dieser Fachwissenschaft zu vermitteln, sind Begründen, Beweisen, aber auch Argumentieren Bestandteil curricularer und schuldidaktischer Überlegungen. Aus dieser Überlegung heraus ist das mathematische Beweisen, Begründen und Argumentieren auch Bestandteil des Grundschullehramtsstudiums. Um Studierende beim Erwerb einer grundschulrelevanten Beweiskompetenz zu unterstützen, ist es hilfreich, Vorgehensweisen zu identifizieren und hochschuldidaktische Schlussfolgerungen zu ziehen. Aus diesem Erkenntnisinteresse heraus adressiert die vorliegende Studie folgende Forschungsfrage: Welche Strategien werden genutzt, um eine allgemeingültige Begründung eines mathematischen Satzes zu erstellen? Dazu wird in einem ersten theoretischen Teil der Arbeit zunächst die bereits vorhandene Literatur (u.a. Stein, 1986; Boero, 1999; Kirsten, 2021; Balacheff, 1988; Wittmann & Müller, 1988; Harel & Sowder, 1998; Brunner, 2013;2014; Padberg & Büchter, 2015; Knipping, 2003; Toulmin, 2012; Reid & Knipping, 2010) analysiert, synthetisiert und potenziell mögliche Strategien abgeleitet. Begründen wird dabei zum Oberbegriff für das Argumentieren in verschiedenen Ausprägungen (Brunner, 2014) und das formal-deduktive Beweisen. Im zweiten und empirischen Teil der Arbeit werden mit Hilfe des Lauten Denkens und der qualitativen Inhaltsanalyse nach Schreier (2012; 2014) die Vorgehensweisen von Studierenden des Studiengangs Grundschulpädagogik an der FU Berlin nach dem Besuch des Moduls ‚Mathematisches Professionswissen I‘ erhoben und ausgewertet. Das Ergebnis ist eine Kollektion von theoretisch abgeleiteten Strategien, die empirisch ergänzt wurden. Es zeigte sich auch, dass nicht alle Strategien, die sich theoretisch ableiten lassen, auch genutzt werden, einige aber schon. Aus diesen Betrachtungen ließen sich verschiedene weitere Erkenntnisse bezüglich der Vorgehensweisen gewinnen. Es wurde beispielsweise eine Betonung von Strategien beobachtet, die dem Verstehen der Aufgabenstellung und dem Aufbau und der Verknüpfung von Argumenten dienen. Strategien, die darauf abzielen, mit der Lerngruppe oder der mathematischen Community in Kontakt zu treten, wurden hingegen kaum eingesetzt. Darüber hinaus zeigte sich, dass die Studierenden Strategien anwendeten, die auf einen zirkulären Prozess der Gesamtbearbeitung hindeuten, und dass die Wahl der Strategien von der Struktur und dem Inhalt der Aufgabenstellung abzuhängen scheint. Auffällig war auch, dass die Studierenden häufig einzelne Elemente und Strukturen aus der Vorlesung imitierten. Bei näherer Betrachtung wurde zudem deutlich, dass Beispiele auf unterschiedlichen Darstellungsebenen, aber auch unterschiedliche Darstellungsebenen generell für die Studierenden eine zentrale Rolle im Bearbeitungsprozess spielten.
Weniger anzeigenSingle-molecule microscopy is a powerful tool for investigating functional events at the plasma membrane. With the state-of-the-art microscopy method, changes in protein mobility can be correlated to cellular events or structures. Such experiments offer quantitative data that is impossible to yield from ensemble methods as they render the individual functional event in a protein’s life tractable to investigation and analysis. We can visualize changes in molecular behaviour with respect to triggered or observed cellular events and thus understand the role of the observed molecule in these processes. However, setting up the conditions required for investigating stoichiometry is challenging. Single-molecule tracking requires a sparse population of the protein of interest for single-molecule visualization. This requirement is met by partially labelling the protein of interest, which occludes information like the stoichiometry of the protein and how oligomeric protein influence function. We propose control of the number of proteins at the plasma membrane by controlling its transport to achieve a low population of fully labelled proteins of interest at the site of its action. We developed an optogenetic tool for the light-controlled delivery of functional soluble and transmembrane proteins to the plasma membrane. We show that small amounts of proteins can be released optogenetically and efficiently transported to the plasma membrane using an optically cleavable fluorescent protein. Our method allows for the controlled delivery of proteins, including functional ion channels, to the plasma membrane in amounts compatible with single-molecule imaging. Single-molecule microscopy and the developed optogenetic tool were applied to study the unconventional secretion of Fibroblast Growth Factor (FGF2). FGF2 is an essential growth factor involved in cell growth, differentiation, and development. FGF2 skips the conventional ER-Golgi route for secretion and instead adopts an unconventional secretion pathway. Through biochemical reconstitution experiments, it is known to directly interact with the plasma membrane, where it undergoes phosphorylation and oligomerization. It is hypothesized that FGF2 oligomers form a pore in the plasma membrane where FGF2’s interaction with the extracellular heparan sulphate proteoglycans facilitates its extraction from the plasma membrane. To elucidate steps in FGF2 secretion in the context of live cells and to test the current model, I aimed to visualize the FGF2 secretion using live cell single-molecule microscopy. I employed the developed optogenetic tool to synchronize FGF2 release in the cytosol to study the initial phase of FGF2 secretion. Furthermore, by observing the mobility and intensity of FGF2 molecules via single molecule tracking, I dissected the sequence of events in the FGF2 secretion process.
Weniger anzeigenDie in dieser Dissertation vorgestellten Projekte befassen sich hauptsächlich mit dem Zusammenspiel zwischen Zellen und synthetischen Polymermaterialien. Aufgrund der hervorragenden chemischen und biologischen Eigenschaften von Polyglycerin und seinen Derivaten wurde eine Vielzahl funktioneller Materialien entwickelt. Von zweidimensionalen Oberflächen mit bestimmten topographischen Strukturen bis hin zu dreidimensionalen immunmagnetischen Partikeln und Hydrogelen wurden Zelladhäsion, -erkennung und -proliferation untersucht und entsprechende Anwendungen vorgeschlagen. Im ersten Projekt wurden drei von Muscheln inspirierte Polyglycerin-Makromoleküle mit unterschiedlichen Molekularstrukturen und chemischen Zusammensetzungen synthetisiert. Als vielseitige Beschichtungsmaterialien wurden sie durch den Vergleich von jeweils zwei von ihnen die Einflüsse der Variante, d.h. der linearen/dendritischen Struktur und der Catechin/Amin-Zusammensetzung, auf die Beschichtungsergebnisse untersucht. Im Beschichtungsprozess spielt der Catechin-Gehalt bei der Oxidation die wichtigste Rolle, während die Amine bei der Vernetzung der Oxidationsmittel helfen. Eine höhere Catechol-Konzentration bedeutet daher eine schnellere Beschichtungsrate. Andererseits übertrifft der Beschichtungsprozess von dendritischem Polyglycerin trotz höherer Catechinfunktionalisierung den von linearem Polyglycerin, was auf die hohe Reaktionseffizienz von dendritischen Strukturen zurückzuführen ist. Daher kann dPG40 unter den drei MiPG-Typen innerhalb einer Stunde eine dicke, raue Beschichtung erreichen, lPG80 benötigt mehrere Stunden, während lPG40 nur eine einschichtige Beschichtung erzeugen kann. Je nach den Ergebnissen können für jedes dieser Produkte Anwendungen vorgeschlagen werden. Da Zellen beispielsweise eine Oberfläche mit einer bestimmten Rauheit bevorzugen, können dPG40 und lPG80 mit ihrer guten Abstimmbarkeit der Rauheit geeignete Substrate herstellen, an denen Zellen haften. Im zweiten Projekt brachten wir zunächst Polyglycerin in Eisennanopartikel ein, um gezielt Zellen einzufangen, und setzten dann Polyglycerin als Hydrogel-Plattform für die Zellkultur ein. Die faszinierenden Eigenschaften von Polyglycerin, wie z. B. Bio-Antifouling, einfache Nachfunktionalisierung und hervorragende Biokompatibilität, wurden nachgewiesen. Im ersten Teil wurden die immunmagnetischen Nanopartikel mit Polyglycerin von unerwünschten Zellen oder Molekülen abgeschirmt, die Zellerkennung und der Einfang erfolgten durch die Antikörper-Antigen-Interaktion. Es wurde eine hohe Effizienz, Selektivität und Spezifität erreicht. Später wurden die eingefangenen Zellen direkt in 98 Polyglycerin-Hydrogelen auf Acrylatbasis für die 3D-Kultur verkapselt. Wir haben aus den vercapselten Zellen erfolgreich multizelluläre Tumor-Sphäroide gezüchtet und anschließend das Screening von Antitumor-Medikamenten durchgeführt. Dies zeigt, dass unser Modell in der Flüssigbiopsie für die CTC-Forschung hervorragend geeignet ist und potenziell für die personalisierte Behandlung von Krebspatienten eingesetzt werden könnte. Ermutigt durch die erfolgreiche 3D-Kultur aus dem zweiten Projekt setzten wir die Erforschung der Möglichkeiten von Hydrogelen auf Polyglycerinbasis als ECM-Mimetika fort. Durch Änderung der Vernetzungschemie entwickelten wir ein nicht abbaubares Hydrogel als Vergleich zu dem abbaubaren Acrylat-Hydrogel, über das wir in Projekt 2 berichteten, und verwendeten es als Plattform für die 3D-Kultur. Es wurden verschiedene Zelllinien verwendet, die wir aus einzelnen Zellsuspensionen zu MCTS züchten konnten. Die Größe und Morphologie der MCTS wurden charakterisiert und wir konnten beweisen, dass unsere Plattform als vielseitiges Gerüst für die Erzeugung von MCTS dient. Im Gegensatz zu den Vorteilen des abbaubaren Hydrogels, das sich für die Freisetzung eignet, kann die nicht abbaubare Beschaffenheit in Situationen wie der Organoidbildung eingesetzt werden, in denen eine lange Kulturdauer erforderlich ist.
Weniger anzeigenDiese Habilitationsschrift befasst sich mit der Entwicklung und Validierung von Bildgebungsbiomarkern zur nicht-invasiven Charakterisierung neuroonkologischer und neuroinflammatorischer Erkrankungen im Kontext der Präzisionsmedizin. Ein zentraler Aspekt der Arbeit ist die Detektion von proinflammatorischen Fibrin-Ablagerungen im zentralen Nervensystem mittels molekularer Magnetresonanztomographie, die als Marker für immunentzündliche Veränderungen visualisiert und quantifiziert werden können. Diese Methode hat wichtige Implikationen für das klinische Management von PatientInnen mit neuroinflammatorischen Erkrankungen, wie zum Beispiel Multipler Sklerose. Ein weiterer Schwerpunkt liegt auf der metabolischen Bildgebung von Gliomen zur nicht-invasiven Bestimmung des Isocitrat-Dehydrogenase-Genotyps sowie der Differenzierung von posttherapeutischen Veränderungen und Gliomrezidiven. Hierbei erweist sich die hybride Bildgebung mittels Positronen-Emissions-Tomographie und Magnetresonanztomographie als besonders vorteilhaft: Die entwickelte Methodik einer Positronen-Emissions-Tomographie-gesteuerten „virtuellen Biopsie“ ermöglicht eine nicht-invasive mikrostrukturelle Charakterisierung der Tumormikroumgebung und bietet Vorteile gegenüber konventionellen Ansätzen. Zusammengefasst hat die neuromolekulare Bildgebung das Potenzial, die Diagnose und das Management von neuroonkologischen und neuroinflammatorischen Erkrankungen wesentlich zu verbessern.
Weniger anzeigenThis dissertation consists of three essays on case studies for commodity-dependent countries. Chapters 2 and 3 deal with mobility analysis of the Peruvian labor market in the context of the commodity boom and post-boom. Chapter 4 investigates the relationship between the support in the extractivist development model and the individual environmental concern in Bolivia. Chapter 2, titled “Labor Income Mobility during the Commodity Boom and the Post-Boom: The Case Study of Peru” explores who benefited in both periods, possible changes in mobility patterns and whether there was convergence of labor income. Using data from the ENAHO Panel 2007-20011 and 2011-2015, the analysis calculates indicators of directional mobility in levels and in logarithms, and estimates dynamic income regressions for both unconditional and conditional earnings. A trend of decreasing income mobility is found, marked by the Global Financial Crisis of 2009 and the fall in commodity prices in 2011. During the boom, female workers showed higher labor income mobility than men, but this pattern reversed in the post-boom period. Workers in the primary sector consistently experienced higher mobility. Urban workers and the more educated, who have an initial advantage, always experience greater positive mobility than their counterparts. The results suggest a convergence of labor income in the short run, with greater intensity during the boom period. The study contributes to shed light on the pattern and temporality of income convergence, highlighting the structural inequalities in the labor market. Chapter 3, titled “Labor Transitions from Informality to Formality in Urban Peru: 2007-2019”, studies the transitions from informality to formality, in the context of the commodity boom and post-boom. Using ENAHO Panel data 2007-2011, 2011-2015, and 2015-2019, the study explores the individual determinants of the transitions by estimating multinomial logit models, and the transition implication on the individual economic-wellbeing by estimating income dynamic regressions. Three alternative definitions of informality are used in all calculations to assess whether the results are sensitive to the choice of measure is confirmed. Informal-formal transitions persistently occur across different phases of the economic cycle, irrespective of whether the economy is booming or experiencing a slowdown. However, this trend is sensitive to the choice of measure. Education is positively associated with transitions, and it is the most important determinant of these in all definitions. The effects of age and occupational category on the informal-formal transition probability differ based on the informal measure applied. Finally, informal-formal transitions increase labor income, but this formality premium is greater for the informal/formal sector definition than for the informal/formal employment. An interesting finding is that low skilled workers experience lower earning capacity in formality compared to their potential at the higher level of informality. The paper contributes by confirming the relevance of the choice of measure and provides empirical evidence on the multidimensionality of informality and heterogeneous experiences of informal workers in Peru. Chapter 4, titled “Environmental Concern in Urban Bolivia: Individual Determinants and ‘Resource Curse Effects’ ”, delves into the conditions of environmental concern in Bolivia, addressing a gap in existing literature that predominantly focuses on the Global North. The study explores two main objectives: assessing whether factors influencing environmental concern in Global North countries are applicable in Bolivia and examining the impact of an extractive development model on individual environmental concern. The analysis employs descriptive statistics and multivariate regressions using data from the 2022 “Ecobarómetro – Environmental Culture Survey” in La Paz, Santa Cruz, and Cochabamba. Three key findings emerge: Bolivia exhibits high levels of environmental concern, surpassing levels in many Global North countries; predictors for environmental concern in Global North countries also apply for Bolivia, albeit with some nuances. Education is the most robust predictor of individual environmental concern in Bolivia. Finally, a paradoxical relationship emerges between pro-environmental attitudes and the willingness to accept extractivism’s environmental costs. People tend to accept the costs of the model as long as it promises economic returns, revealing a “resource curse effect” on Bolivia’s environmental concern. The study is the first to confirm this effect empirically.
Weniger anzeigenDie Schlachttier- und Fleischuntersuchung (SFU) hat sich im Laufe der Jahrzehnte weiterentwickelt und ist heute im Konzept der risikobasierten Fleischsicherheitssysteme (RB-MSAS) verankert. Diese Systeme verbinden alle Stufen der Lebensmittelkette mit der amtlichen Überwachung und umfassen Komponenten wie Lebensmittelketteninformationen (LMKI) und harmonisierte epidemiologische Indikatoren (HEIs). Die LMKI ermöglichen einen bidirektionalen Informationsfluss über relevante Daten zu Schlachttieren zwischen Herkunfts- und Schlachtbetrieben, unterstützen die Risikokategorisierung und helfen bei Anpassungen der SFU. Rückmeldungen aus der SFU bieten Verbesserungspotenziale für Tiergesundheit und -wohl. In der Praxis zeigen sich jedoch Defizite bei der Umsetzung von LMKI, insbesondere bei Schlachtschweinen. Die HEIs, von der Europäischen Behörde für Lebensmittelsicherheit 2011 vorgeschlagen, messen das ausgehende Risiko von Gefahren in der Lebensmittelkette und unterstützen die Risikokategorisierung. Ihre Anwendung ist jedoch wenig verbreitet und beschränkt sich oft auf die Prozesshygiene- oder Endproduktkontrolle. Diese Dissertation untersucht die Umsetzung, den Informationsgehalt und den Nutzen von LMKI und HEIs für Schlachtschweine in Europa, identifiziert Verbesserungspotenziale und vergleicht nationale Verfahren zur LMKI-Erfassung und -Dokumentation sowie Regularien für die Dokumentationspflichten von Tierarzneimitteln. Die Ergebnisse zeigen Defizite bei der Implementierung, einschließlich der Umsetzung verbindlicher europäischer Vorschriften. Die Verwendung kombinierter HEIs auf Herkunfts- und Schlachtbetriebsebene ist notwendig für eine genaue Risikokategorisierung. Dafür sollte das prospektive Herdenmonitoring vorangetrieben werden. Das Bewusstsein für HEIs und ihre Nutzungsmöglichkeiten muss gestärkt und HEIs sollten mit in die LMKI aufgenommen werden. Regelmäßige Überprüfung und Anpassung der HEIs an aktuelle wissenschaftliche Daten sind erforderlich. Eine risikobasierte Einführung bedeutet, dass bestimmte HEIs nur in spezifischen Ländern oder Haltungssystemen Anwendung finden. Die LMKI-Datenübermittlungen sind oft unvollständig und die Daten unspezifisch. Gründe dafür umfassen mangelndes Bewusstsein und Probleme bei der Einhaltung. Vor Einführung der LMKI wurden keine spezifischen Daten für deren Befundvorhersage in der SFU untersucht. Diese Studie zeigt, dass insbesondere Tiergesundheitsdaten, wie Mortalitätsraten und Behandlungsdaten, für die Risikoabschätzung wichtig sind. Weitere Forschung ist nötig, um relevante Parameter und Grenzwerte zu bestimmen. Die heterogene Datenlage in Europa, bedingt durch den Interpretationsspielraum europäischer Verordnungen, erschwert die Bestimmung spezifischer LMKI. Elektronische Übertragungsmethoden und zentrale Datenbanken könnten die Effizienz und Praktikabilität der LMKI verbessern, die Datenqualität und -integrität erhöhen und den Informationsaustausch erleichtern. Eine enge Zusammenarbeit und regelmäßiger Austausch zwischen Schlachtbetrieben, Tierärzt*innen und Landwirt*innen sind essenziell für die erfolgreiche Umsetzung von RB-MSAS.
Weniger anzeigenEine Typ I Interferon (IFN)-Aktivierung spielt in der Pathophysiologie einiger systemischer Autoimmunerkrankungen, wie dem systemischen Lupus Erythematodes (SLE), dem primären Sjögren-Syndrom (pSS), der systemischen Sklerose (SSc) und den idiopathischen inflammatorischen Myopathien (IIM) eine zentrale Rolle. Die Erfassung der Typ I IFN-Aktivierung stellt daher hinsichtlich der Diagnosestellung und Verlaufsbeurteilung einer entzündlich-rheumatischen Erkrankung sowie zu deren Ausschluss einen möglichen labordiagnostischen Baustein in der Rheumatologie dar. Verschiedene Methoden kommen bei der Detektion der Typ I IFN-Aktivierung zur Anwendung, wie beispielsweise die Genexpressionsanalysen, Polymerase Chain Reaction (PCR)-Messungen verschiedener IFN-induzierter Transkripte, die Bestimmung IFN-regulierter Proteine über die Durchflusszytometrie oder durch die Bestimmung von Serumproteinen über Enzyme-linked Immunosorbent Assay (ELISA), Dissociation-Enhanced Lanthanide Fluorescence Immunoassay (DELFIA) oder single molecule array (Simoa®). Es gibt bisher keinen internationalen Standard oder Konsensus über die Art und Weise der Bestimmung der Typ I IFN-Aktivierung. Von Seiten der European Alliance of Associations for Rheumatology (EULAR) werden hier erste Anläufe unternommen. In der klinischen Routine erfolgt die Bestimmung der Typ I IFN-Aktivierung bisher nur in wenigen spezialisierten Zentren. Sialic-acid IgG like lectin 1 (SIGLEC1) wurde als Teil der Typ I IFN-Signatur mittels zellspezifischer Microarray-Analysen von Monozyten beim SLE im Rahmen einer Gemeinschaftsarbeit der Rheumatologie der Charité-Universitätsmedizin und dem Deutschen Rheumaforschungszentrum (DRFZ) identifiziert. Es zeigte sich, dass SIGLEC1 ein sehr stark hochreguliertes Typ I IFN-induziertes Transkript in Monozyten ist und dabei auf der Oberfläche dieser Zellen exprimiert wird. Damit kann die Expressionsstärke mittels Durchflusszytometrie einfach und standardisiert bestimmt werden. In Folgeuntersuchungen konnte der mögliche Nutzen der SIGLEC1-Bestimmung vor allem beim SLE und anderen systemischen Autoimmunerkrankungen (SSc, pSS, IIM) aufgezeigt werden, sowie beim autoimmunen kongenitalen Herzblock, den monogenetischen Interferonopathien und bei viralen Infektionskrankheiten. Die durchflusszytometrische Bestimmung der SIGLEC1-Expression wurde 2014 in das Labor Berlin - Charité Vivantes GmbH im Rahmen eines Innovationsförderungsprogramms eingeführt und hat sich seitdem als Routinelaborparameter in der Rheumatologie der Charité – Universitätsmedizin Berlin etablieren können.
Weniger anzeigenDie Einschätzung einer neurologischen Langzeit-Prognose flankiert die intensivmedizinische Behandlung nach schweren Gehirnschädigungen bereits in der Akutphase. Dabei können Einblicke in die pathophysiologischen Prozesse der IHA-Entwicklung helfen, Risiko- Patient*innen zu identifizieren, für die der Therapierahmen rechtzeitig auf eine organerhaltende Therapie fokussiert werden sollte. Die hierzu zusammengefassten Arbeiten illustrieren, dass der IHA pathophysiologisch auf einem zerebralen Perfusionsstillstand basiert. Bei primärer Hirnschädigung tritt dieser durch eine kritische CPP-Reduktion als Folge einer progredienten ICP-Erhöhung ein. Für den intensivmedizinischen Alltag erscheint von besonderer Relevanz, dass die klinischen Zeichen des IHA (Koma, Hirnstammareflexie und Apnoe) und der radiologische Nachweis eines CBF-Verlustes in einer Mehrzahl der Fälle bereits im Bereich niedrig-positiver CPP-Werte zu beobachten sind. Erklärbar ist dies durch ein Unterschreiten des sog. CrCP, was bei noch positiven CPP-Werten zu einem Zusammenbruch der Wandspannung hirnversorgender Arterien führen kann. Auch bei desintegrierter Schädelkalotte, wie z.B. nach dekompressiver Hemikraniektomie, ist dieses pathophysiologische Prinzip nachzuweisen. Der für die Feststellung des IHA obligate Apnoe- Test führt in der Regel zu keiner weiteren Veränderung von ICP und CPP oder mit ihr verbundenen hämodynamischen Komplikationen, da der Prozess des terminalen CPPVerlustes mit der Manifestation der klinischen IHA-Indikatoren abgeschlossen ist. Patient*innen, die im Rahmen einer hypoxischen Enzephalopathie nach Herz-/Kreislaufstillstand keinen IHA entwickeln, aber zum Ende der Akutphase im Stadium Koma oder im Syndrom der unresponsiven Wachheit bleiben, haben bei Ausschluss von Confoundern eine ungünstige neurologische Langzeitprognose. Die Arbeiten zur Identifizierung und 77 Charakterisierung des Prä-VITT-Syndroms illustrieren, wie ein neues Krankheitsbild mit zunächst sehr schlechter Neuroprognose - mit schweren klinischen Verläufen bis hin zum IHA - Forschungsaktivitäten fördert, um die Prognose zu verbessern. Die hier zusammengefassten Studien leisten einen Beitrag für das übergeordnete Ziel der frühen Neuro-Prognostik, rechtzeitig Risiko-Patient*innen zu identifizieren, für die entweder die volle Ausschöpfung verfügbarer intensivmedizinischer Maßnahmen medizinisch und ethisch sinnvoll ist oder eine Anpassung von Therapiekonzepten aufgrund einer sicher schlechten Prognose indiziert ist.
Weniger anzeigenProtokolle zur Ovulationssynchronisation dienen dazu, Mängel in der visuellen Brunstbeobachtung zu kompensieren und eine terminorientierte künstliche Besamung zu ermöglichen. Im Ovsynchprotokoll mit einmaliger PGF2α-Gabe an Tag 7 zeigen 13 – 21 % der Kühe eine unvollständige Luteolyse. Eine unvollständige Luteolyse bzw. Konzentrationen von Progesteron > 0,4 ng / ml zum Zeitpunkt der zweiten GnRH-Gabe führen zu schlechteren Besamungserfolgen. Eine besondere Risikogruppe für hohe Konzentrationen zur zweiten GnRH-Gabe stellen Kühe dar, die das Ovsynchprotokoll ohne Gelbkörper bzw. mit niedrigen Konzentrationen von Progesteron beginnen. Um den Anteil an Kühen mit einer vollständigen Luteolyse und dadurch den Besamungserfolg zu erhöhen, wurden modifizierte Ovsynchprotokolle beschrieben, die entweder die PGF2α-Dosis erhöhten, oder eine zusätzliche PGF2α-Gabe integrierten. Das Ziel der vorliegenden Studie war es, den Einfluss einer doppelten PGF2α-Dosis (1.000 µg Cloprostenol) direkt mit dem Einfluss einer zweimaligen PGF2α-Gabe (500 µg Cloprostenol an Tag 7 und Tag 8) während eines 7 d-Ovsynchprotokolls auf die Konzentration von Progesteron zur zweiten GnRH-Gabe und den Besamungserfolg zu untersuchen. Die Hypothesen lauteten, erstens, dass durch beide Modifikationen niedrigere Konzentrationen von Progesteron zur zweiten GnRH-Gabe und höhere Besamungserfolge erreicht werden als durch ein herkömmliches Ovsynchprotokoll und zweitens, dass Tiere, die das Ovsynchprotokoll ohne Gelbkörper beginnen, besonders von der zweimaligen PGF2α-Gabe profitieren. Dazu wurden zwei kontrollierte, randomisierte Feldversuche mit einem vergleichbaren Studiendesign auf insgesamt acht Milchviehbetrieben in Brandenburg durchgeführt. Im wöchentlich rotierenden Rhythmus wurden laktierende Milchkühe in eines von drei Behandlungsprotokollen aufgenommen. 1) Ovsynch (Kontrolle: Tag 0 GnRH – Tag 7 500 µg PGF2α – Tag 9 GnRH). 2) Ovsynch mit einer doppelten Dosis PGF2α (GDPG: Tag 0 GnRH – Tag 7 1.000 µg PGF2α – Tag 9 GnRH). 3) Ovsynch mit einer zweimaligen PGF2α Gabe (GPPG: Tag 0 GnRH – Tag 7 500 µg PGF2α – Tag 8 500 µg PGF2α – Tag 9 GnRH). Alle Kühe wurden 16 h nach der zweiten GnRH-Gabe künstlich besamt. In Experiment 1 wurden 1.979 Kühe von sechs Milchviehbetrieben aufgenommen. Bei jedem Tier wurde an Tag 0 eine transrektale sonographische Untersuchung durchgeführt und die An- oder Abwesenheit eines Gelbkörpers dokumentiert. In Experiment 2 wurden 1.581 Kühe von zwei Milchviehbetrieben aufgenommen. Von einer Subpopulation von Kühen aus Experiment 2 (n = 491) wurden Blutproben zum Zeitpunkt der zweiten GnRH-Gabe entnommen, um die Konzentration von Progesteron zu bestimmen. In Experiment 1 hatte das Behandlungsprotokoll einen signifikanten Einfluss auf den Besamungserfolg (P = 0,03). Der Anteil tragender Tiere war bei den zweimalig mit PGF2α behandelten Tieren (38,0 %) größer als bei den mit der doppelten Dosis behandelten Tieren (31,9 %; P = 0,04) oder den Tieren der Kontrollgruppe (31,2 %; P = 0,02). Der Besamungserfolg bei Tieren der Kontrollgruppe und bei Tieren der GDPG Gruppe unterschied sich nicht signifikant (P = 0,80). Der Besamungserfolg wurde von der Anwesenheit eines Gelbkörpers (P = 0,55) nicht beeinflusst. Auch war keine Interaktion zwischen dem Effekt der Behandlung und der Anwesenheit eines Gelbkörpers zur ersten GnRH-Gabe feststellbar. In Experiment 2 war der Anteil tragender Tiere bei GPPG Tieren (40,6 %; P < 0,01) und bei GDPG Tieren (38,1 %; P = 0,02) größer als bei Tieren der Kontrollgruppe (31,0 %). Zwischen GDPG und GPPG Kühen unterschied sich der Besamungserfolg nicht (P = 0,45). Im Vergleich zur Kontrollgruppe erhöhte sowohl die zweimalige Gabe als auch die doppelte Dosis den Anteil an Kühen mit besonders niedrigen Konzentrationen von Progesteron (0,00 – 0,09 ng / ml) zur zweiten GnRH-Gabe. Die GPPG Behandlung reduzierte zudem den Anteil an Kühen mit besonders hohen Konzentrationen von Progesteron (≥ 0,6 ng / ml) zur zweiten GnRH-Gabe im Vergleich zur Kontrollgruppe. Da die beiden Experimente ein ähnliches Versuchsdesign hatten, wurden die Ergebnisse im Hinblick auf den Besamungserfolg kombiniert. Kühe, die wiederholt mit PGF2α behandelt wurden, hatten einen höheren Besamungserfolg (40,5 %; P < 0,01) als Kühe, die nur eine einfache Dosis PGF2α an Tag 7 erhielten (32,4 %) und hatten tendenziell auch einen höheren Besamungserfolg als Tiere, die eine doppelte Dosis an Tag 7 erhielten (36,3 %; P = 0,05). Tendenziell war der Besamungserfolg bei GDPG Kühen größer als bei Kühen der Kontrollgruppe (P = 0,06). Die Ergebnisse der beiden Experimente zeigten, dass bei einer zweiten PGF2α-Gabe an Tag 8 in einem 7 d-Ovsynchprotokoll der Besamungserfolg im Vergleich zu einem herkömmlichen 7 d-Ovsynchprotokoll gesteigert werden konnte. Die Verwendung der doppelten PGF2α-Dosis an Tag 7 erwies sich als weniger effektiv. Die Anwesenheit eines Gelbkörpers zur ersten GnRH-Gabe hatte keinen Einfluss auf den Behandlungseffekt. Eine Ultraschalluntersuchung an Tag 0 bietet damit keine Entscheidungshilfe im Stall hinsichtlich der Wahl eines der drei Behandlungsprotokolle.
Weniger anzeigenThe Internet of Things (IoT) interconnects many heterogeneous embedded devices either locally between each other, or globally with the Internet. These things are resource-constrained, e.g., powered by battery, and typically communicate via low-power and lossy wireless links. Communication needs to be secured and relies on crypto-operations that are often resource-intensive and in conflict with the device constraints. These challenging operational conditions on the cheapest hardware possible, the unreliable wireless transmission, and the need for protection against common threats of the inter-network, impose severe challenges to IoT networks. In this thesis, we advance the current state of the art in two dimensions. Part I assesses Information-centric networking (ICN) for the IoT, a network paradigm that promises enhanced reliability for data retrieval in constrained edge networks. ICN lacks a lower layer definition, which, however, is the key to enable device sleep cycles and exclusive wireless media access. This part of the thesis designs and evaluates an effective media access strategy for ICN to reduce the energy consumption and wireless interference on constrained IoT nodes. Part II examines the performance of hardware and software crypto-operations, executed on off-the-shelf IoT platforms. A novel system design enables the accessibility and auto-configuration of crypto-hardware through an operating system. One main focus is the generation of random numbers in the IoT. This part of the thesis further designs and evaluates Physical Unclonable Functions (PUFs) to provide novel randomness sources that generate highly unpredictable secrets, on low-cost devices that lack hardware-based security features. This thesis takes a practical view on the constrained IoT and is accompanied by real-world implementations and measurements. We contribute open source software, automation tools, a simulator, and reproducible measurement results from real IoT deployments using off-the-shelf hardware. The large-scale experiments in an open access testbed provide a direct starting point for future research.
Weniger anzeigenHintergrund: Sarkome treten im Erwachsenenalter sehr selten auf und sind gleichzeitig sehr heterogen in ihrem biologischen Verhalten. Systematische retrospektive Auswertungen sind darum von elementarer Bedeutung für das Erzielen eines besseren Krankheitsverständnisses und Grundlage der Therapieoptimierung bei Weichgewebssarkomen, welche das Thema der vorliegenden Habilitationsschrift ist. Methoden: Es werden fünf Originalarbeiten zusammengefasst und diskutiert, in welchen retrospektiv einfach zu erhebende klinische Charakteristika untersucht, die Ergebnisse multimodaler Therapiestrategien analysiert und die positiven Effekte supportiver Maßnahmen demonstriert wurden. Eine weitere Originalarbeit hat systematisch die verfügbare Evidenz zu hypofraktionierter Bestrahlung ausgewertet. Ergebnisse: Das mediane progressionsfreie Überleben bei älteren Patient:innen mit Tumoren der Ewingsarkom-Familie wird durch Komorbiditäten und das Tumorstadium beeinflusst. Bei intensivmedizinisch betreuten Sarkompatient:innen haben etablierte Sepsis- und Performance-Scores und allgemeine Charakteristika (Geschlecht, Tumorlokalisation, Therapieintention) prognostische Aussagekraft. Die Hinzunahme von Olaratumab zu Doxorubin führt nicht zu einer signifikanten Verbesserung des Überlebens. Durch die kombinierte Radiochemotherapie wird bei Patient:innen mit high grade lokalisierten Weichgewebssarkomen im Vergleich zur alleinigen Strahlentherapie sowohl die lokale Kontrolle als auch die Verhinderung von Fernmetastasen verbessert. Die präoperative hypofraktionierte Radiatio ist der normofaktionierten Bestrahlung nicht unterlegen und somit eine gute Behandlungsoption für Patient:innen mit Weichgewebssarkomen. Eine spezialisierte palliativmedizinische Intervention bei Patient:innen mit fortgeschrittenem Weichgewebssarkom führt zu einer signifikanten Abnahme der Symptomlast (Schmerzen, allgemeine Symptome und Stresslevel). Schlussfolgerungen: Die dargestellten Innovationen der Sarkomtherapie lassen sich drei unterschiedlichen Bereichen zuordnen. Beginnend bei der Identifizierung von in der klinischen Routine einfach zu erhebenden Biomarkern zur präziseren Patient:innenselektion werden Beispiele für die Optimierung der Therapie selbst gegeben: dazu gehören der Einsatz zielgerichteter Substanzen insbesondere im Rahmen multimodaler Strategien und relevante technische Fortschritte in der Strahlentherapie. Abschließend wird am Beispiel der Integration palliativmedizinischer Interventionen in die Tumorbehandlung die Bedeutung des frühzeitigen Einsatzes supportiver Maßnahmen gezeigt.
Weniger anzeigenAufgrund der deutlich ungünstigeren Prognose, die Patient:innen nach dem Erleiden eines Delirs haben, gewinnen Prävention und Therapie des Delirs in der klinischen Versorgung erhebliche Bedeutung. Patient:innen mit erhöhter Vulnerabilität können auf verschiedene Auslöser hin ein klinisches Bild eines Delirs entwickeln. Bei der Ätiologie des Delirs spielen sowohl das cholinerge als auch das adrenerge System sowie eine resultierende Neuroinflammation eine herausragende Rolle. Die vielfältigen Mechanismen, die zu einem Delir führen können, umfassen ein cholinerges Delir mit Acetylcholinmangel sowie ein adrenerges Delir, das durch Stress und Aktivierung des sympathischen Nervensystems verursacht wird. In der vorliegenden Habilitationsschrift wurden verschiedene Aspekte des postoperativen Delirs untersucht. Die CESARO-Studie beschrieb den perioperativen Verlauf der Cholinesteraseaktivitäten. Die Studie zur postoperativen Anämie zeigte, dass postoperative Anämie mit einem höheren Delirrisiko und längeren Krankenhausaufenthalten verbunden sein könnte. Die Untersuchung an Krebspatient:innen deutete darauf hin, dass die Belastung durch langfristige Medikamenteneinnahme von Wirkstoffen mit anticholinergen Eigenschaften ein unabhängiger Risikofaktor für postoperatives Delir sein könnte. Die Auswirkungen von Dexmedetomidin deuteten darauf hin, dass dadurch das Risiko für postoperatives Delir reduziert wird. Die sekundäre Analyse zur cholinergen Dysregulation durch Dexmedetomidin zeigte keine signifikanten Veränderungen der cholinergen Enzyme, legte jedoch nahe, dass Dexmedetomidin möglicherweise die cholinerge Dysregulation bei größeren chirurgischen Eingriffen blockiert. Es besteht die Notwendigkeit weiterer differenzierter Forschung, um die Mechanismen und Faktoren des postoperativen Delirs besser zu verstehen. Die Identifikation von Regulationsmechanismen könnte zu gezielten therapeutischen Ansätzen führen, um das Management des Delirs zu verbessern. Dazu sollten klinische Studien die Rolle des vegetativen Nervensystems im perioperativen Stressmanagement weiter untersuchen, um die Prävention und Behandlung des Delirs zu optimieren.
Weniger anzeigenThe aim of this study was to assess important management factors for calves. A) The effects of transdermal flunixin meglumine in combination with local anesthesia during disbudding on 1) plasma cortisol and 2) behavioral changes were evaluated. B) Various analytical methods (RID, ELISA) and on-site measurement methods (digital Brix refractometer, colostrometer, outflow funnel, semi-quantitative immunochromatography) were examined to determine colostrum quality. Additionally, the timing of disbudding was utilized to perform cortisol measurements in different media.
Group allocation: 1) Control group (CON, n = 27), 2) 1-Flunixin group (1-FLU, n = 26) with a single administration of transdermal flunixin meglumine during disbudding, and 3) 2-Flunixin group (2-FLU, n = 24) with two administrations of transdermal flunixin meglumine (during disbudding and a second dose 6 hours later). Sham disbudding was performed one week before disbudding using a cold cautery iron.
During disbudding, the average plasma cortisol concentration was 5.16 + 2.8 ng/mL (range: 0.2–26.4 ng/mL). Plasma cortisol concentration was influenced by treatment (P < 0.01) and sampling time (P < 0.01). Compared to CON, single treatment (1-FLU) showed a significant effect (P < 0.01; -1.29 ng/mL; 95% CI -2.15 to -0.44), as did the second dose (2-FLU; P < 0.01; -1.29 ng/mL; 95% CI: -2.14 to -0.43). The two groups did not differ significantly from each other (P = 0.99; 0.01 ng/mL; 95% CI: -0.84 to 0.84). Treatment influenced total lying time and lying duration per lying period during sham disbudding (P = 0.01) but had no effect during disbudding (P = 0.31).
Additionally, measurements of cortisol in different media (plasma, saliva, feces) were conducted. Cortisol and metabolites were compared. Saliva and fecal samples were collected concurrently with blood samples. The correlation between plasma cortisol and saliva in dairy calves was good (r = 0.73; P < 0.01). The correlation between plasma cortisol and FGM concentration was weak (6 hours: r = 0.24).
For colostrum assessment, radial immunodiffusion (RID) was considered the reference method. Colostrum was defined as high-quality if the IgG content of RID measurement was >50 mg IgG/mL. The average IgG concentration (±SD) was 101.3 ± 45.9 mg/mL. The correlation between RID was: r = 0.78 (ELISA), r = 0.79 (digital Brix refractometer), r = 0.58 (colostrometer: specific gravity), r = 0.61 (colostrometer: temperature-corrected), r = 0.26 (outflow funnel), and r = 0.43 (lateral flow assay). The optimal threshold for identifying high-quality colostrum with ELISA was 50.8 mg/mL, with a sensitivity of 91.3%, specificity of 92.3%, and an AUC of 0.94. The sensitivity of on-site tests varied from 95.7% (Brix refractometer) to 60.9% (lateral flow assay).
In conclusion, this study shows that 1) transdermal flunixin meglumine can decrease plasma cortisol concentration after disbudding, but 2) has no effect on average daily weight gain and total lying time. 3) ELISA is accurate and 4) the digital Brix refractometer and colostrometer were suitable for assessing colostrum quality.
Weniger anzeigenComputer simulations can give essential insights into the dynamics of biomolecular systems but raise significant big data challenges still to be sorted out. To overcome the challenge of large data sets combined with the complexity of biomolecular interactions, I implemented a set of robust algorithms, as part of this doctoral thesis, inspired by graph theory that allows us to use large data sets from atomistic molecular dynamics (MD) simulations and derive simple graphical representations of the hydrogen bond (H-bond) networks of lipid membrane models, proteins in different intermediate states, and of the response of the proteins to mutations. These representations are valuable for the interpretation of data from experiments and computations. Our algorithms facilitate highly efficient analyses of dynamic H-bond networks at the lipid membrane interface. We introduce the implementation of a Connected Components algorithm to cluster lipid molecules and a Depth First Search (DFS) algorithm that allows us to characterize the topology of dynamic H-bond clusters sampled by lipid headgroups in MD simulations. With the algorithm we developed, we identify the transient sampling of four main types of lipid H-bond clusters: linear, star, circular and extensive networks combining these topologies. Water bridges between lipid headgroups are dynamic with lifetimes lasting for a few picoseconds. Our algorithms are further extended to study conformational dynamics in proteins. An example is SecA, a protein motor that couples Adenosine triphosphate (ATP) binding and hydrolysis with the pre-protein substrate's translocation through the membrane embedded SecYEG protein translocon. However, the exact mechanism of SecA’s conformational coupling remains unclear. We present a methodology of applying graph-based approaches to characterize the dynamics of the SecA protein motor by computing long-distance H-bond pathways that inter-connect the nucleotide-binding pocket and the pre-protein binding site, shortest-distance routes and centrality measures that reveal amino acids with a central role in the total connectivity of the protein graph. A key finding enabled by the graph-based approach developed as part of this doctoral thesis is that mutations near the nucleotide-binding site associate with modified dynamics at the pre-protein binding domain. Water molecules participate in extended H-bonded water chains contributing to long-distance conformational coupling. Our methodologies are also applied to protein VASA, a DEAD-box enzyme involved in the cell cycle with ATP and Ribonucleic Acid (RNA) binding sites and explore the conformational coupling between the two binding sites and Channelrhodopsin’s C1C2 lipid-protein H-bond molecular dynamics. Lastly, our algorithms are applied to the Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-COV-2) protein S crystal structures. Protein S undergoes conformational changes and symmetry loss of core H-bonded clusters as it transitions from the closed to the pre-fusion conformation. Our study has identified N501 as a central residue of the H-bond network that interconnects the spike protein S to Angiotensin-Converting Enzyme 2 (ACE2), and that subsequently became mutated into TYR in a new COVID-19 variant.
Weniger anzeigenAllergic contact dermatitis (ACD) is one of the most common immunotoxicological disorders of the skin. ACD is provoked by exogenous contact allergens that are mistakenly identified as a danger by the immune system and orchestrated by a T cell-mediated adaptive immune response. However, before a symptomatic response occurs (elicitation), a clinically silent sensitization phase precedes. The sensitization phase is characterized by complex interactions of different cell types with dendritic cells (DC) playing a central role. DCs may take up complexes of chemically-modified self-proteins, process and present them on their surface for T cell recognition. Subsequently, they undergo a maturation process and migrate to lymph nodes to initiate the priming and proliferation of allergen-specific T cells. The DCs are thus of crucial importance for the development of contact allergy. Despite this central role, the exact cellular signaling pathways leading to allergen-induced maturation of dendritic cells are not yet fully understood. As the current knowledge is mainly based on transcriptome data, state of the art mass spectrometry-based proteomics are applied in this thesis to complement and extend existing data to enhance the understanding of ACD pathomechanisms. In this work, it was shown for the first time that proteomic methods are suitable to distinguish activation of monocyte-derived dendritic cells (MoDC) triggered by the contact allergen NiSO4 from the bacterial activator lipopolysaccharide (LPS). NiSO4 caused not only a different MoDC phenotype but also the activation of divergent signaling pathways. Both treatments induced metabolic reprogramming towards aerobic glycolysis, which, however, manifested over a longer period in the case of NiSO4 and eventually activated hypoxia-like signaling pathways such as hypoxia-inducible factor (HIF) 1α upregulation. NiSO4 treatment further elicited a pronounced nuclear factor erythroid 2-related factor (Nrf) 2-dependent stress response in MoDCs. Most striking was the selective upregulation of cholesterol biosynthesis after treatment with NiSO4 which was absent upon stimulation with LPS. Concomitantly, the cells exhibited a significant decrease in cellular cholesterol levels. Thus, this signaling pathway was identified as a promising approach in the search for predictive biomarker signatures for sensitization with contact allergens. The second study was designed to verify the above-mentioned results in another cell model. Additional allergens were included to reveal similarities or differences in the activation of DCs by the allergens. THP-1 cells, which are standardly used for the prediction of contact allergens in vitro, were chosen as the cell model. The allergens NiSO4, p-dinitrochlorobenzene (DNCB), p-benzoquinone (BQ), and p-nitrobenzyl bromide (NBB) induced comparable proteomic changes and differed mainly in magnitude of induced proteomic changes. DNCB and NBB were the most potent activators of the cells. In direct comparison with MoDCs, THP-1 cells showed a much more pronounced Nrf2-mediated stress response. Based on these results, the Nrf2-mediated stress response should also be implemented into future in vitro DC test strategies for the prediction of contact allergens. Allergen-treated THP-1 cells developed a proinflammatory phenotype, which was supported by significant upregulation of the citrate cycle. Cholesterol biosynthesis was also significantly regulated in these cells - but in opposing direction to the findings from MoDCs. Overall, the comparison of MoDCs and THP-1 cells revealed relevant differences in the regulation of many proteins and signaling pathways between the cell models, but still resulted in the activation of similar superordinate systemic endpoints. THP-1 cells are therefore limited in their representation of MoDCs as primary DCs model in vitro. The further development of already validated in vitro methods in THP-1 cells is should thus focus on proteins that are differentially regulated by contact allergens in both cell types.
Weniger anzeigenHarvestmen (Arachnida: Opiliones) represent the third most diverse order of arachnids following spiders (Araneae) and mites (Acari). Despite their modern species richness and importance for various ecosystems, fossils of this group are largely understudied. This also includes their evolutionary history, palaeobiogeography and palaeoecology. 156 harvestmen fossils were available for this thesis, which are mostly preserved as inclusions in Baltic (Late Eocene, Priabonian) and Burmese amber (mid-Cretaceous, Cenomanian-Albian). Besides the description of new species, the main focus was to answer two palaeobiogeographical hypotheses: Is the Burmese fauna of Laurasian or Gondwanan origin? Does the European amber complex sample a Holarctic fauna? The fossils were mainly examined with classical light microscopy but also with the help of micro-CT scans and then compared with their living relatives available in the literature and the collection of the Museum für Naturkunde, Berlin. 11 new fossil harvestmen species and 12 additional specimens from all four suborders (Laniatores, Eupnoi, Dyspnoi, Cyphophthalmi) are described in this thesis. Of particular interest is the discovery and description of Sirocellus iunctus (Cyphophthalmi) from Burmese amber, the first dwarf harvestmen which combines characters from the families Sironidae and Stylocellidae, and thus represents a “missing link” between these two families. Based on this fossil, previous hypotheses regarding a Gondwanan origin of the Burmese amber fauna could be reconstructed and confirmed. Tyrannobunus aculeus (Eupnoi) is the first fossil of its suborder from Burmese amber and stands out because of its unusual body characters. Large eyes, a small but strongly armed body, spined legs and pedipalps and an undifferentiated penis indicate an early origin in the Eupnoi tree of life. Its very thin cuticle shows additionally an adaptation to humid and warm tropical climates. Balticolasma wunderlichi represents the first fossil from the subfamily Ortholasmatinae (Dyspnoi) and was described as a male from the Baltic and as a female from the Ukrainian Rovno amber. These ortholasmatine harvestmen only occur in North-Central America and in parts of Asia these days. This record shows once again that some groups of harvestmen were once widespread throughout the Holarctic during the Eocene and subsequently became extinct due to decreasing temperatures, at least in Europe. The harvestmen fossils could be placed in the appropriate palaeoenvironmental context based on known reconstructions of the palaeoenvironment for the Burmese and European amber forests and on analogues to their extant relatives. The described fossil harvestmen species fit well in the proposed warm-temperate Baltic amber forests with a number of swamp and open habitats, and in the very humid and warm tropical Burmese amber forests.
All newly described fossils represent an important foundation for future phylogenetic studies, especially in the form of calibration points, which allows to calculate the origin of the individual groups more precisely. This in combination with the description of new fossils from other unexplored amber sources (e.g. Lebanese amber, African amber, Spanish amber) will further increase our knowledge of the evolution and palaeobiogeography of these animals.
Weniger anzeigenThe ability to flexibly adapt behavior in the light of changing contextual demands is crucial for successful goal pursuit. With age, children become increasingly able to flexibly switch between tasks but show poorer switching performance even in late childhood. Given the crucial role of cognitive flexibility in daily life, such as the ability to shift to a new strategy to solve a problem when the previous one did not work, studies have aimed to improve cognitive flexibility with training in children. A key question for the effectiveness of these interventions is understanding why children show lower cognitive flexibility than adults. In this dissertation, I shed new light on this question, by investigating 8–11-year-old children using behavioral measures in combination with measures of univariate activation, multivariate decoding, and task-related connectivity based on data from functional magnetic resonance imaging (fMRI). In Papers 1 & 2, I first addressed the question of which neural processes support the development of cognitive flexibility. In Paper 3, I examined how these neural processes change with training. I have prefaced the three papers with a synopsis in which I outline the theoretical framework of the dissertation and summarize the current empirical findings. Finally, I summarize the results of the empirical part of this dissertation and discuss their contribution to our understanding of the development of cognitive flexibility. Flexibly switching between tasks comes at a cost, evident in decreased accuracy and increased response times. Specifically, compared to performing single tasks in isolation, task switching poses greater demands on maintaining and managing multiple task sets, thus eliciting so-called mixing costs. Additionally, a switch to a different task compared to a repetition of the same one requires the inhibition of the previously relevant task set and updating the newly relevant one, resulting in so-called switch costs. Previous research has demonstrated that mixing and switch costs show different patterns of age differences with switch costs approaching adult levels earlier. The present dissertation builds on these findings to examine the neurocognitive processes contributing to the presumably protracted development of mixing costs. In Paper 1, comparing children (8–11 years) and adults (20–30 years), I examined how neural processes supporting sustained and transient control processes support age-related decreases in mixing and switch costs, respectively. I showed that while evident for both, age differences were greater for sustained activation and mixing costs than for transient activation and switch costs. Additionally, the results of Paper 1 outline a potential alternative mechanism via which children can address increased sustained control demands: children that showed a less adult-like sustained activation pattern but greater increases in connectivity performed better. Taken together, Paper 1 demonstrated that children managed increased sustained control demands during task switching in at least two ways, (1) increased activation in the brain regions also recruited by adults, or (2) increased connectivity with additional brain regions in the lateral prefrontal cortex (lPFC), thus potentially relying on additional metacontrol processes. One factor proposed to contribute to age-related improvements in task switching is an increasing ability to represent multiple rules and effectively update these when necessary. Using the same sample of children and adults, Paper 2 investigated this hypothesis using multivariate pattern analysis to elucidate the role of neural task-set representations on age differences in task switching. Results demonstrated that neural activation patterns on switch trials held less information regarding the currently relevant task than on repeat trials. Intriguingly, this switch-related reduction of task-set distinctiveness did not differ between children and adults, showing a striking level of maturity in the neural representation of task sets and raising the question which other mechanisms contributed to greater switch costs in late childhood. Building on the insights from Papers 1 and 2, Paper 3 explored how the neural and cognitive processes supporting the development of task switching changed in children that either trained intensive single tasking or intensive task switching over nine weeks. Using drift-diffusion models and fMRI data, I investigated how cognitive and neural processes during task switching changed with training. Faster accumulation of evidence as indicated by increased drift rates, along with decreased activation in the lPFC suggested more efficient rule processing with intensive task-switching training. The accompanying changes in boundary separation further suggested strategy changes, such that children may have allocated cognitive control resources differently, potentially because of improvements in monitoring task demands, enabling them to match their performance accordingly. Taken together, the empirical findings of this dissertation converge to reveal a consistent picture of increasingly more refined recruitment of frontoparietal brain regions, in particular the lPFC, both with age and with intensive training during childhood. They thus raise questions on the role of hierarchical cognitive control and metacontrol processes for developmental improvements of cognitive flexibility. The novel insights into task switching presented in this dissertation thus further our understanding of development and learning in cognitive control, and cognition more generally.
Weniger anzeigenNanoelectromechanical systems (NEMS) based on two-dimensional (2D) materials represent the ultimate – atomicscale – size limit for the miniaturization of mechanical devices. When employed as resonators, these devices bring a range of remarkable features. Due to their small effective mass, they oscillate at very high frequencies (up to gigahertz). Furthermore, it is easy to drive them in their non-linear regime. Additionally, they come with the exceptional ability to broadly tune their resonance frequencies. In this thesis, I realize two unique systems capitalizing on these properties. First, I conceptualize a tunable phononic crystal made from graphene. By periodically patterning a suspended graphene membrane, I transform it into the world’s thinnest possible phononic crystal. This device features a phononic band gap in the megahertz range, which we can broadly tune using an electrostatic gating approach. Under electrostatic pressure up to 30 kPa, we observe a frequency upshift of the entire phononic system by 350 %. In the next step, we demonstrate full control of the band gap size. By carefully tension engineering our suspended phononic crystal, we are able to dynamically reduce the size of the phononic band gap – down to completely closing it. This change in hierarchy/topology in the phononic band structure can be seen as the mechanical simulation of a metal-insulator transition (mMIT). Upon placing an artificial irregularity in our phononic lattice, we can spatially localize a mechanical ‘defect mode’. This mode is mechanically isolated from its environment, which makes it a highly coherent mechanical oscillator and a potential reservoir for storing quantum information. By taking advantage of our tunable system, we can now control the frequency and the degree of localization of the defect mode, which allows us to dynamically couple it to external excitations. Finally, we make use of the mMIT by constructing and studying a phononic transistor analog, which is controlled by simply applying a gate voltage and has an on/off ratio of 10^5 (100 dB). Second, I develop a platform for nanomechanical spectroscopy (NMS) of 2D materials. Specifically, I show that a purely mechanical measurement can be used as an ultrasensitive spectroscopic probe for transition metal dichalcogenides (TMDs) and plasmonic nanostructures. We extract the optical absorption of a 2D material from frequency shifts of a hybrid NEMS resonator vs. the wavelength of incoming light. In combination with optical reflectivity data, we derive — without any further assumptions—the full dielectric function of the material under study. Our measurement is fast (𝜏_rise = 135 ns), sensitive (noise-equivalent power: 𝑁𝐸𝑃 = 890 fW/ √ Hz) and we can characterize 2D materials in a broad spectral range of 1.2 – 3.1 eV. This method is a direct measurement of absorption, which has practical advantages compared to common optical spectroscopy approaches. Furthermore, while being comparable in performance, it overcomes limitations inherent to conventional optical methods, such as the complications associated with measurements at high magnetic fields and low temperatures. Summarizing, I developed a concept to add tunability to the field of phononics and an approach to spectroscopically characterize 2D materials based on mechanical measurements. These are powerful tools to realize tunable condensed matter physics analogs in phononic systems and to observe hitherto undetected phenomena in 2D materials.
Weniger anzeigenIn der vorliegenden Habilitationsschrift wurden spinopelvine Interaktionen unter dem Aspekt der funktionellen Implantatpositionierung und aktivitätenspezifische Implantatbelastungen untersucht. Übergeordnetes Ziel der Arbeit war es, durch ein grundlegendes Verständnis der Implantatbelastung und der spinopelvinen Wechselwirkung auf die Hüfttotalendoprothese präventive Strategien zur Reduktion von aseptischen Lockerungen und Protheseninstabilitäten zu erarbeiten.
Weniger anzeigenThis manuscript represents a comprehensive analysis of non-finite causal constructions in English, German, Dutch, and Czech. Based on a corpus of social media posts, the study provides an analysis of the formal and functional aspects of these constructions, their development, and their cross-linguistic similarities and differences. The study follows the principles of (Diasystematic) Construction Grammar. Formally, these constructions differ from both causal clauses and causal prepositional constructions. In contrast to the former, the complement of non-finite causal constructions must be non-finite. In contrast to the latter, however, the complement slot can be filled by a wider range of elements than just noun phrases. Elliptical clauses, non-elliptical noun phrases, or non-elliptical non-noun phrases can fill the complement slot of non-finite causal constructions. Functionally, non-finite causal constructions express a causal link between a matrix clause, which they follow, and the element in their complement slot. In this regard, these constructions overlap with both causal clauses and prepositional constructions. However, non-finite causal constructions can also serve to express a comment about the causal link. The development of non-finite causal constructions cross-linguistically follows a uniform spiral pathway. Elliptical non-finite causal constructions develop in the first step out of non-elliptical causal clauses. Elliptical non-finite causal constructions subsequently give rise to their non-elliptical variants. Against the backdrop of these empirical observations, the study draws theoretical conclusions regarding the relationship between linguistic data and their intepretation, linguistic categories and categorisation, and questions of language contact.
Weniger anzeigen