Firms rely on productive relationships with other firms to organise their economic activities and joint projects, but interorganisational networks of this nature may exhibit a ‘dark side’. Despite their reputation as flexible, these network structures can exert restrictive forces with negative conse-quences for firms’ strategic flexibility, performance, and survival. To explain why and how such situations arise, this study develops an explanatory framework that integrates the network approach from organisation and management studies, path dependence theory, and social capital. The framework conceptualises a development dynamic from initial, non-deterministic relationships to increasingly stable, cohesive, and densely connected groups of organisations (alliances). These may lock-in through the interacting cognitive, relational, and structural dimensions of the social capital process – the mechanism driving such path dependence in interorganisational networks which reduces members’ options in these dimensions.
Empirical evidence from a case study in the smartphone industry substantiates and illustrates the framework. Firms in this industry created two competing alliances around hub firms and respective software platforms. The case data revealed cohesive network dynamics and considerable lock-in potential with related difficulties. To study the specific conditions of the final, lock-in stage of the process, an agent-based social simulation model was used to experiment with contrasting network scenarios. The experiments revealed that the behavioural assumptions for conceptualising agents exert a strong influence on lock-in conditions regarding occurrence, time-to-lock-in, density, and the whole-network structure. Scenarios with firms seeking cooperation partners based on their network properties locked in alliances more often, faster and at higher densities than scenarios with firms seeking partners with attractive individual properties such as their resources. The study thus contributes a whole-network level mechanism to the path dependence literature and a mixed-method approach with a case study and a formal simulation model. Firms in many indus-tries rely on creating competing alliances, and this study explains reasons leading to the potentially detrimental implications.
View lessStructural variants, commonly defined as genomic differences larger than 50 bp, are an important research target due to their large size and great impact on human phenotype and disease. Their unique properties and the weaknesses of traditional short-read sequencing technologies, however, complicate their detection and comprehensive characterization. Third-generation sequencing technologies, such as PacBio SMRT sequencing and ONT Nanopore sequencing, have the potential to resolve some of these problems through the generation of considerably longer reads. Despite their higher error rate and sequencing cost, they offer many advantages for the detection of structural variants and the complete reconstruction of personal genome sequences. Yet, available software tools for the detection of SVs from long reads and genome assemblies still do not fully exploit the possibilities.
Here we present two new computational methods, SVIM and SVIM-asm, for the detection and genotype estimation of structural variants using third-generation sequencing data. The methods can be applied to long, error-prone reads or genome assemblies and distinguish six canonical classes of structural variation. We apply both tools on simulated and real sequencing datasets and demonstrate that they outperform existing methods on the detection of genotyped SVs. In the context of a larger research project, we apply SVIM for the detection of both canonical SVs and long-range novel adjacencies in a set of highly rearranged genomes. After a stringent filtering process, the final callset of long-range novel adjacencies is validated with orthogonal Hi-C data. We show the completeness and precision of the callset demonstrating its suitability for downstream analyses, such as chromosome reconstruction.
View lessIn this dissertation, I contribute to three strands of the environmental economics literature: (1) regulation of air pollution from stationary sources, (2) interaction between behavioral biases and consumer demand for energy, and (3) long-term distributional outcomes of policies that seek to mitigate climate damages from the housing sector.
The first paper looks at how environmental regulations work in practice -- assessing ex-post the causal consequences of a specific policy, the Large Combustion Plant Directive. The Large Combustion Plant Directive was a key policy instrument to limit air pollution from power stations in the European Union. The Directive set limits on emissions of harmful sulfur dioxide, nitrogen oxide and particle dust from combustion plants with total capacity of at least 50 MWth. A fundamental empirical problem is to create a valid counterfactual, to understand what would have happened in the absence of such a regulation. As is the case with most command and control policies, all plants fell under regulation, but the stringency was vintage-differentiated. More crucially, a group of plants chose to opt-out of emissions performance standards but were instead required to gradually cease operations. I exploit the structure of the directive to construct valid control groups to assess the effectiveness of emission performance standards. Evidence from this empirical study suggests that EU-wide emission performance standards, when sufficiently stringent, are an effective instrument for pollution abatement at the plant stack-level. However, the regulation was not ambitious enough and in fact allowed business-as-usual operations for some of the most carbon-intensive power plants operating in the European Union.
In the second paper, I exploit a large-scale natural experiment in utility billing cycles at the building level to identify the salience effect of costs on energy consumption. By exploiting variation in billing cycles, I find new evidence for consumer inattention to energy costs: consumers that are billed for heating during off-winter months demand more heat energy annually. Results show that households are paying attention to their heating costs in the first three months of the 12-month billing period. As a result, bills immediately before the winter heating season are most effective, allowing ample opportunity to adjust consumption. I show that salience bias in annual heat energy demand is persistent and pervasive -- affecting households in all regions and building/technology type. Enduring differences in consumer inattention to energy costs led to significantly higher heating expenditures for buildings treated with summer billing cycles. Differences in efficiency investments across billing cycles highlight that, at least for multi-apartment buildings, owners of buildings did invest towards closing any perceived energy-efficiency gaps, which were driven by consumer misoptimization by tenants, treated with low salience of energy bills. In the third paper, which is joint work with Andrew Hobbs, we examine the effect of temperature on residential heat demand and the spatial distribution of energy (in)efficient buildings in Germany. To uncover the underlying thermal efficiency of buildings, we estimate the causal response of building-level heat demand to variability in heating degree days. We examine heterogeneity in temperature response using both standard econometrics and causal forests to identify differences in energy-efficiency between buildings and regions. Without making any functional form assumptions, we are able to account for observable and unobservable characteristics that are likely drivers of the realized energy-efficiency outcomes. Results show that the distribution of energy-efficiency is not equitable in the West of Germany, with buildings located in Bavaria and Baden Wuerttemberg attaining the best energy performance standards nationwide. Compared to the West, the East of Germany is home to a significantly higher share of older buildings that were not subject to building codes. Notwithstanding, they perform better than the West counterpart, likely as a result of large investments in retrofitting post-reunification. We highlight that the highest untapped potential for gains in energy-efficiency is located in the North-West of Germany.
View lessRandomness is an intrinsic feature of quantum theory. The outcome of any measurement will be random, sampled from a probability distribution that is defined by the measured quantum state. The task of sampling from a prescribed probability distribution therefore seems to be a natural technological application of quantum devices. And indeed, certain random sampling tasks have been proposed to experimentally demonstrate the speedup of quantum over classical computation, so-called “quantum computational supremacy”.
In the research presented in this thesis, I investigate the complexity-theoretic and physical foundations of quantum sampling algorithms. Using the theory of computational complexity, I assess the computational power of natural quantum simulators and close loopholes in the complexity-theoretic argument for the classical intractability of quantum samplers (Part I). In particular, I prove anticoncentration for quantum circuit families that give rise to a 2-design and review methods for proving average-case hardness. I present quantum random sampling schemes that are tailored to large-scale quantum simulation hardware but at the same time rise up to the highest standard in terms of their complexity-theoretic underpinning. Using methods from property testing and quantum system identification, I shed light on the question, how and under which conditions quantum sampling devices can be tested or verified in regimes that are not simulable on classical computers (Part II). I present a no-go result that prevents efficient verification of quantum random sampling schemes as well as approaches using which this no-go result can be circumvented. In particular, I develop fully efficient verification protocols in what I call the measurement-device-dependent scenario in which single-qubit measurements are assumed to function with high accuracy. Finally, I try to understand the physical mechanisms governing the computational boundary between classical and quantum computing devices by challenging their computational power using tools from computational physics and the theory of computational complexity (Part III). I develop efficiently computable measures of the infamous Monte Carlo sign problem and assess those measures both in terms of their practicability as a tool for alleviating or easing the sign problem and the computational complexity of this task.
An overarching theme of the thesis is the quantum sign problem which arises due to destructive interference between paths – an intrinsically quantum effect. The (non-)existence of a sign problem takes on the role as a criterion which delineates the boundary between classical and quantum computing devices. I begin the thesis by identifying the quantum sign problem as a root of the computational intractability of quantum output probabilities. It turns out that the intricate structure of the probability distributions the sign problem gives rise to, prohibits their verification from few samples. In an ironic twist, I show that assessing the intrinsic sign problem of a quantum system is again an intractable problem.
View lessDebugging ist ein Schlüsselproblem des Informatikunterrichts: Programmierfehler zu finden und zu beheben stellt für Schülerinnen und Schüler ein erhebliches Hindernis beim Programmierenlernen dar und ist eine große Quelle für Frustration. Gleichzeitig stehen aber auch die Lehrkräfte vor der enormen Herausforderung, allen Lernenden gleichzeitig gerecht zu werden. Nichtsdestotrotz fehlt es bisher an informatikdidaktischer Forschung, die sich diesem gravierenden schulpraktischen Problem annimmt.
In dieser Arbeit wird gemäß dem Forschungsformat der didaktischen Rekonstruktion der Prozess Debugging aus informatikdidaktischer Sicht aufgearbeitet. Dazu werden zunächst im Zuge der fachlichen Klärung vier Fähigkeiten identifiziert, die Schülerinnen und Schüler für selbstständiges Debugging benötigen: Die Anwendung eines systematischen Debuggingvorgehens, die Anwendung von Debuggingstrategien, die Verwendung von Heuristiken und Mustern für typische Fehler sowie von Werkzeugen. Das daraus resultierende Modell der Debuggingfähigkeiten für Novizen stellt damit die inhaltliche Basis für die Vermittlung von Debugging dar. Weiterhin wird die Perspektive der Lehrkräfte untersucht und analysiert, mit welchen Herausforderungen diese beim Debuggen im Unterricht konfrontiert sind und wie sie mit diesen umgehen. Die Lehrkräfte berichten dabei von großen Schwierigkeiten aufgrund mangelnder Selbstständigkeit der Schülerinnen und Schüler bei der Fehlerbehebung. Außerdem unterrichten sie Debugging kaum explizit, da es ihnen an Zeit, Konzepten und Materialien fehlt. Aus ihren Erfahrungen können weiterhin Gestaltungshinweise abgeleitet werden, wie etwa, dass Debugging nicht "auf Vorrat", sondern bei Bedarf unterrichtet und dabei die Selbstständigkeit der Lernenden auch aktiv eingefordert werden sollte. Darüber hinaus werden gesellschaftliche Ansprüche des Debugging untersucht und drei mögliche Beiträge zur Allgemeinbildung identifiziert: Zur Erklärung des Phänomens "fehlerhafte Software" aus der Lebenswelt, bezüglich des Lernens aus Fehlern sowie als Herangehensweise des Computational Thinking für Troubleshooting im Alltag. Daneben werden hinsichtlich der Perspektive der Lernenden Debugging-Lernvoraussetzungen von Schülerinnen und Schülern anhand ihres Vorgehens beim Troubleshooten erhoben, die deren Debuggingvorgehen beeinflussen. So wenden die Lernenden zwar ein systematisches Vorgehen für das Troubleshooten an und beziehen bisherige Erfahrungen und Muster für typische Fehler mit in diesen Prozess ein, haben aber insbesondere Probleme mit dem Aufstellen von (Alternativ-)Hypothesen oder dem Rückgängigmachen von erfolglosen Änderungen. Weiterhin haben sie Schwierigkeiten mit der Anwendung von Strategien wie dem Testen oder einer topographischen Suche, die entsprechend im Informatikunterricht adressiert werden müssen.
Auf dieser Basis werden zehn Gestaltungskriterien für Konzepte und Materialien für das Debugging im Unterricht entwickelt sowie ein konkretes integratives Unterrichtskonzept für den Informatikunterricht entworfen. Die Wirksamkeit der expliziten Vermittlung von Debugging wird anhand des Unterrichtskonzepts empirisch validiert: Die Ergebnisse zeigen dabei die Bedeutung eines systematischen Vorgehens als Grundlage für erfolgreiches Debugging für Novizen auf und verdichten empirisch die These, dass Debugging explizit vermittelt werden sollte. Abschließend wird die Praxiswirksamkeit der Ergebnisse die Gestaltung einer Fortbildung untersucht und bezüglich des Transfers in die Unterrichtspraxis evaluiert. Dabei zeigt sich, dass die professionelle Kompetenz der Lehrkräfte sowie der Stellenwert des Themas Debugging für ihren Unterricht gestiegen ist. Außerdem versuchen sie, eine positive Fehlerkultur im Unterricht zu etablieren, und adaptieren und erweitern dazu die Fortbildungsinhalte.
Zusammenfassend legt diese Arbeit damit die theoretische Grundlage für die Vermittlung von Debugging im Unterricht, indem relevante Debuggingfähigkeiten, unterrichtspraktische Anforderungen und Lernvoraussetzungen identifiziert werden. Darüber hinaus geben die Gestaltungskriterien sowie das evaluierte Unterrichtskonzept eine praxiswirksame Antwort auf die Frage, wie Debugging im Unterricht vermittelt werden kann. Neben diesen inhaltlichen Beiträgen werden im Rahmen dieser Arbeit zudem zwei methodische Beiträge geleistet. So wird einerseits ein Instrument zur Messung von Debuggingleistung und andererseits ein innovativer methodischer Ansatz zur Untersuchung von Troubleshooting-Vorgehensweisen entwickelt.
View lessFrancisella tularensis (Ft) ist ein gramnegatives, fakultativ-intrazelluläres Pathogen, welches die Tularämie beim Menschen und bei einer großen Anzahl von Tieren auslösen kann. In Deutschland ist ausschließlich die Ft Subspezies holarctica (Fth) für Infektionen im Menschen verantwortlich. Der Hauptvirulenzfaktor, die Francisella Pathogenitätsinsel (FPI), kodiert für ein Typ-VI-Sekretionssystem (T6SS) und ist für das Verlassen des Phagosoms und somit für die intrazelluläre Replikation verantwortlich. IglC und VgrG sind wichtige strukturelle Komponenten des T6SS, werden aber auch in Kulturüberständen nachgewiesen. VgrG scheint zudem auch eine Effektorfunktion wahrzunehmen. Deletionen von iglC und vgrG führen zur eingeschränkten T6SS-Funktionalität und damit zum intrazellulären Replikationsdefekt sowie zur Avirulenz der Deletionsmutanten. Kürzlich wurde ein aquatisches Francisella Umweltisolat in Deutschland gefunden, welches nicht zu Ft gehört. Das Francisella W12-1067 Isolat (F-W12) ist mit aquatischen Allofrancisella Stämmen aus China nah verwandt. F-W12 verfügt nicht über die FPI, dennoch konnten in silico putative Francisella Virulenzfaktoren und FPI-ähnliche Genominseln identifiziert werden, die für ein alternatives T6SS kodieren könnten. Im Rahmen dieser Arbeit wurde versucht das von F-W12 ausgehende Pathogenitätsrisiko besser zu verstehen. Trotz fehlender intrazellulärer Replikation war der F-W12 Stamm in der Lage in Makrophagen, Alveolarepithelzellen, Acanthamoeba lenticulata und im humanen Lungengewebe zu persistieren. Während der intrazellulären Persistenz-Phase scheint F-W12 das Phagosom in den Makrophagen nicht zu verlassen und verhält sich damit wie eine natürliche Francisella T6SS-Deletionsmutante. Die Untersuchungen zu den FPI-ähnlichen Genominseln in F-W12 zeigten, dass hier Genprodukte mit Homologien zu Proteinen einer anderen FPI-ähnlichen, aber noch wenig verstandenen Genominsel von Francisella novicida kodieren. In dieser Arbeit konnte gezeigt werden, dass die F-W12 Homologen von Francisella IglC und VgrG exprimiert und sekretiert werden. Darüber hinaus konnte, wie bereits für VgrG von Francisella bekannt, die Bildung von VgrGW12-Multimeren nachgewiesen werden. Zur weiteren Risikoabschätzung des F-W12 Stammes wurden mithilfe des „Scatterscreens“ experimentell Faktoren bestimmt, die in der F-W12-Amöben-Interaktion involviert sind. Der Scatterscreen wurde ursprünglich für die Identifikation von Virulenzgenen in einer Legionella Transposon-Mutantenbank mithilfe von Amöben entwickelt. In dieser Arbeit wurden unter der Verwendung von A. lenticulata 29 putative Gene für die Francisella-Amöben-Interaktion identifiziert. Dabei konnten bereits für Francisella beschriebene Virulenzfaktoren (relA, galU, glpD), Virulenzgene anderer Bakterien (ftsH, mlaA, mlaD) sowie F-W12-spezifische Faktoren gefunden werden. Demzufolge verdeutlichen die Ergebnisse dieser Arbeit, dass eine Pathogenität des F-W12 Stammes nicht grundsätzlich ausgeschlossen werden kann. Durch die Transposon-Insertion wurde beim Scatterklon #50 die Glucokinase (glk) inaktiviert. Mithilfe von [U-13C6]-Markierungsversuchen konnte gezeigt werden, dass glk für die Verwertung von Glucose in F-W12 essentiell ist. Eine glk-Inaktivierung führte zum reduzierten in vitro Wachstum, welches durch die trans Komplementation mit glk wieder aufgehoben werden konnte. Des Weiteren wurde in silico ein putatives Gencluster des Myo-Inositol-Stoffwechsels im F-W12 Stamm gefunden. Es konnte experimentell gezeigt werden, dass Myo-Inositol als Energie- und Kohlenstoffquelle zum Wachstum im Wildtyp F-W12 verwendet wird. Im Gegensatz dazu konnte eine Deletionsmutante des Genclusters das Myo-Inositol nicht nutzen. Dieser Effekt war mithilfe der trans Komplementation des Gencluster komplementierbar. Zusätzlich konnte der Umsatz von 2H6-Myo-Inositol durch Markierungsversuche bestätigt werden. Als weiterführende Analyse der Francisella Virulenz wurde im Rahmen dieser Arbeit ein ex vivo Lungeninfektionsmodell etabliert, welches es ermöglicht in einem komplexen 3D-System, die Replikation von verschiedenen Francisella Isolaten zu untersuchen. Dabei wurde der attenuierte Phänotyp des Fth Impfstammes gegenüber einem Fth Wildtypisolat erkennbar. Somit bot das ex vivo Lungeninfektionsmodell einen Vorteil gegenüber in vitro Infektionsmodellen, da in vitro der attenuierte Phänotyp generell nicht sichtbar wird. Die molekularepidemiologischen Untersuchungen der Genome von 23 Fth Isolate aus den Jahren 2016 - 2019 offenbarten eine relativ große Fth Stammvielfalt innerhalb Deutschlands. Es wurden Vertreter beider in Europa verbreiteter phylogenetischer Kladen gefunden (B.6 und B.12). Des Weiteren war es möglich in Rahmen dieser Arbeit einen ungewöhnlichen Tularämie-Ausbruch bei einer Weintraubenlese in Deutschland zu untersuchen. Hierbei konnte die DNA des Fth-Ausbruchsstamms klassifiziert und die potentielle Kontaminationsquelle (Waldmaus) identifiziert werden.
View lessDer landwirtschaftliche Strukturwandel in Deutschland beinhaltet eine tendenzielle Entwicklung von milchproduzierenden Betrieben zu steigender Tierzahl und höherer Milchleistung sowie zu mehr Spezialisierung und größerem Fachwissen der Landwirte. Dieser Fortschritt wirkt sich auch auf angrenzende Wirtschaftszweige der Landwirtschaft aus, wie zum Beispiel auf die Veterinärmedizin. Tierärzte wurden seit jeher für die Tiergesundheit auf landwirtschaftlichen Betrieben zu Rate gezogen, jedoch wird von vielen Quellen beschrieben, dass Nutztierveterinäre immer weniger zu kurativen Notfällen als zu beratenden Aspekten benötigt werden. Diese Beraterposition birgt mögliche Konkurrenzsituationen zu dem Fachwissen der Landwirte selbst und externen Fachberatern, außerdem stellt sie das bisherige Ausbildungsprogramm junger Tierärzte infrage.
Ziel dieser Studie ist es zu ermitteln, für welche Aspekte milchliefernde Landwirte der Bundesrepublik Deutschland Tierärzte derzeit benötigen und wie sie den Bedarf an tierärztlicher Tätigkeit in zehn Jahren einschätzen.
Durchgeführt wurde eine online-Umfrage von Anfang Oktober bis Ende November 2018, die über verschiedene Vereine, Verbände, Landwirtschaftskammern und Zeitschriften den Landwirten zugänglich gemacht wurde. In der Umfrage werden die Teilnehmer überwiegend nach Charakteristika und Leistungen eines für sie idealen Tierarztes in der heutigen Zeit und in der Zukunft befragt. Die Ergebnisse der 1053 teilgenommenen Landwirte werden mittels MS Excel und SPSS Statistik-Programm analysiert und Unterschiede zwischen den Resultaten mit Chi-Quadrat-Tests auf Signifikanzen überprüft. Die Probanden werden nach verschiedenen Kriterien in Gruppen eingeteilt: Bis zu 30 Jahre alte Teilnehmer werden als junge Landwirte bezeichnet, deren Antworten für die Fragestellung der zukünftigen tierärztlichen Tätigkeiten von besonderer Relevanz sind. Betriebe, die eine Milchleistung von über 10.000 kg angeben und über 500 Kühe halten, bilden die Gruppe der progressiven Betriebe, die im Rahmen des Strukturwandels den Betrieb der Zukunft darstellen. Des Weiteren werden die Teilnehmer nach Standort ihres Betriebes in die Regionen Nord-West, Ost und Süd gegliedert, um regionale Tendenzen ausmachen zu können.
Die Mehrheit der Befragten bewertet es als wichtig, dass eine ideale Tierarztpraxis rund um die Uhr für Notfälle erreichbar ist (83%), eine kurzfristige Medikamentenabgabe ermöglicht (82%), Fachtierärzte für Rinder beschäftigt (78%) und auf Milchrinder spezialisiert ist (73%). Mit dem tiermedizinischen Leistungsangebot ihrer Region zeigen sich 63% der Landwirte zufrieden. Ein idealer Tierarzt sollte ein verlässlicher Partner in schwierigen Zeiten sein (89%), sich Zeit für Diskussionen und Gespräche nehmen (84%) und eine Fachtierarztausbildung für Rinder absolviert haben (67%). In Zukunft wird für 71% der teilnehmenden Landwirte der Tierarzt als verlässlicher Partner und für 63% der Fachtierarzt für Rinder an Bedeutung zunehmen. Dass die Landwirte Medikamente zur eigenständigen Behandlungsfortführung erhalten, ist 85% von ihnen wichtig.
Acht der zehn erfragten kurativen tierärztlichen Leistungen sind für mehr als die Hälfte der Teilnehmer wichtig, sowohl Notfallmaßnahmen wie das Beheben von Geburtskomplikationen (89%) und das Durchführen von Operationen (88%), als auch Routineleistungen wie die Behandlungen von Milchfieber (69%) oder Mastitiden (68%). Keine der Leistungen wird in der Zukunft für die Mehrzahl der Teilnehmer an Wichtigkeit gewinnen. Tendenziell wird die kurative tierärztliche Arbeit von Landwirten, die an einer ITB teilnahmen oder daran Interesse zeigen, wichtiger bewertet.
An einer ITB nehmen 50% der Landwirte teil und von denjenigen, die nicht teilnehmen, bekunden aber 55% Interesse. Fünf der neun erfragten möglichen Leistungen in der ITB werden von der Mehrheit der Teilnehmer als wichtig bewertet – vor Allem das Erkennen und Bekämpfen subklinischer Erkrankungen (72%) und die Tiergesundheitsprophylaxe (70%). In Zukunft wird hauptsächlich die Tiergesundheitsprophylaxe (62%) und die Fruchtbarkeitsberatung (54%) an Bedeutung zunehmen.
Im Falle eines neuen Herdenproblems ist den Teilnehmern das Beraten mit ihrem Tierarzt (84%), das selbständige Auswerten von Herdendaten (59%) und das Beraten mit einem entsprechenden Fachberater (57%) am wichtigsten. Besteht ein Herdenproblem schon über einen langen Zeitraum, so bewerten 73% der Landwirte das Beraten mit ihrem Tierarzt, 60% das Beraten mit dem Fachberater und 51% das eigenständige Auswerten von Herdendaten als bedeutsam.
Die Mehrzahl der Landwirte sieht Gründe für eine Reduktion tierärztlicher Bedeutung in einem besseren Management, das Krankheitsfälle verhindern (67%) und in einer besseren technischen Ausstattung, die Krankheitsanzeichen früher erkennen wird (62%).
Unseren Ergebnissen nach genießt der Tierarzt unter deutschen Landwirten ein hohes Ansehen. Sowohl kurative als auch beratende Tätigkeiten werden als sehr bedeutsam eingestuft. Die kurativen Leistungen verlieren zukünftig nicht an Relevanz, aber vermutlich an Frequenz. Die Beratungsthemen werden sich überwiegend auf Tiergesundheitsaspekte beschränken. Insbesondere zwischen den Regionen zeigen sich große Unterschiede in den Bewertungen der tierärztlichen Leistungen. Die ITB stellt ein wirksames Instrument dar, Landwirte kurativ und beratend zu binden und eine langfristige Zusammenarbeit zu sichern. Ziel sollte die fachliche Qualifizierung und Spezialisierung von Tierärzten sein, um den stetig steigenden Ansprüchen der Klienten gerecht zu werden.
View lessKognitionsstörungen nach Herzoperationen insbesondere mit HLM lassen sich häufig sowohl frühpostoperativ aber auch noch nach Monaten nachweisen. Sie treten zunehmend häufiger auf, da immer ältere Patienten operiert werden, welche ein höheres Risiko für diese Komplikation aufweisen. Klinisch sind sie vor allem deswegen relevant, weil sie mit einer erhöhten Liegezeit im Krankenhaus, einem geringeren Rehabilitationspotential und nicht zuletzt mit einer erhöhten Mortalität assoziiert sind. Die Genese von Kognitionsstörungen ist multifaktoriell und umfasst sowohl patientenseitige als auch operationstechnische Aspekte. Neben der Narkose spielen auf Seiten der Operation vor allem diverse Mikro- und Makroembolien verursachende Techniken und Materialen eine Rolle, welche es zu optimieren gilt. Ziele: Es wurde angestrebt, durch die kognitionsbezogene Evaluation verschiedener bei Herzoperationen verwandter Materialen und Techniken als auch möglicher zerebroprotektiver Medikamente, weitere Möglichkeiten aufzuzeigen, um perioperative Kognitionsstörungen zu reduzieren. Methode: Dazu wurden herzchirurgische Patienten mit Hilfe einer neuropsychologischen Testbatterie vor und nach der Operation untersucht. Es wurden jeweils in einzelnen, klinischen Untersuchungen konventionell chirurgische gegen kathetergestützte Aortenklappenimplantationen, Zentrifugalpumpen gegen Rollerpumpen der HLM, einfache gegen duale Plättchenaggregation, und Piracetam gegen Placebo bei Bypassoperationen und bei linksseitigen Klappeneingriffen verglichen. Ergebnisse: Es zeigte sich zum einen, dass sich mit der kathetergestützten Aortenklappenimplantation als auch mit der Gabe von Piracetam bei linksseitigen Klappeneingriffen keine Verringerung der Kognitionsstörungen im Vergleich zum herkömmlichen Vorgehen erzielen lässt. Andererseits konnten für die Bypassoperation mehrere effektive Ansätze zur perioperativen Protektion der kognitiven Fähigkeiten aufgezeigt werden. So führte sowohl die präoperative Gabe von Piracetam als auch eine duale Thrombozytenaggregationshemmung mit Aspirin und Clopidogrel zu einem signifikant geringeren Abfall der neuropsychologischen Funktion der Patienten. Ein ähnlich positiver Effekt ließ sich bei der Verwendung von Rollerpumpen als Teil der HLM während der chirurgischen Koronarrevaskularisation nachweisen. Schlussfolgerung: Somit konnten vor allem für die Bypassoperation das gesetzte Ziel erreicht werden, da drei effektive Maßnahmen zur Reduktion des postoperativen Kognitionsdefizites aufgezeigt werden konnten.
View lessEven though the eruption of Shakespeare’s Hamlet in everyday performative situations, Verities, and the Variable theatrical performative world is common, understood, and accepted over the centuries, the reasons for its return are not fully explored. Deciphering the mechanisms through which it has survived provide a good model for sprouting the contemporary theater of Pakistan. An overview or ‘thinking’ of its semiotic renditions into variegated forms, without analysis based on discrimination, helps in focusing upon some of the essentials that enable the performance text to survive through times. My work involves one such analysis. The objective of this study was to examine two questions: first, why does Hamlet constantly return in the contemporary performance? Second, is there a similar text, character or situation, in Pakistan through which we can structure the performance art of the country? To examine these questions, I explored the literary and performance texts of Hamlet as well as the literary theory, especially Affect Theory and Performance Philosophy. This study displayed a connection between history, culture, affect, and audience. In fact, I could link the Traditional Punjabi Performers of ‘Vaar’ or folk ballads with the performers affected by the strong history and culture based affective field of Hamlet. However, I found Vaari performers relied upon their voice and history based oral narrative and not on the text. This recognition suggests that Pakistan can build upon the historically popular oral narratives to frame its theater. I found that writers steeped in history and cultures of the country have already made such attempts. In future, theater of Pakistan may focus on developing, disrupting and re-performing these narratives. This dissertation highlighted the re-birth of the ‘Vaari’ as the means of reviving performance art in Pakistan.
View lessDie autoimmune Myasthenia Gravis ist eine seit vielen Jahren bekannte und in ihrer pathophysiologischen Endstrecke relativ gut charakterisierte antikörpervermittelte Autoimmunerkrankung. Es ist jedoch weiterhin unklar, wie das komplexe Zusammenspiel der verschiedenen Zellen des Immunsystems, die an der Initiierung einer Antikörperproduktion beteiligt sind, bzw. beteiligt sein können zur Bildung von Antikörpern führen, die im Fall der Myasthenie gegen körpereigene neuromuskuläre Strukturen gerichtet sind. In dieser Habilitationsschrift werden Arbeiten vorgestellt, die sich mit der Pathophysiologie der Myasthenie sowohl im experimentellen System als auch in der Erkrankung beim Menschen befassten. Dabei konnte im Mausmodell der Myasthenie, der EAMG, gezeigt werden, dass die Anwesenheit von TH17 Zellen essentiell dafür ist, dass die humorale Immunreaktion sich gegen den eigenen Körper richtet und somit zur Erkrankung führt. Bei MG Patienten konnte diese Arbeiten zeigen, dass Besonderheiten in der Homöostase naiver CD4+ T Zellen dazu führen, dass eine größere Zahl potentiell autoreaktiver naiver CD4+ T Zellen in der Peripherie vorhanden ist. Andererseits war jedoch auch eine Untergruppe von regulatorischen, immunsupprimierenden T Zellen bei MG Patienten signifikant vermindert, so dass ein Zusammenspiel dieser Faktoren die Entstehung von Autoimmunität fördern könnte. Als Zeichen für die pathologische Aktivierung der humoralen Immunität konnten wir dann auch eine erhöhte Frequenz an antikörperproduzierenden Plasmablasten im Blut von MG Patienten nachweisen, welche durch Kortikosteroide auf Werte ähnlich derer gesunder Kontrollen reduziert werden. Eine weitere Studie erforschte einen neuen medikamentösen Ansatz zur Therapie der Myasthenie, die funktionelle Blockade des S1P Rezeptors, welche bereits erfolgreich prophylaktisch im murinen Modell eingesetzt worden war. Es konnte jedoch im therapeutischen Ansatz im Mausmodell kein signifikanter Nutzen, weder auf Antikörperspiegel noch auf klinische Parameter, nachgewiesen werden. Somit konnten im Rahmen dieser Habilitation eine Reihe von neuen pathophysiologischen und therapeutischen Erkenntnissen erhoben werden, die dazu beitragen, die komplexen immunologischen Vorgänge bei der MG besser zu verstehen. Darauf basierend sollte dann zukünftig eine bessere, zielgerichtetere Therapie von MG Patienten möglich werden.
View lessBasierend auf frühere Befunde wurde eine Typologie entwickelt, die vier verschiedene Typen von sozio-motivatonaler (Un-)Abhängigkeit unterscheidet, den lehrer-abhängige Typ, den peer-abhängige Typ, den lehrer-und-peer-abhängige Typ und den lehrer-und-peer-unabhängigen Typ. Das Ziel dieser Dissertation ist es, ein besseres Verständnis der Typologie und der sozio-motivatonalen (Un-)Abhängigkeit während der frühen und mittleren Adoleszenz zu geben. Dabei wird erforscht, wie sich die Wahrnehmung von Schülern in Bezug auf Lehre und Peers als Motivatoren unterscheiden und verändern. Die Ergebnisse dieser Dissertation helfen, den Zusammenhang zwischen sozialen Beziehungen in der Schule und schulischer Motivation besser zu verstehen.
View lessTranscription is the initial step of gene expression in all domains of life. Antagonizing between termination and pre-mature transcription prevention (anti-termination) is a key aspect for gene expression regulation. λ phage protein N mediated anti-termination and ribosomal RNA anti-termination are two model processive anti-termination processes, both of which include NusA, NusB, NusE, NusG and additional factors. Although the topic has been investigated for more than 30 years, research have so far failed to uncover the structural basis for the complete transcription anti-termination complexes (TAC) and the detailed molecular mechanisms for antitermination. To address these aspects, here we report: (i) a cryo-electron microscopy (cryo-EM) structure of the entire λN-TAC, which contains a nucleic acid scaffold harboring nut RNA and an artificial transcription bubble, all Nus factors and λN; (ii) a crystal structure of the novel rrnTAC member SuhB complexed with the AR2 domain of NusA; and (iii) cryo-EM structures of rrnTACs composed of all Nus factors, SuhB with or without r-protein S4 on a rrnG leader region regulatory RNA (rrnGnut). Additionally, we applied biochemistry to clarify the basic mechanisms of the two anti-termination processes. The λN protein appears to have an “all-purpose” role in the λN-TAC. Firstly, it repositions NusA and remodels the β-subunit flap tip, by which the pause and termination hairpin formation and stabilization are disturbed. Secondly, by contacting upstream DNA in one side and holding it close to NusG, λN supports anti-backtracking. Third, λN helps in maintaining the elongation competent state of RNAP by invading and contacting along the hybrid cavity and RNA exit channel with its flexible C-terminus. Furthermore, ρ-dependent termination is counteracted due to the λN-induced repositioning of NusA and NusE, which sequesters the NusG C-terminal domain. The functional contributions of the novel rrnTAC member, SuhB, are currently unclear. With analytical size exclusion chromatography (analytical SEC), we show SuhB directly binds rrnGnut RNA at boxA-boxC spacer region and complexes with NusA stably. AR2 domain of NusA is identified to be the major binding platform for SuhB by further investigation. NusA and rrnGnut are required for SuhB to be successfully recruited to rrnTAC, while in turn SuhB is necessary for NusB/E integration. In vitro transcription assays revealed that SuhB is crucial for delaying or suppressing ρ-dependent termination as well as intrinsic termination. We also determined the crystal structure of SuhB-AR2 complex to elucidate the atomic basis. In vitro transcription using structure-guided mutations revealed the SuhB-AR2 interaction is required for anti-termination. We then applied single-particle cryo-EM analysis with rrnTAC assembled with and without S4 and gained a map at a global resolution of 3.3 Å. The structure reveals that rrnTAC adopts a similar strategy to λN-TAC in suppressing transcription termination and pausing. In vitro transcription assays and psoralen crosslinking further explain that rrnTAC accelerates global transcription rate via transcriptional pausing inhibition. Moreover, combining the structure basis and stopped-flow experiments based on co-transcriptional folding of iSpinach RNA and FRET base annealing assays, our study strongly suggests the idea that the modifying RNP resides around the RNA exit tunnel as a composite RNA chaperone. With this research of the two model anti-termination complexes and other recent structural studies of bacterial transcription regulation complexes, the general strategies for processive anti-termination can be recapitulated.
View lessMicroglia are resident innate immune cells that maintain homeostasis and sense a range of pathophysiological impairments within the central nervous system (CNS). Based on their involvement in brain disease progression, microglia-targeted therapy has emerged as a potential approach for reducing the burden of CNS disease. Microglia activation requires the activation of different signal pathways via neurotransmitters, neuropeptides and/ or other extracellular molecules, which each can be targeted. The neuropeptide VGF (non-acronym) is secreted by neurons and hydrolysed into biologically active peptides. One of these peptides is TLQP21, which binds to the complement receptors C1qbp and C3aR1. Although both receptors are expressed in microglia, the effect of TLQP21 on microglial cells has not been elucidated. The goal of the first study in the present dissertation was to determine whether TLQP21 might be a useful target in modulating microglial function. I demonstrate that exogenous application of TLQP21 stimulates microglial outward rectifying potassium (K+) currents, intracellular calcium (Ca2+) release, phagocytosis, and migration in C3aR-dependent manner. Interestingly, C3aR1 receptors were only expressed in microglia in vitro, but not in situ; suggesting that their expression might vary between different microglial activation states. Furthermore, in vitro and in situ activation of C1qbp leads to TLQP21 interference with metabotropic purinergic signalling (P2Y) in microglia, thereby, decreasing P2Y12-mediated activation of K+ conductance, microglia migration and laser lesion-induced processes outgrowth, as well as P2Y6-mediated phagocytic activity. Next, I examined other possible P2Y regulators in microglia. Neurofibromin is a known downstream effector of tyrosine kinase receptors and G protein-coupled receptors that indirectly regulates cyclic AMP (cAMP) levels through purinergic receptors. Mutations on this protein results in Neurofibromatosis type 1 disease (NF1). In the second study, a mouse model of NF1 with heterozygous neurofibromin knockout (Nf1 +/-) was employed. Interestingly, only male Nf1 +/- microglia showed impaired ATP-induced P2Y-mediated membrane currents and P2Y-dependent laser lesion-induced process movement in situ. Moreover, I found that the P2Y-control of microglial phagocytosis was only affected in male Nf1 +/- mice. In contrast, basal phagocytic activity was reduced in both male and female Nf1 +/- mice. Studying the neurofibromin downstream signaling intermediate, cAMP, revealed that male Nf1 +/- mice exhibited defects in cAMP regulation. Pharmacological blockade of phosphodiesterase III enzyme rescued these defects. The extracellular matrix (ECM) contains other factors that likely regulate the activity of microglia. In my third project, I studied Tenascin C (TNC), an ECM glycoprotein that activates Toll-like receptor 4 (Tlr4) expressed in microglia using TNC KO and Tlr4 KO mice. I found that TNC regulates microglial phagocytic activity in situ at an early postnatal age (P4) partially via Tlr4 activation. Furthermore, TNC regulates pro-inflammatory cytokine/chemokine production, chemotaxis and phagocytosis in Tlr4-dependent manner in vitro. Interestingly, the effect of TNC on microglia was linked to the expression of histone-deacetylase 1 (HDAC1) in microglia, which itself was induced by TNC. The use of MS-275 (HDAC1 inhibitor) attenuated TNC-induced microglia proinflammatory cytokines. In summary, the present dissertation demonstrates that TLQP21, NF1, and TNC are critical modulators of microglial function, suggesting that they might serve as promising targets to correct microglial dysfunction in the setting of CNS disease
View lessValue creation is a central concept of marketing which is acknowledged by both scholars and practitioners. A comprehensive understanding of how value creation takes place helps service providers better integrate their offerings into customers’ activities and meet customers’ needs. Since research has not paid much attention to the impact of psychological ownership (PO) on value in use in the service fields, nor to the impact of pricing systems on value in use in business markets despite their obvious important relations, the focus of this dissertation is therefore to address these research gaps. By providing insights on both important variables (PO and pricing systems), which significantly influence customers’ usage process and thus experienced value in use, the research goal of this dissertation is to deepen the understanding of value creation process and is achieved through three different research projects with different focus. The first research project investigates the impact of PO on value in use in a car sharing context. Specifically, it investigates how the degree of perceived PO affect the value in use customers perceive in service usage processes and the relational outcomes satisfaction, affective commitment and WOM intention. The result of this paper helps researchers and practitioner to extend the understanding of PO’s impact from organizational fields to service fields. By confirming PO as a phenomenon that exists not only within organizations (by employees) but also in customer-provider relationships, at the meantime, being an important driver of value-in-use perceptions, it gives practitioners guidance to improve service design in the sense that service offerings should be adapted to the PO motives accordingly. In particular, PO has the strongest impact on the value-in-use dimension “Self-fulfillment”, followed by “Productivity”. Companies thus can, for instance, customize their service offerings with respect to individual consumers so that “Self-identity” will be enhanced. Moreover, this study also showcases that the value-in-use dimensions “Convenience” and “Hedonistic benefit” significantly affect all investigated relational outcomes, which helps service providers understand the importance to improve the experience of the identified value-in-use dimensions, as the relational outcomes satisfaction, affective commitment and WOM intention have a high impact on customer loyalty and firm performance. The second research project follows the research direction pointed out in the first project, which is to investigate how PO changes over time and how it leads to changes in the experienced value in use in a multi-actors’ value creation process. The results of this project confirm the dynamic nature of PO and showcases precisely how PO evolves which is driven by the perceptions and weights shifting on each root of PO (self-identity, self-efficacy, having a place, accountability, and territoriality). The results thus help service providers understand PO is not a fleeting or temporary phenomenon, but consistently reassembles and affects customers’ future usage behavior. Moreover, this paper identified the process from PO forming to the weight-shifting of PO roots and named it as the circular approach of PO which includes three procedures: Forming – Fulfilling and Hindering – Reassembling. This so-called circular approach of PO as a cognitive process shapes the view of other actors and the focal actor themselves, hence capturing how individual and collective values are formed through the interplay of their ongoing intertwined experiences. Service providers need to understand that customers’ PO can be changed and shaped via external efforts. To achieve value co-creation and to avoid value co-destruction, service providers may take opportunities to interact with customers in order to contribute to the shaping of customers’ perceived PO, seeking to change customers’ existing PO from preventative to promotive, since promotive PO is the key to symbiosis. The third project investigates the impact of pricing systems in business markets. Despite the tremendous amount of research into the roles and interrelations of the two concepts in B2C markets, pricing systems and usage process have been largely treated separately despite the acknowledgement that they are related in business markets. In order to articulate the precise nature of their relationship, a dynamic conceptual framework is built in this project to link pricing systems and value in use in the two spheres of suppliers and customers. The results of this project help both supplier and customer firms to understand that pricing systems are not supposed to influence usage processes directly but indirectly. Moreover, it is the actual experienced value embedded within an offer based on certain pricing systems that influences usage processes. Moreover, by presenting testable research propositions derived from the conceptual framework which identified potential value conflicts between different parties in a giving pricing system, it opens vast research opportunities. The result of this paper not only listed literatures on measuring each value concepts (e.g. value in use, expected relationship value), it also gave clear guidance on methodologies (e.g. survey, case studies, interviews) on future research in testing the propositions. Lastly, the results showed that none of the single-part pricing systems are optimal in the long run in obtaining a sustainable relationship value, it called out attention in researching and introducing a multi-part pricing system which includes both usage-independent and usage-dependent elements to enforce a better relationship value between suppliers and customers. In a nutshell, this dissertation investigates value in use with respect to research questions incorporating theory from PO as well as pricing systems. The results contribute to current marketing literature regarding value creation and extend the understanding of customer’s usage processes, therefore open vast opportunities for future research. The implications embedded within each project also offer clear paths for practitioners to improve their service offerings.
View lessAn energy economy based on H2 from water electrolysis is perhaps the most promising answer to manmade climate change. So far an incomplete understanding of the interfacial electrochemistry of water electrolysis prevents us from building the best water splitting devices possible. In particular the catalysts on which the involved reactions occur offer room for improvement. In this thesis, I adress urgent open questions regarding both the reductive and oxidative half-cell reactions of water electrolysis, the hydrogen evolution reaction (HER) and the oxygen evolution reaction (OER), respectively, on Pt and Au. Prior work clarifies that the rate of these reactions depends on all aspects of the interface: electrolyte and electrode composition and structure. Pt was chosen for investigating the HER because of its unique combination of activity and stability; Au is a useful model system for OER electrocatalysis.
On Pt single crystals and a microelectrode, I have investigated the HER and adsorbed H, Pt-H, electrochemically and by sum frequency generation (SFG) spectroscopy in the presence and absence of a pulsed, ultrashort near-IR perturbation that triggers charge transfer and the HER on a femtosecond timescale. The HER reaction intermediate, monocoordinated Pt-H, is concluded to exist in an equilibrium with two- and threefold coordinated Pt-H and a solvated interfacial proton (possibly an oxonium ion) that is in contact with the Pt surface. I find that charge transfer from Pt to the liquid side is only possible on femtosecond timescales if interfacial electrolyte and adsorbates are in a particular goldilocks structure. It is further concluded that the HER on Pt is enabled when approaching its onset potential by a change in the interphase that increases the mobility of adsorbed H on subpicosecond timescales, possibly by a change in H adsorption energies in different sites and in interfacial solvent structure.
Surface oxidation is a prerequisite for the OER and a function of surface structure. Here I investigate the spatial heterogeneity of surface electrooxidation and OER activity on poly- and nanocrystalline Au electrodes by second harmonic (SH) microscopy. I show that the SH signal of the unoxidized surface can be used to predict patterns in surface reconstruction that occurs during potential cycling. I find that OER activity is highly local and bound to two distinctive types of defects. The first is stable with respect to surface atom reconstruction and extends into the bulk, while the second, a pure surface defect, is not. From work on the OER on Pt conducted within the scope of this thesis, I conclude that higher oxidation states of Pt (> +II) are not OER active.
Finally, the adsorption of H2SO4 and HClO4 derived anions to a Pt(111) electrode was studied by SFG, as anion adsorption influences HER and OER. SO4_2- (and not HSO4_- ) was identified as the adsorbate in H2SO4. The potential dependence of the optical response of SO4_2- adsorbed on Pt(111) was quantitatively explained by a microscopic model. ClO4_- adsorption was only observed after Pt(111) had been covered by OH at higher potentials, but not on the bare metal. Also, two distinct ClO4_- subpopulations, compared to only one for SO4_2-, were found.
The insights gained within the scope of this thesis and the employed methods may assist us in building better catalysts for water electrolysis in the future.
View lessA methyl group deposited on cytosines incorporated into the sequence of the DNA, so called DNA methylation, decorates the genomes of a large number of species, from archaea to man. Over the last two decades, a large body of research discovered that this small chemical moiety elicits a profound effect on the gene expression program. In particular, DNA methylation restricts transcriptionally active regions of the genome, therefore ensuring a faithful interpretation of the regulatory information encoded in the DNA sequence. This fundamental role played by the methylation of DNA helps define cell identity at a molecular level, thus it enables a biologically complex transition such as from a zygote to an organism to occur in a unidirectional and orchestrated manner. Perturbations in the pattern of DNA methylation have been frequently found in pathological processes such as tumorigenesis. The pattern of DNA methylation decorating the genome of a cell is precisely copied during cell division by maintenance machinery composed of the DNMT1 enzyme and its associated proteins. The absence of DNMT1 elicits a wide-range of deleterious effects, from loss of cell fitness of in vitro cultured cells to embryonic lethality and loss of homeostasis of somatic tissues. Previous studies reported pleiotropic effects and mutually exclusive phenotypes of DNMT1 knockout depending on the design of the study – from apoptosis and genomic instability to accelerated cell cycle and trans-differentiation. How exactly these phenotypes arise in a response to DNMT1 deficiency is unknown. We employed the state-of-the-art next generation sequencing technologies and coupled them with molecular and cell biology techniques to elucidate the causes for the loss of fitness of DNMT1-deficient human embryonic stem cells. In contrast to previous studies, we did not observe the proposed DNA damage or genomic instability. Our work demonstrated that an acute depletion of DNMT1 results in a uniform decay of DNA methylation that we characterized in depth at a single cell level. Interestingly, our transcriptome profiling in single cells followed by functional validations revealed a change in the way how the transcriptional machinery interprets the genome in the absence of DNMT1. The loss of global DNA methylation without its maintenance machinery resulted in transcriptional changes mainly related to some gonad-specific genes and also a few genes encoding key players of a signaling transduction pathway. This finding inspired us to discover that the cells deficient for DNMT1 display a lower threshold for activating transcription once challenged with external stimuli. Our findings therefore provide new insights into how genome deficient for cytosine methylation becomes transcriptionally amenable, thus capable to integrate and respond to new signals from the environment. Our work lays a foundation for future studies on how such process leads to developmental defects and disease states.
View lessDie Stellung einer Diagnose, welche häufig nur durch Identifizierung der ursächlichen genetischen Veränderung möglich ist, hat für die genetische Beratung und klinische Betreuung von Patienten mit genetisch bedingten Erkrankungen einen hohen Stellenwert. Die molekulare Grundlage etwa der Hälfte aller bekannten monogenen Erkrankungen ist bisher unbekannt Seit Verfügbarkeit der Hochdurchsatzsequenzierung konnten die Diagnoserate und Anzahl an bekannten Krankheitsgenen deutlich erhöht werden. Im Rahmen dieser Arbeit wurden mittels Hochdurchsatzsequenzierung, vorwiegend Exomsequenzierung, Blutproben von Patienten mit Skelettfehlbildungssyndromen und syndromaler geistiger Behinderung untersucht. Über internationale Kooperationen konnten Kohorten von Patienten mit neuen Krankheitsgenen bzw. neuen Krankheitsentitäten gebildet werden. Der pathogene Effekt mehrerer der identifizierten Genveränderungen wurde in funktionellen In-vitro-Studien untersucht. Im Rahmen dieser Arbeit wurden die genetischen Ursachen für Catel-Manzke- und Fontaine-Progeroid-Syndrom untersucht. Als Ursache für Catel-Manzke-Syndrom haben wir biallelische pathogene Varianten in den Genen TGDS und KYNU identifiziert. Das TGDS-Protein spielt möglicherweise eine Rolle im Proteoglykanstoffwechsel. Das Enzym Kynureninase, das durch KYNU kodiert wird, katalysiert einen Schritt in der NAD+-Synthese. Trotz der Ähnlichkeit des resultierenden Phänotyps ist ein Zusammenhang zwischen dem TGDS- und KYNU-assoziierten Pathomechanismus bislang unklar. Als Ursache für Fontaine-Progeroid-Syndrom haben wir rekurrente De-novo-Varianten in SLC25A24, welches für einen mitochondrialen ATP-Mg/Pi-Transporter kodiert, identifiziert. In vitro wiesen wir eine mitochondriale Schwellung und Dysfunktion nach, welche bisher nicht als Ursache für Kraniosynostose-Syndrome beschrieben wurden und ihre pathogene Wirkung durch einen Einfluss der zellulären Differenzierung in den Schädelnähten entfalten könnten. Darüber hinaus wurden heterozygote pathogene Varianten in den Genen DLL1 und ACTB als Ursache für neue Formen der syndromalen geistigen Behinderung identifiziert. DLL1 kodiert für den Notch-Liganden Delta 1. Wenngleich zahlreiche Studien die Rolle des Notch-Signalweges in der Gehirnentwicklung untermauern, stellt diese Arbeit erstmals den Zusammenhang zu einem humanen primär entwicklungsneurologischen Phänotyp her. Mit der ACTB-assoziierten syndromalen Thrombozytopenie wird ein neuer Phänotyp beschrieben, der auf pathogenen Varianten in beta-Aktin beruht. Die Ergebnisse dieser Arbeit erweitern unser Verständnis der molekularen Ursachen unterschiedlicher genetisch bedingter Krankheitsbilder und geben neue Einblicke in verschiedene Mechanismen der Entwicklung des Skeletts und ZNS. Die gewonnenen Erkenntnisse können für die genetische Beratung und klinische Betreuung der betroffenen Familien genutzt werde und könnten die Grundlage für neue Therapieansätze darstellen.
View lessIn der vorliegenden Arbeit wurde die Prävalenz lumbosakraler Übergangswirbel bei drei Hunderassen (Rhodesian Ridgeback, Basset Hound und Hovawart) und eine etwaige Disposition der Tiere für eine Hüftgelenksdysplasie anhand von Röntgenaufnahmen im ventrodorsalen Strahlengang untersucht. Die Röntgenaufnahmen stammten aus HD (Hüftgelenksdysplasie) -Screeninguntersuchungen und wurden retrospektiv in Bezug auf LÜW ausgewertet und die HD-Befunde aus den Befundbögen erhoben. Die Befundung HD erfolgte nach Richtlinien der FCI (Federation Cynologique International). Für die Rasse Rhodesian Ridgeback wurden zusätzlich die ebenfalls von den Zuchtverbänden geforderten Ellbogengelenksdysplasie (ED)- und Osteochondrosis dissecans (OCD) des Caput humeri - Befunde entsprechend IEWG (International Ellbow Working Group) - Richtlinien den Befundbögen entnommen und in dieser Arbeit erstmalig mit LÜW korreliert. Insgesamt standen HD-Röntgenaufnahmen von N=2402 Rhodesian Ridgebacks, N=249 Basset Hounds und N=116 Hovawarts zur Verfügung. Zu N=1815 der Rhodesian Ridgebacks lagen Röntgenbilder der Ellbogengelenke im Grundbildpaar (jeweils kraniokaudal und mediolateral), sowie N=1788 der Schultergelenke im mediolateralen Strahlengang vor. Insgesamt 154 Bilder wurden im Zusammenhang dieser Schrift aufgrund mangelhafter Lagerungs- und/oder Röntgentechnik, Überlagerungen des Interessensbereiches mit Kot o.ä. an verschiedener Stelle nicht berücksichtigt. 427 Bilder fehlten, weil sie dem Obergutachter zugesandt werden mussten, aber nicht zurückgegeben wurden. Bei 6,7% (159/2377) Hunden der Studienpopulation wurde ein LÜW festgestellt. Rhodesian Ridgebacks waren zu 7,4% (140/2012), Basset Hounds zu 2,8% (7/249) und Hovawarts zu 2,6% (3/116) betroffen. Symmetrische LÜW wurden bei 4,6% (n=109) Hunden festgestellt, davon 5% (101/2012) bei Rhodesian Ridgebacks, 2% (5/249) bei Basset Hounds und 2,6% (3/116) bei Hovawarts. Die Prävalenz der asymmetrischen LÜW lag in dieser Studie bei 2,1% (50/2012), davon 2,4% (48/2012) bei Rhodesian Ridgebacks, 0,8% (2/249) bei Basset Hounds und keiner bei Hovawarts. Eine Geschlechtsdisposition konnte für keine der Rassen nachgewiesen werden. Die LÜW Befunde wurden mit denen der HD korreliert. Für LÜW und HD generell ergab sich keine signifikante Korrelation, weder für die gesamte Studienpopulation, noch für die einzelnen Rassen. Für die Rasse Rhodesian Ridgeback war der Zusammenhang zwischen LÜW (149/2012) und höheren Graden der HD (nicht zuchtzulassungsfähig = HD-Grad C, -D und -E) mit p<0,05 statistisch signifikant, ebenso für die asymmetrischen LÜW (48/2012) und die HD-Grade C, D und E (p<0,05). Für andere morphologische Auffälligkeiten im lumbosakralen Übergangsbereich, wie eine abweichende Anzahl von Sakralwirbeln (28/1833) oder einen veränderten Zwischenwirbelspalt zwischen letztem Lenden- und erstem Sakralwirbel (141/1825), und HD ergaben sich keine signifikanten Korrelationen, weder für die gesamte Studienpopulation, noch für die einzelnen Rassen. Die Korrelationen von LÜW mit Erkrankungen des Ellbogengelenkdysplasie-Komplexes und Osteochondrosis dissecans (OCD) des Caput humeri beim Rhodesian Ridgeback waren für LÜW und ED (p<0,01) sowie deren Schweregrade (p<0,05) und LÜW und FPC (p<0,05) sowie dessen Schweregrade (p<0,05) statistisch signifikant (ED 26/1815, FPC 23/1826). Für die OCD des Ellbogengelenkes, den isolierten Processus anconaeus ulnae (IPA) sowie die OCD des Schultergelenkes waren die Korrelationen nicht signifikant. Eine intracondyläre OCD/IOHC kam in der Studienpopulation nicht vor. Die HD korrelierte ebenfalls signifikant mit ED (p<0,001) und deren Schweregraden (p<0,001) sowie dem FPC (p<0,001) und dessen Schweregraden (p<0,001). Außerdem war die Korrelation zwischen HD und der Osteochondrosis dissecans des Ellbogengelenkes mit p<0,05 signifikant. Für die anderen Erkrankungen waren die Korrelationen auch hier nicht statistisch signifikant. Zusammenfassend unterstützen die Ergebnisse dieser Studie die Literaturangaben, die positive Korrelationen zwischen LÜW und HD aufzeigten. In dieser Studie waren die Zusammenhänge allerdings wie bei KOMSTA et al. (2015) nur für die schwereren HDFormen signifikant. Auch die in bereits vorangegangenen Studien festgestellten signifikanten Korrelationen zwischen HD und ED konnten mit dieser Arbeit bestätigt werden. Die Korrelationen von LÜW und ED, OCD, die ebenfalls statistisch signifikant waren, wurden in dieser Arbeit erstmalig untersucht.
View lessDer kraniale Kreuzbandriss des Hundes ist eines der häufigsten orthopädischen Erkrankungen und spielt dementsprechend in der modernen Tiermedizin eine wichtige ökonomische Rolle. In der Literatur sind über 120 unterschiedliche Therapieoptionen und -modifikationen beschrieben. Es wird zwischen intra- und extraartikulären sowie dynamischen Stabilisierungstechniken unterschieden. Während in der Humanmedizin der intraartikuläre Kreuzbandersatz der Goldstandard ist, ist es in der Veterinärmedizin zum aktuellen Zeitpunkt die TPLO – ein dynamisches Osteotomieverfahren. Das differenzierte Vorgehen liegt in der unterschiedlichen Ätiopathogenese und dem postoperativen Management sowie der unterschiedlichen Anatomie und Konfiguration des Kniegelenks bei Mensch und Hund begründet. Ziel ist eine Stabilisierung des Kniegelenkes zur Minimierung weiteren Verschleißes und zur Wiederherstellung der Funktionalität. In der Veterinärmedizin wurde bisher noch kein Transplantat gefunden, das in der Lage ist, das native Kreuzband zu ersetzten. Idealerweise muss es die identischen biomechanischen und physiofunktionellen Eigenschaften aufweisen und darf während des Einheilungsprozesses keiner Lockerung und Schwächung erfahren. Außerdem muss die immunologische Inertie gewährleistet sein. Fortschritte im Bereich des Tissue Engineering schaffen Möglichkeiten, die bisher existierenden Defizite auszugleichen und einen intraartikulären Ersatz des nativen Bandes zu optimieren. Beim Tissue Engineering werden Zellen, ein Trägergerüst und bioaktive Moleküle verwendet, um verletztes Gewebe zu reparieren oder ersetzen. Als Trägergerüst wurden equine und canine Sehnen verwendet, da sie ähnliche biomechanische und physiologische Eigenschaften wie das native Kreuzband aufweisen. Der strukturelle Aufbau unterscheidet sich nur geringfügig und die Immunogenität kann durch Entfernung zellulärer Bestandteile ausreichend reduziert werden. Dazu wurden die Sehnen über Nacht in destilliertem Wasser gewaschen und dann fünf Gefrier-Auftauzyklen (2 Minuten in flüssigem Stickstoff; 10-minütige Auftauphase im 37 °C warmen Wasserbad) durchgeführt. Anschließend erfolgte die Zugabe von 1%igem Triton bzw. 1%igem TnBP über 24 Stunden. Der Zelldebris wurde durch Zugabe von DNase bei 37 °C über Nacht entfernt. Nach mehreren Waschvorgängen wurden die Sehnen bei - 80 °C bis zur weiteren Verwendung gelagert. Parallel wurden mesenchymale Stromazellen aus caninem Fettgewebe gewonnen und als ASCs charakterisiert. Dazu wurden die Zellen durch Zentrifugation, Kollagenaseverdau und Sieben aus dem Fettgewebe isoliert und anschließend kultiviert. Die ASCs der 3. und 4. Passage wurden durch Zugabe von Differenzierungsmedium in osteo-, adipo- und chondrogene Linie differenziert. Der Nachweis der Osteogenese erfolgte mikroskopisch durch Färbung der gebildeten Kalziumoxalate mit Alizarin Red und quantitativ mittels Absorptionsspektroskopie. Bei der Adipogenese wurden die Fettvakuolen mikroskopisch durch Färbung mit Oil Red O nachgewiesen. Die Chondrogenese wurde in zwei- und dreidimensionaler Kultur durchgeführt und der Nachweis erfolgte histologisch durch die Alician-Blau-Färbung der gebildeten Proteoglykane. Charakterisiert wurden die ASCs weiterhin durch den Nachweis spezieller Oberflächenmarker in der Durchflusszytometrie. Anschließend wurde eine Co-Kultivierung der ASCs mit den dezellularisierten Sehnen durchgeführt, um die Viabilität zu beurteilen. Zum Schluss fand die Rezellularisierung der Sehnen mit ASCs statt und das immogene und antiinflammatorische Potenzial wurde untersucht. Die Ergebnisse zeigten, dass beide verwendeten Protokolle (Triton X-100 und TnBP) zelluläre Bestandteile effektiv aus dem kompakten Sehnenmaterial entfernen, ohne die native Struktur wesentlich zu schädigen. Histologisch waren die dezellularisierten Sehnen frei von Zellen. Lediglich im Peritendineum ist vereinzelt Zelldebris nachweisbar. Die Sehnen wiesen einen deutlich reduzierten DNA-Gehalt im Vergleich zur nativen Sehne auf. Es konnte kein signifikanter Unterschied zwischen der Dezellularisierung mit Triton X-100 und TnBP nachgewiesen werden. Weiterhin hatten dezellularisierte Sehnen einen vergleichbaren Glykosaminoglykan- und Kollagengehalt wie native Sehnen. Bei Testung der Immunogenität konnten nach umfangreicher Optimierung der Dezellularisierung keine signifikanten Interleukin-Anstiege im Vergleich zur Negativkontrollgruppe festgestellt werden. Andererseits konnte gezeigt werden, dass der IL-1-Anstieg im Vergleich zur Positivkontrollgruppe signifikant reduziert war. Wenn die Dezellularisierungsgruppe in die beiden Protokolle aufgeteilt wurde, gab es kaum einen Unterschied zwischen Triton X-100 und TnBP. Aus caninem Fettgewebe konnten erfolgreich mesenchymale Stromazellen isoliert und passagiert werden. Die caninen ASCs zeigten Plastikadhärenz und positives Proliferationsverhalten. Sie konnten in osteogene, adipogene und chondrogene Linien differenziert werden und weisen charakteristische Oberflächenmarker auf. Sie sind CD29-, CD44-, CD90- und CD105-positiv und CD14-, CD45- und MHCII-negativ. Eine Co-Kultivierung von ASCs und dezellularisierten equinen und caninen Sehnen hatte keinen negativen Effekt auf die Viabilität der Zelle, sondern zeigte einen positiven Trend. Histologisch konnte nachgewiesen werde, dass sich equine und canine dezellularisierte Sehnen mit caninen ASCs rezellularisieren lassen. Positiv sticht die Tatsache heraus, dass die Zellen auch einen Zellmantel ähnlich des nativen Synoviums um die dezellularisierte Sehne formen. Die Immunogenität der rezellularisierten Sehnen lag deutlich unterhalb der Positivkontrolle. Die Ergebnisse zeigen, dass das gewählte Modell für die Herstellung eines neuen Kreuzersatzbandes vielversprechende Ergebnisse liefert. Eine Optimierung der homogeneren Verteilung und besseren Ausrichtung der Zellen könnte mithilfe der Verwendung eines Bioreaktors erfolgen. Da die Sehnen jedoch wenige Tage nach der Rezellularisierung ins Tier eingebracht werden sollen und somit in einen natürlichen Bioreaktor eingepflanzt werden, besteht keine zwangsläufige Notwendigkeit. Dafür sind weitere Untersuchungen notwendig.
View lessThe global distribution of the cheetah (Acinonyx jubatus) has decreased dramatically during the past decades. Cheetahs are currently confined to only 9% of their former range. Approximately 77% of the cheetah range lies outside protected areas, frequently exposing cheetahs to conflict with people. Southern Africa represents with approximately 4,000 individuals the stronghold of the global cheetah population which comprises approximately 7,100 individuals. Namibia hosts approximately 1,500 individuals, which together with the cheetahs in Botswana form the largest connected population worldwide. This population is threatened because most of these cheetahs roam on livestock farms and are persecuted by farmers. From a conservation point of view it is therefore of utmost importance to develop non-lethal mitigation strategies to reduce this long-lasting farmer-cheetah conflict. This dissertation thesis was conducted to use long-term data of the Cheetah Research Project (CRP) of the Leibniz Institute for Zoo and Wildlife Research (IZW) in Berlin, Germany, to develop and test such a mitigation strategy in Namibia. In chapter 5 (publication one), I investigated the socio-spatial organization of free-ranging cheetahs on commercial farmland in central Namibia. Although cheetahs have been studied in several areas in the world for decades, their socio-spatial organization had not yet been clarified. The most comprehensive study was conducted in the 1990s in the Serengeti National Park (NP) in Tanzania and described a unique social organisation in mammals. Adult males either defended small territories separated from each other by some distance or roamed in large home ranges that encompassed several territories. The latter males are termed “floaters” and regularly visited the territories within their home ranges. Females also roamed in large home ranges which encompassed several territories but stayed mainly in the area between territories. Both territory holders and floaters can be solitary or occur in coalitions of two to three males. Subsequent studies elsewhere did not recognise such socio-spatial organization because of the method by which they categorized the individuals for data analysis. In this chapter I analysed the movement data of 133 males and 31 females to demonstrate that the socio-spatial organization of cheetahs described in the Serengeti NP also exists in Namibia. Several predictions were derived from the social organisation described for the Tanzanian cheetahs and tested with the data of the CRP. Consecutively I re-analysed published data of previous studies and could confirm the two tactics also in these datasets. Territory holder have preferred access to females, floaters heavily fight for territories, and the pattern can be found in all studies populations. Therefore I conclude, that this behavior may be a general trait of the species. In chapter 6 (publication two) we investigated the consequences of this spatial system for camera trap studies and capture-recapture models that estimate abundance and density of animal populations. Such models require high capture and recapture rates and a homogeneous detection probability of all individuals at camera trap stations. Capture and recapture rates were highest at the marking trees of territories, where territory holders frequently marked and which were regularly visited by floaters and irregularly visited by females. This meant that the detection probability at marking trees differed strongly between territory holders, floaters and females. Thus, the assumptions of most capture-recaptures models were violated in previous studies that provided abundance and density results of cheetahs by applying such techniques and are therefore likely to be biased. Chapter 6 tested the performance of four types of capture-recapture models whose assumptions permitted heterogeneity in the detection probability and compared the estimated abundance with the true abundance of cheetahs in the study area. This revealed two best suited models for the socio-spatial organization of cheetahs with one being favorable if spatial tactic is not known a priori. The results matched with the known abundances. On the basis of this information, I looked in chapter 7 (manuscript) at the local density and activity of cheetahs within the landscape and in relation to human-wildlife conflict and farm management. Some farms overlapped with a cheetah territory, others did not. The marking trees in the core area of cheetah territories had a substantially higher cheetah activity than other areas. We termed these core areas of the territories “cheetah communication hubs”, because they play an important role in the social system of cheetahs. From the perspective of the farmers, these hubs are local hotspots of predation risk for the cattle. We used an experimental approach to demonstrate that farmers who stationed their suckler cows and calves in such a hub suffered substantially higher losses of calves than farmers who had stationed their breeding herds far away from such a hub. This discovery was used to develop a livestock management plan for farmers overlapping with a cheetah hub. When their breeding herds were shifted away from the hub, their losses decreased substantially. This is because the hub did not shift, nor did the cheetahs conduct excursions to pursue and hunt the calves. Instead, they preyed on the local, naturally occurring wildlife prey. The mitigation strategy presented and tested here is therefore a highly effective and sustainable solution to reduce the farmer-cheetah conflict in Namibia and potentially also elsewhere.
View less