The diagnosis of hypoxic-ischemic encephalopathy (HIE) following cardiac arrest is critical for timely and precise medical intervention. Current guidelines rely on various diagnostic methods, including neurological examination, biomarkers, electrophysiological measurements, and neuroradiological assessment of brain imaging. Interpretation of CT scans by neuroradiologists is time-consuming and subject to interrater variability. This dissertation aims to develop an artificial intelligence capable of accurately identifying signs of HIE on CT scans post-cardiac arrest and visualizing decision-relevant regions for the attending neuroradiologist. Initially, the most suitable neural network architecture was determined. Alongside literature review, various implementations of different networks (VGG, ResNet, DenseNet) were developed on CT images of traumatic brain injury (TBI) and qualitatively compared based on their recognition performance. The DenseNet architecture was identified as the most suitable for the available data and different variants with various input data formats (different 2D and 3D image data) were implemented. For training and testing, 168 head CT scans from a database of 483 post-cardiac arrest patients were retrospectively included in two groups: 88 scans (52.4%) with radiological evidence of severe HIE and 80 scans (47.6%) without signs of HIE. The CT images were randomly split into training and test sets at a 4:1 ratio (134:34 CTs). Five deep learning models based on Dense Connected Convolutional Networks (DenseNets) were trained on different input image formats to detect HIE features. The models were optimized for predictive confidence and evaluated using the independent test dataset. All final models successfully identified signs of HIE. The 2D models achieved the best results (S100: AUC: 94%, ACC: 79%; S50: AUC: 93%, ACC: 79%) on the independent test dataset. The 2D-NET-all model also performed similarly (AUC: 89%, ACC: 76%). The 3D-NET-all model was less effective (AUC: 70%, ACC: 50%). A network trained on a single image slice at the level of the anterior commissure yielded results equivalent to random guessing on the test dataset (AUC: 47%, ACC: 50%). Gradient-weighted Class Activation Mapping provided visual explanation of the models' decision-making process. Following further clinical validation with a larger, external dataset, the implementation of a deep learning model for HIE detection based on CT images could assist physicians in characterizing radiologic data and predicting patient outcomes.
Die Diagnose einer hypoxisch-ischämischen Enzephalopathie (HIE) nach einem Herzstillstand ist entscheidend für eine rechtzeitige und präzise medizinische Intervention. Aktuelle Leitlinien stützen sich auf verschiedene Diagnosemethoden, darunter neurologische Untersuchungen, Biomarker, elektrophysiologische Messungen und die neuroradiologische Beurteilung der Bildgebung des Gehirns. Die Interpretation von Computertomographien des Kopfes durch Neuroradiologen ist zeitaufwändig und unterliegt einer Variabilität zwischen den Beurteilern. Ziel dieser Promotion ist die Entwicklung einer künstlichen Intelligenz, die objektiv Anzeichen von HIE auf Kopf-CTs nach einem Herzstillstand erkennen und die entscheidungsrelevanten Bereiche im CT für den behandelnden Neuroradiologen visualisieren kann. Zunächst wurde die geeignetste Netzwerkarchitektur ermittelt. Neben einer umfassenden Literaturrecherche wurden diverse Implementierungen verschiedener Netzwerke (VGG, ResNet, DenseNet) auf CT-Bildern von Patienten mit Schädel-Hirn-Trauma (Traumatic Brain Injury, TBI) entwickelt und anhand ihrer Erkennungsleistung qualitativ verglichen. Die DenseNet-Architektur erwies sich für die vorliegenden Daten als am besten geeignet und wurde in verschiedenen Varianten mit unterschiedlichen Input-Datenformaten (diverse 2D- und 3D-Bilddaten) implementiert. Für das Training und die Validierung der Modelle wurden retrospektiv aus einer Datenbank von 483 Patienten nach einem Herzstillstand insgesamt 168 CT-Aufnahmen des Kopfes in zwei Gruppen eingeschlossen: 88 Aufnahmen (52,4 %) mit radiologischem Nachweis einer schweren HIE und 80 Aufnahmen (47,6 %) ohne Anzeichen einer HIE. Die CT-Bilder wurden in einem Verhältnis von 4:1 zufällig auf Trainings- und Testsätze aufgeteilt (134:34 CTs). Fünf Deep-Learning-Modelle auf Basis von Dense Connected Convolutional Networks (DenseNets) wurden auf verschiedenen Eingabebildformaten trainiert, um HIE-Merkmale genau zu erkennen. Die Modelle wurden hinsichtlich ihrer Vorhersagesicherheit optimiert und mit dem Testdatensatz evaluiert. Den finalen Modellen gelang es Anzeichen von HIE zu identifizieren. Die 2D-Modelle erzielten die besten Ergebnisse (S100: AUC: 94%, ACC: 79%; S50: AUC: 93%, ACC: 79%) auf dem Testdatensatz. Auch das 2D-NET-all-Modell erzielte eine ähnliche Leistung (AUC: 89 %, ACC: 76 %). Das 3D-NET-all-Modell schnitt weniger effektiv ab (AUC: 70%, ACC: 50%). Ein Netzwerk, das auf einem einzigen Bildausschnitt in Höhe der vorderen Kommissur trainiert wurde, lieferte nur zufällige Ergebnisse (AUC: 47%, ACC: 50%). „Gradient-weighted Class Activation Mapping“ ermöglicht die visuelle Erklärung des Ent-scheidungsprozesses der Modelle. Nach weiterer klinischer Validierung mit einem größeren, externen Datensatz könnte die Implementierung eines Deep-Learning-Modells zur Erkennung von HIE auf der Grundlage von CT-Bildern Neuroradiologen bei der Charakterisierung von Bildgebungsdaten und der Vorhersage von Patientenergebnissen unterstützen.