Hintergrund Die klinische Bildgebung umfasst eine große Bandbreite an Informationen, die zur Diagnostik, Prognose und Therapie verwendet werden können. Allerdings ist die Beurteilung radiologischer Bilddaten in der klinischen Routine oftmals subjektiv und zeitaufwändig. Mit Hilfe der U-Net-Architektur kann die Bildinterpretation objektiver und zeiteffizienter gestaltet werden. Das U-Net ist ein Modell, das der Encoder-Decoder-Struktur eine Skip-Verbindung (Englisch: „skip connection“) hinzufügt. Weil Pixelinformationen beim Downsampling und Upsamping verloren gehen, wird diese beim U-Net durch die Skip-Verbindung vom Encoder an den Decoder weitergeleitet, so dass eine genauere Vorhersage möglich ist. Dadurch kann überprüft werden, wie effizient das U-Net für die Segmentierung der medizinischen Bilder ist.
Methoden Im Rahmen dieser Studie soll eine U-Net-Architektur zur automatischen Segmentation zwecks Unterscheidung zwischen Tumor und gesundem Gewebe bei Nierenzellkarzinomen trainiert werden. Um ein Training der U-Net-Architektur zu ermöglichen, wurden alle Schichten aus 502 Computertomographie (CT)-Bildern von Patientinnen und Patienten mit Nierenzellkarzinomen vor und nach Injektion eines iodhaltigen Kontrastmittels segmentiert und anschließend mittels eines histopathologischen Referenzstandards nach Tumorentitäten klassifiziert.
Ergebnisse Für die Segmentierung der Niere und Nierenzellkarzinome durch das Deep Learning Modell sind die Ergebnisse in früheren Studien in Bezug auf den Dice Koeffizient (DSC) im Mittelfeld angesiedelt. Es zeigen sich in dieser Studie bessere Ergebnisse als im Durchschnitt der vorherigen Studien für die Segmentation der Tumore.
Schlussfolgerung Das in dieser Studie vorliegenden Arbeit verwendete Deep Learning Modells für die Segmentation der Anatomie der Nieren sowie der Detektion und Segmentation der Tumore lässt sich eine Perspektive und großes Potential für weitere Forschung in der medizinische Bildanalyse erkennen. Automatisierte Segmentationen und Tumordetektionen können die klinische Arbeit erleichtern sowie zukünftige Diagnostik und Therapien verbessern.
Background Clinical imaging can provide valuable information for the diagnosis and treatment of medical conditions. However, the interpretation of these images can be challenging and time-consuming, often relying on the expertise and experience of radiologists. The U-Net architecture is a deep learning model designed to improve the objectivity and efficiency of image interpretation by using a skip connection to transfer high-resolution information from the encoder to the decoder. The skip connection in the U-Net architecture allows fine details to be preserved during downsampling and upsampling, which can be lost in other image segmentation models. This improves the accuracy of predictions and enables the U-Net to be used for efficient segmentation of medical images.
Methods The aim of this study is to train a U-Net architecture for automatic segmentation to distinguish between tumor and healthy tissue in renal cell carcinoma. To train the U-Net architecture for automatic segmentation of renal cell carcinoma, a dataset of computed tomography (CT) images of patients with this disease must be created. This dataset will be generated by segmenting all slices from 502 CT images of patients with RCC before and after injection of an iodine-based contrast agent, and then classifying the segments according to tumor entities using a histopathological reference standard.
Results For the segmentation of kidney and renal cell carcinoma using the deep learning model, the results in previous studies are in the middle regarding the Dice Similarity Coefficient (DSC). This study shows better results than the average of previous studies for tumor segmentation.
Conclusion Using deep learning models for medical image analysis can greatly improve the efficiency and accuracy of segmentation and tumor detection, leading to improved diagnostic and therapeutic outcomes. In addition, automated segmentation can reduce the workload of clinicians, allowing them to focus on other important tasks. This research highlights the potential for further studies in this area to further advance medical image analysis.