Automatische Verfahren ermöglichen die Analyse von PET/CT-Scans (links) zur...
Automatische Verfahren ermöglichen die Analyse von PET/CT-Scans (links) zur präzisen Vorhersage von Tumorlage und -größe (rechts).

© Gatidis S, Kuestner T. (2022) A whole-body FDG-PET/CT dataset with manually annotated tumor lesions (FDG-PET-CT-Lesions) [Dataset]. The Cancer Imaging Archive. DOI: 10.7937/gkr0-xv29

News • Tumorerkennung in PET- und CT-Scans

Neue Ideen für die KI-gestütze Analyse medizinischer Bilder

Auf Deep Learning basierende Algorithmen können Tumoren erkennen – Forscher des KIT unter den besten Teams beim internationalen AutoPET Wettbewerb

Künstliche Intelligenz kann die Auswertung von medizinischen Bilddaten verbessern. So können auf Deep Learning basierende Algorithmen die Lage und Größe von Tumoren feststellen. Dies ist das Ergebnis von autoPET, eines internationalen Wettbewerbs zur medizinischen Bildanalyse. Forscher vom Karlsruher Institut für Technologie (KIT) erreichten den fünften Platz. Wie Algorithmen in der Positronen-Emissions-Tomographie (PET) und in der Computertomographie (CT) Tumorläsionen erkennen können, berichten die sieben besten autoPET Teams in der Zeitschrift Nature Machine Intelligence

Bei der Diagnose von Krebs kommt bildgebenden Verfahren eine wesentliche Bedeutung zu. Die Lage, Größe und Art von Tumoren präzise zu bestimmen, ist entscheidend dafür, die passende Therapie zu finden. Zu den wichtigsten bildgebenden Verfahren gehören PET und CT. Erstere macht Stoffwechselvorgänge im Körper mithilfe von Radionukliden sichtbar. Bösartige Tumoren haben oft einen deutlich intensiveren Stoffwechsel als gutartige Gewebe. Verwendet wird dazu radioaktiv markierter Traubenzucker, meist Fluor-18-Desoxyglucose (FDG). Bei der CT wird der Körper in einer Röntgenröhre Schicht für Schicht durchleuchtet, um die Anatomie sichtbar zu machen und Tumoren zu lokalisieren.  

Die Leistung [...] bei der Bilddatenauswertung hängt [...] auch vom Algorithmendesign [ab], beispielsweise was die Entscheidungen bei der Nachbearbeitung der vorhergesagten Segmentierung betrifft

Rainer Stiefelhagen

Krebspatienten haben teilweise Hunderte von Läsionen, das heißt durch das Wachstum von Tumoren verursachte krankhafte Veränderungen. Für ein einheitliches Bild gilt es, alle Läsionen zu erfassen. Mediziner bestimmen die Größe der Tumorläsionen, indem sie 2D-Schichtbilder manuell markieren – eine extrem aufwendige Arbeit. „Eine automatisierte Auswertung durch einen Algorithmus würde enorm Zeit sparen und die Ergebnisse verbessern“, erklärt Professor Rainer Stiefelhagen, Leiter des Computer Vision for Human-Computer Interaction Lab (cv:hci) des KIT. 

Rainer Stiefelhagen und Zdravko Marinov, Doktorand am cv:hci, haben 2022 am internationalen Wettbewerb autoPET teilgenommen und unter 27 Teams mit 359 Teilnehmenden aus aller Welt den fünften Platz erreicht. Dabei bildeten die Karlsruher Forscher mit Professor Jens Kleesiek und Lars Heiliger vom IKIM – Institut für Künstliche Intelligenz in der Medizin in Essen ein Team. Organisiert vom Universitätsklinikum Tübingen und vom LMU Klinikum München, verband autoPET Bildgebung und maschinelles Lernen. Die Aufgabe bestand in der automatischen Segmentierung stoffwechselaktiver Tumorläsionen auf Ganzkörper-PET/CT. Für das Algorithmentraining hatten die teilnehmenden Teams Zugang zu einem großen kommentierten PET/CT-Datensatz. Alle für die letzte Phase des Wettbewerbs eingereichten Algorithmen basieren auf Methoden des Deep Learning. Dabei handelt es sich um einen Bereich des maschinellen Lernens, der vielschichtige künstliche neuronale Netze einsetzt, um komplexe Muster und Zusammenhänge in großen Datenmengen zu erkennen. Die sieben besten Teams aus dem Wettbewerb autoPET berichten nun in der Zeitschrift Nature Machine Intelligence über die Möglichkeiten automatisierter Auswertung medizinischer Bilddaten. 

Wie die Forschenden in ihrer Publikation erklären, erwies sich ein Ensemble der bestbewerteten Algorithmen als überlegen gegenüber einzelnen Algorithmen. Das Algorithmenensemble kann die Tumorläsionen effizient und präzise erkennen. „Die Leistung der Algorithmen bei der Bilddatenauswertung hängt allerdings von der Quantität und der Qualität der Daten ab, aber auch vom Algorithmendesign, beispielsweise was die Entscheidungen bei der Nachbearbeitung der vorhergesagten Segmentierung betrifft“, erklärt Professor Rainer Stiefelhagen. Um die Algorithmen zu verbessern und robuster gegenüber äußeren Einflüssen zu machen, sodass sie sich im klinischen Alltag einsetzen lassen, sind weitere Forschungsarbeiten erforderlich. Ziel ist, die Analyse der medizinischen Bilddaten aus PET und CT in näherer Zukunft vollständig zu automatisieren. 


Quelle: Karlsruher Institut für Technologie

22.11.2024

Verwandte Artikel

Photo

News • Bildgebung, KI & Proteomik

'Deep Visual Proteomics' soll Krebsdiagnostik revolutionieren

Ein deutsch-dänisches Forscherteam hat eine Technologie entwickelt, die mit zellspezifischen, protein-basierten Informationen hilft, Krebserkrankungen besser zu analysieren.

Photo

News • Bildbasierte Krebsdiagnostik

KI erkennt genetische Veränderungen von Tumoren

Forscher der Uniklinik RWTH Aachen entwickelten in Zusammenarbeit mit dem Deutschen Krebsforschungszentrums (DKFZ), dem Deutschen Konsortium für Translationale Krebsforschung (DKTK) und dem…

Photo

News • Kombination morphologischer und Zellstatusmarkern

Bessere Diagnostik von Kopf- und Halstumoren durch neues Analyseverfahren

Um den Verlauf bei Kopf-Hals-Krebs besser vorherzusagen und das Ansprechen auf Therapien zu beurteilen, analysiert eine neue Technik Krebszellen und das umgebende Gewebe auf Einzelzell-Ebene.

Verwandte Produkte

Newsletter abonnieren