Dank künstlicher Intelligenz ist die AIMOS-Software in der Lage, auf dreidimensionalen Graustufenbildern Knochen und Organe zu segmentieren, was die anschließende Auswertung erheblich erleichtert

Bild: Astrid Eckert / TUM

Deep Learning blickt unter die Haut

Selbstlernende Algorithmen analysieren medizinische Bilddaten

Bildgebende Verfahren ermöglichen einen detaillieren Blick ins Innere eines Organismus. Doch die Interpretation der Daten ist zeitaufwändig und erfordert viel Erfahrung. Neue Möglichkeiten eröffnen künstliche neuronale Netzwerke.

Sie benötigen nur Sekunden, um Ganzkörperscans von Mäusen auszuwerten und die Organe, statt in verschiedenen Schattierungen von Grau, zu segmentieren und in Farbe darzustellen. Dies erleichtert die Auswertung erheblich.

Zusammen mit einem interdisziplinären Forschungsteam hat Oliver Schoppe jetzt selbstlernenden Algorithmen entwickelt, die künftig bei der Analyse biowissenschaftlicher Bilddaten helfen können. Die Wissenschaftler veröffentlichten ihre Erkenntnisse jetzt im Journal Nature Communications.

Wie groß ist die Leber? Verändert sie sich durch die Einnahme von Medikamenten? Ist die Niere entzündet? Befindet sich im Gehirn ein Tumor? Und hat dieser bereits Metastasen gebildet? Um solche Fragen beantworten zu können, mussten Biowissenschaftler und Mediziner bisher eine Fülle von Daten sichten und interpretieren. „Die Auswertung von dreidimensionalen bildgebenden Verfahren ist sehr aufwändig“, erklärt Schoppe, Forscher an der Technischen Universität München (TUM). 

Kernstück der AIMOS-Software – die Abkürzung steht für AI-based Mouse Organ Segmentation – sind künstliche neuronale Netze, die, wie das menschliche Gehirn, lernfähig sind. „Früher musste man Computerprogrammen genau sagen, was sie tun sollen“, erläutert Schoppe. „Neuronale Netze brauchen solche Vorgaben nicht mehr: Es genügt sie zu trainieren, indem man mehrmals eine Problemstellung und eine Lösung präsentiert. Die Algorithmen erkennen nach und nach die Muster und finden dann selbst die richtigen Lösungen.“

Wir haben nur etwa zehn Ganzkörperscans gebraucht, dann konnte die Software die Analyse der Bilddaten allein bewerkstelligen – und zwar innerhalb von Sekunden. Ein Mensch braucht dafür Stunden.

Oliver Schoppe

Im AIMOS-Projekt wurden die Algorithmen mit Hilfe von Mäusebildern trainiert. Ziel war es, die Bildpunkte aus 3D-Ganzkörperscans bestimmten Organen – beispielsweise Magen, Niere, Leber, Milz oder Gehirn – zuzuordnen. Auf Grund dieser Zuordnung kann das Programm dann die genaue Lage und Form darstellen. „Glücklicherweise hatten wir Zugriff auf mehrere hundert Bilddatensätzen von Mäusen aus einem anderen Forschungsprojekt, die alle bereits von zwei Biologen interpretiert worden waren“, erinnert sich Schoppe. Hinzu kamen fluoreszenzmikroskopische 3D-Scans vom Institut für Tissue Engineering and Regenerative Medicine am Helmholtz Zentrum München.

Den Forschern dort war es mit einer speziellen Technik gelungen, bereits verstorbene Mäuse vollständig zu entfärben. Die transparenten Körper konnten Punkt für Punkt und Schicht für Schicht mit einem Mikroskop abgerastert werden. Die Abstände zwischen den Messpunkten betrugen dabei nur sechs Mikrometer – das entspricht der Größe einer Zelle. Auch in diesen Datensätzen hatten Biologen die Organe lokalisiert.

Am TranslaTUM präsentierten die Informatiker diese Daten ihren neuen Algorithmen. Diese lernten schneller als erwartet, berichtet Schoppe: „Wir haben nur etwa zehn Ganzkörperscans gebraucht, dann konnte die Software die Analyse der Bilddaten allein bewerkstelligen – und zwar innerhalb von Sekunden. Ein Mensch braucht dafür Stunden.“ 

Die Zuverlässigkeit der Künstlichen Intelligenz überprüfte das Team anschließend mit Hilfe von 200 weiteren Ganzkörper-Scans von Mäusen. „Das Ergebnis zeigt, dass selbstlernende Algorithmen bei der Auswertung biologischer Bilddaten nicht nur schneller, sondern auch treffsicherer sind als der Mensch“, resümiert Prof. Bjoern Menze, Leiter der Image-Based Biomedical Modeling Group am TranslaTUM der Technischen Universität München TUM.

Eingesetzt werden soll die Intelligente Software künftig vor allem in der Grundlagenforschung: „Bildaufnahmen von Mäusen werden dringend benötigt, zum Beispiel um die Wirkweise von neuen Medikamenten zu untersuchen, bevor sie beim Menschen zum Einsatz kommen. Die Auswertung von Bilddaten mit selbstlernenden Algorithmen kann künftig viel Zeit sparen“, betont Menze.


Quelle: Technische Universität München (TUM)

05.01.2021

Mehr aktuelle Beiträge lesen

Verwandte Artikel

Photo

Selbstlernende Algorithmen

Forscher entwickeln "Generalschlüssel"-KI für medizinische Bilddaten

Die KI-basierte Auswertung medizinischer Bilddaten erfordert üblicherweise für jede Fragestellung einen speziell entwickelten Algorithmus. Wissenschaftler vom Deutschen Krebsforschungszentrum…

Photo

KI trifft tomografische Verfahren

CT, MRT & Co. durch Maschinelles Lernen verbessern

Bildgebende Verfahren wie die Magnetresonanz-Tomografie (MRT) oder die Computertomografie (CT) sind in der Medizin und der Materialprüfung von sehr großer Bedeutung. Wissenschaftler um Professor…

Photo

Künstliche Intelligenz

Deep Learning bei muskuloskelettaler Röntgenbildgebung

Im Rahmen einer Arbeit hat Dr. Maximilian Russe, Oberarzt Schnittbilddiagnostik an der Klinik für Diagnostische und Interventionelle Radiologie des Universitätsklinikums Freiburg, eine Künstliche…

Verwandte Produkte

Canon – Advanced intelligent Clear-IQ Engine for MR

Artificial Intelligence

Canon – Advanced intelligent Clear-IQ Engine for MR

Canon Medical Systems Europe B.V.
Canon - HIT Automation Platform

Artificial Intelligence

Canon - HIT Automation Platform

Canon Medical Systems Europe B.V.
Canon - Vantage Elan NX Edition

1.5 Tesla

Canon - Vantage Elan NX Edition

Canon Medical Systems Europe B.V.
Fujifilm · REiLI

Artificial Intelligence

Fujifilm · REiLI

FUJIFILM EUROPE GmbH
Agfa HealthCare – DR 10s detector

DR Retrofit

Agfa HealthCare – DR 10s detector

Agfa HealthCare
Newsletter abonnieren