Algorithmen
Wenn der Computer die Diagnose stellt...
Ärzte müssen immer mehr und immer komplexere medizinische Bilddaten berücksichtigen, um Diagnosen zu stellen und Therapien zu überwachen. Eine effektive Unterstützung soll ein neuer Ansatz bieten, an dem das Fraunhofer-Institut für Bildgestützte Medizin MEVIS in Bremen sowie die der Diagnostic Image Analysis Group (DIAG) in Nijmegen arbeiten. „Das Projekt ‚Automation in Medical Imaging‘ (AMI) will mit Hilfe selbstlernender Computeralgorithmen diese Datenfluten automatisch durchforsten und nach Auffälligkeiten suchen lassen, um dadurch künftig die Treffsicherheit von computergenerierten Diagnosen zu steigern“, erklärt MEVIS-Forscher Dr. Markus Harz.
Interview: Sascha Keutel
Welche Ziele verfolgt das Projekt „Automation in Medical Imaging“ (AMI)?
Wir erarbeiten Werkzeuge und Infrastruktur, um eine selbstlernende Software zu entwickeln, die irgendwann in der Lage sein soll, medizinische Bilder ähnlich gut einzuordnen wie ein Mensch. Unser wichtigstes Ziel ist, eine Software zu entwickeln, die tatsächliche klinische Probleme löst. Automatisierung ist der Schlüssel zum Erfolg. Wir automatisieren Arbeitsschritte, die die Kliniker am wenigsten mögen: beispielsweise die langwierige Suche nach einer passenden Voraufnahme oder der detaillierte Vergleich zweier Aufnahmen. Gelingt uns das, werden sie die Software verwenden wollen, das gilt auch für unsere Industriepartner.
Was genau ist eine “Selbstlernende Software”?
Das möchte ich mit einem Vergleich beantworten: Wenn ein Radiologie entscheiden muss, ob eine Auffälligkeit in einer medizinischen Aufnahme gut- oder bösartiger Natur ist, zieht er dabei sein Erfahrungswissen heran. Er wird die Form und Struktur, vielleicht auch die Lage und andere Merkmale beurteilen. Eine selbstlernende Software versucht, den dahinter stehenden Lernprozess nachzubilden. Dafür gibt es viele verschiedene Ansätze. Die traditionellen Methoden arbeiten dabei mit den gleichen Kriterien, die auch der Arzt verwendet. Dann ist die Kunst eigentlich, dem Computer die Perspektive des Radiologen beizubringen. Die Software lernt dann, wie die gefundenen Merkmale gewichtet werden müssen, um die gleiche Entscheidung wie der Radiologe zu treffen.
Worauf basiert eine solche Software?
Es handelt sich um sogenannte „deep learning Algorithmen“. Der Begriff „deep learning“ fasst eine Klasse von sogenannten neuronalen Netzen zusammen. Neuronale Netze bilden die Arbeitsweise des menschlichen Gehirns nach. Deep learning unterscheidet sich stark von den traditionellen Lernalgorithmen. Der markanteste Unterschied ist vielleicht, dass bisher Experten die Übersetzungsarbeit zwischen Bild und Algorithmus übernahmen. Das bedeutet, sie haben Algorithmen entwickelt, die aus den Bildern Merkmale extrahierten. Diese Merkmale wurden dann klassifiziert. Deep learning arbeitet grundsätzlich anders. Dem Algorithmus werden große Mengen Daten zusammen mit ihrer Bedeutung präsentiert. Das neuronale Netz – der deep-learning-Algorithmus – findet dann ganz alleine die interessanten Merkmale - oft viel nützlichere, als sie ein Mensch konstruieren kann.
In welchen Bereichen sollen diese Algorithmen eingesetzt werden?
Da gibt es von den Algorithmen her eine klare Einschränkung: Deep Learning setzt große Datenmengen voraus. Die Daten müssen für unsere Zwecke auch aufbereitet werden. Genau da setzt das Projekt an: Wir wollen die Entwicklung solcher Algorithmen vereinfachen, indem wir den Ärzten die Aufbereitung erleichtern und siedamit schnell große Datenmengen sammeln können. Die wiederum vereinfachen die Aufbereitung neuer klinischer Fälle weiter. Ein Kreislauf! Wir haben drei klinische Felder im Blick, in denen bereits genügend aufbereitete Daten vorhanden sind und in denen die Kliniker sich die Entlastung durch den Computer besonders wünschen: die digitale Pathologie, die Augenheilkunde und die Onkologie.
Welche Vorteile sehen Sie für diese Fächer?
Der Onkologe verbringt viel Zeit damit, unter den vielen, meistens unauffälligen Folgeaufnahmen die wenigen klinisch relevanten Bildserien zu finden. Das sind die, bei denen winzige Veränderungen – Metastasen – irgendwo in der Aufnahme auftauchen. Wir wollen dem Onkologen unmittelbar solche Fundstellen präsentieren, noch bevor er die Bilder angesehen hat. Dafür muss die Software aus tausenden Beispielen Wissen über den Körper und die Organe ansammeln, um sich in den Bildern zu orientieren. Sie soll lernen, alle Organe nicht nur zu finden, sondern exakt zu umranden. Das wäre eine große Hilfe für weitere Analysen.
Für die Pathologie liegt die Herausforderung in der Datenmenge: Die digitalen Gewebeschnittbilder sind riesig, und die gesuchten Strukturen darin bestehen manchmal nur aus wenigen Krebszellen. Es ist die sprichwörtliche Suche nach der Nadel im Heuhaufen. Das ist eine Aufgabe, die Computer vorzüglich und sehr genau lösen können. In der Augenheilkunde ist das Ziel, für die häufigsten Erkrankungen der Netzhaut eine bessere Therapiesteuerung zu schaffen. Dazu soll der Computer zum Beispiel lernen, Flüssigkeitseinlagerungen hinter der Netzhaut zu vermessen.
Welche Schwierigkeiten gibt es bei der Entwicklung solcher Algorithmen?
Ich habe ja schon erwähnt, dass wir enorme Mengen von Daten brauchen, damit die Deep-Learning-Algorithmen gute Bildmerkmale finden können. Stellen Sie sich vor, Sie müssten das menschliche visuelle System von der Netzhaut bis zur Großhirnrinde aus sehr kleinen Bausteinen zusammensetzen. Was muss wo verbunden werden, wie viele Abstraktionsebenen brauchen Sie? Sie müssen die Balance finden zwischen Abstraktion und Differenzierung. Stellen Sie das System zu sensibel ein, findet es vielleicht nur Punkte, Linien und Kreise, die keine Hilfe für die Diagnose sind. Abstrahiert das System zu sehr, kann es vielleicht relevante Unterschiede zwischen Tumoren nicht unterscheiden.
Was sind deren Vor-/Nachteile im Vergleich zu menschlicher Diagnostik?
Computer reichen in vielen Bereichen in der Medizin an die Leistung von Menschen heran, wenn es um isolierte Aufgaben geht. Das kann die Detektion von bestimmten Arten von Krebs sein, oder auch deren diagnostische Beurteilung. Dass Algorithmen so gut arbeiten, funktioniert nur, wenn die Daten und Informationen hierfür ausreichen. Menschen haben oft einen Informationsvorsprung: Vielleicht kennen sie die Patientin und ihre Geschichte persönlich, vielleicht haben sie kürzlich einen relevanten Zeitschriftenartikel gelesen oder mit einem Kollegen gesprochen. Dieses implizite Wissen können Computer bisher schwer anzapfen, darum sind Menschen als letzte Instanz in der Entscheidung nicht weg zu denken.
Machen Sie das medizinische Personal zukünftig obsolet?
Ich denke nicht. Ich begreife den Einsatz von Computern in der Diagnostik eher als Möglichkeit zur Erweiterung und Verbesserung der medizinischen Versorgung. Es ist nicht mehr zu übersehen, dass menschliche Befunder dem wachsenden Bilderberg bald nicht mehr gewachsen sein werden. Mehr Ärzte einzustellen, ist angesichts des Kostendrucks in unserem Gesundheitssystem keine Alternative. Gleichzeitig wächst mit dem öffentlichen Wissen um den Mehrwert bildbasierter Diagnose der Druck, diese Methoden auch breiter einzusetzen. Das ist mit Hilfe des Computers möglich, ohne diesen aber kaum mehr vorstellbar.
Sind computer-gesteuerte Diagnosen die Zukunft der Medizin?
Vom Computer vorbereitete oder unterstützte Diagnosen, ja. Ich kann mir auch vorstellen, dass für manche klinische Szenarien eines Tages niemand mehr eine von einem Menschen getroffene Entscheidung akzeptieren will. Nehmen Sie das Beispiel der Hautkrebsdiagnose. Hier übertrifft der Computer nach ersten Studien erfahrene Mediziner um eine solch beachtliche Spanne, dass ich nicht darüber nachdenken müsste, wessen Diagnose ich mehr Glauben schenkte. Ich gehe davon aus, dass erste fokussierte Ergebnisse bereits zum Projektende als Produkt verfügbar sein werden. Komplexere Automatisierungslösungen könnten jedoch durchaus 5 bis 10 Jahre brauchen, um in den Markt zu gelangen.
PROFIL:
Dr. Markus Harz ist Informatiker und arbeitete sechs Monate lang in einem Brustkrebszentrum in den USA. Dr. Harz verfügt nicht nur über umfangreiche Kenntnisse in der klinischen Praxis, sondern bringt auch sieben Jahre Erfahrung im Projektmanagement und zehn Jahre Erfahrung in der Analyse medizinischer Bildgebungsdaten mit. In seiner Dissertation entwickelte Dr. Harz Methoden für die Computerunterstützung komplexer bildgebungsbasierter klinischer Aufgaben.
01.03.2016