Buzzword

Die Zukunft von Big Data in der Medizin

'Big Data' ist in aller Munde, doch was dahinter steckt, ist vielen unklar. Im Interview erklärt Prof. Dr. Christoph Meinel, wissenschaftlicher Direktor und Geschäftsführer des Hasso-Plattner-Instituts, was es damit auf sich hat und welche Rolle Big Data in der Medizin spielt.

Photo: Die Zukunft von Big Data in der Medizin
Quelle: Shutterstock/wk1003mike

Was versteht man unter „Big Data“ im Kontext von Medizin und medizinischer Forschung?

Meinel: In der Informatik sagt man oft salopp, Big Data ist genau das, was man noch nicht kann. Wir verstehen unter Big Data, riesige Datenmengen ganz unterschiedlicher Heterogenität, Herkunft, Qualität und Ausmaße. Und genau diese Eigenschaften sind für die Auswertung, Analyse und den rechnerischen Umgang eine große Herausforderung, denn bisher können wir vor allem gut mit einheitlich strukturieren Daten umgehen.

Können Sie uns ein paar Beispiele für Big Data nennen?

Es gibt viele: menschliche Genomdaten, Daten in Krankenhausinformationssystemen, Krebsregister, klinische Studien, medizinische Sensordaten, Bilddaten, akustische Daten und Ultraschalldaten sowie medizinische Publikationen. Man versucht nun, diese verschiedenen Datenquellen intelligent zu verknüpfen, sodass man Schlussfolgerungen ziehen kann, die uns in der medizinischen Forschung, und damit in der Behandlung von Krankheiten, voranbringen.

Könnten Sie so einen Behandlungserfolg an einem Beispiel veranschaulichen?

Bei Krebsbehandlungen liegt die Erfolgsquote von Bestrahlung und Chemotherapie unter 25%, das heißt, 75% der Patienten werden dadurch nur gequält. Wenn aber die Wahrscheinlichkeit hoch wäre, die Effektivität einer Behandlung aus der Kenntnis der entsprechenden Gen- oder Molekularstruktur des Patienten  zu erschließen, könnte man von vornherein bestimmte Behandlungsmethoden ausschließen, weil sie für diesen speziellen Typ Konstitution nicht sinnvoll sind, und so dem Patienten die Tortur ersparen. Bisher erforderte das teilweise monatelange Analysen. Aber mit der bei uns und SAP entwickelten In-Memory-Technologie können wir diese Auswertungen auf Sekunden reduzieren.

Wie funktioniert die In-Memory-Technologie?

Das erste Produkt, das auf dieser Technologie basiert, ist die SAP HANA Datenbank. Dieser Typ Datenbank ist zehntausend Mal schneller als traditionelle. Warum? Hauptspeicher von Rechner werden immer billiger, neue Rechnerarchitekturen sind möglich mit nur einem riesigem Hauptspeicher. Ganze Datenbanken können im Hauptspeicher abgelegt und Daten ohne zeitintensiven Transport vom externen Datenspeicher sofort analysiert werden. Man kann so um den Faktor zehntausendmal schneller rechnen und Daten aus ganz unterschiedlichen Quellen in Realzeit miteinander verrechnen.

Handelt es sich bei den zu analysierenden Datenbeständen um Big Data?

Ja, man kann jetzt de facto diese verschiedenen, in Silos aufbewahrten Datentöpfe aufbrechen und mithilfe moderner Verfahren wie „Deep Machine Learning“ und neuronaler Netze nach Querverbindungen suchen, beziehungsweise vermutete Querverbindungen aufspüren. Dadurch stößt man auf Zusammenhänge, die man sich so nicht vorgestellt hätte. Damit kehren wir gewissermaßen den naturwissenschaftlichen Grundsatz zunächst eine These aufzustellen und mittels Experimenten dann nach deren Bestätigung zu suchen. Jetzt werfen wir große Datenmengen in einen Topf und lassen Hochleistungscomputer nach Mustern und Zusammenhängen suchen mit oft überraschenden Ergebnissen.

Können Sie das an einem Beispiel erläutern?

Stellt sich durch die Analyse heraus, dass vielen Menschen, die an einer bestimmten Krankheit leiden und dagegen medikamentös behandelt werden, ein Medikament aus einer Menge von gleichwertigen Arzneien besonders gut hilft, dann kann ein Arzt, auch ohne zu verstehen, warum, seinem Patienten mit großer Wahrscheinlichkeit helfen, wenn er dieses Medikament verschreibt.

Gelingt es im Rahmen von Big Data Analysen, Texte und Bilder miteinander zu korrelieren?

Das scheint tatsächlich möglich. Es geht um einen Ansatz, Bilder und Textumgebung zusammenzubringen, also maschinell die Semantik zu erkennen. Texte kann man inzwischen ganz gut verstehen, aber wie finde ich etwas in einem Video? Man kann zwar das Video durch Text beschreiben, aber man sucht nach Verfahren, die direkt erkennen, worum es in dem Video an welcher Stelle geht, damit man diese Information später finden kann.

Wenn es gut läuft, wo stehen wir mit Big Data in fünf Jahren? Was kann dann herausgefunden werden, was jetzt noch nicht geht?

Mit Sicherheit wird man sehr viel mehr über den Bauplan des Menschen wissen, sprich Genanalysen, Proteinanalysen, Molekularanalysen und auch über die Abläufe im Körper, was triggert was und wie.  Dadurch wird es bessere Möglichkeiten geben, individuelle Konstitutionen zu erkennen und Erkrankungen sachgerecht zu behandeln, sprich personalisierte Medizin zu praktizieren. Dies wird allerdings auch den Einsatz von ziemlich viel Geld verlangen. Für die Pharmaindustrie bedeutet es, individuelle Mixturen zu liefern. Das wird die Pharmaindustrie umkrempeln, die ja bisher auf Blockbuster Medikamente, die ganz vielen helfen, gesetzt hat.

Spielt eigentlich Datenschutz in Ihrem Umfeld eine Rolle und wenn ja, welche?

Das ist ein ganz zentrales Thema. Natürlich müssen Daten gut geschützt werden, insbesondere wenn Rückschlüsse auf personenbezogenes möglich sind. Doch weder der deutsche Datenschutz noch die in Abstimmung befindliche europäische Datenschutzrichtlinie wird den Anforderungen an den Datenschutz im Big-Data-Zeitalter gerecht. Historische philosophische Grundlage ist dort das Prinzip der Datensparsamkeit. Wenn man sagt, Big Data ist das Öl der Zukunft, dann geht das überhaupt nicht mit Datensparsamkeit zusammen. Hinzu kommt, und das ist vielleicht noch problematischer, dass das Sammeln von Daten nur erlaubt ist, wenn es eine zuvor definierte Zweckbestimmung gibt. Aber dies widerspricht dem Big Data Ansatz, bei dem man zunächst einmal schaut, was sich so finden lässt und versucht, das Beste draus zu machen, ohne vorher den Zweck zu kennen. Deswegen sollte der Gesetzgeber zumindest die Möglichkeit für Ausnahmegenehmigung in das Gesetz einbauen und ein Procedere definieren, wie man eine Ausnahmegenehmigung erlangt, ansonsten wird Europa eine digitale Kolonie.


PROFIL:
Ein Mathematik und Informatik Absolvent von der Humboldt-Universität, Berlin, ist Christoph Meinel Präsident und CEO des Hasso-Plattner-Institut und Professor für Internet-Technologien und Systeme an der Universität Potsdam. Er ist Mitglied der acatech, der nationalen Deutschen Akademie der Technikwissenschaften, Vorsitzender des Deutschen IPv6-Rat und des HPI-Stanford Design Thinking Research Programme. Er leitet den Lenkungsausschuss des HPI Future SOC Lab und dient in verschiedenen Beiräten, zB SAP. Seine Forschung konzentriert sich auf IT und Systeme und Design Thinking Forschung.

18.02.2016

Verwandte Artikel

Photo

Artikel • Transformation

Es geht voran: Das US-Gesundheitssystem wird digital

Die digitale Revolution des US-Gesundheitssektors schreitet voran. Diese Entwicklung wird von vielen Faktoren beflügelt: staatliche Regulierungen und finanzielle Anreize, technologische…

Photo

Artikel • Transformation

Die Zukunft der datengetriebenen Medizin

Wie Fortschritte in der Informationstechnologie das Gesundheitswesen transformieren können, stellen Wissenschaft und Industrie auf der Medica in zahlreichen Veranstaltungen vor. Um nichts weniger…

Photo

Artikel • Debatte zu Deep Learning

Nachhaltige KI in der Medizin: zwischen Datenriesen und Ethik-Paradoxa

Ausgefeilte medizinische KI-Modelle liefern mittlerweile beeindruckende Ergebnisse – allerdings häufig auf Kosten einer miserablen Umweltbilanz. Auf der Medica 2024 betrachteten Experten die…

Verwandte Produkte

Newsletter abonnieren