Interview: Prof. Dr. Christoph Meinel, Direktor und Geschäftsführer des Hasso-Plattner-Instituts in Potsdam

Prof. Dr. Christoph Meinel ist wissenschaftlicher Direktor und Geschäftsführer des Hasso-Plattner-Instituts für Softwaresystemtechnik (HPI) in Potsdam, wo er den Lehrstuhl „Internet-Technologien und Systeme“ leitet. Im Fokus seiner Forschung steht die Frage nach einem effizienten und sicheren Umgang mit Big Data und der Erschließung von Potenzialen des Cloud Computing. Im Cluster Gesundheitswirt-schaft HealthCapital ist Prof. Meinel, neben Peter Albiez von Pfizer, Botschafter für das Thema Big Data. Im Interview spricht er über den möglichen Nutzen digitaler Datensätze und neue Wege zum Erkenntnis-gewinn für die Personalisierte Medizin.

Big Data – das Sammeln, Analysieren und Auswerten großer Datenmengen – wird derzeit in vielen Bereichen thematisiert. Wo liegt aus Ihrer Sicht der derzeitige Stellenwert im Gesundheitsbereich?

Ich spreche eher von Smart Data als von Big Data, da der Begriff den Nutzen in den Vordergrund stellt. Schon heute liegen in der Medizin fast alle Daten elektronisch und nicht mehr in Papierform vor. Dazu zählen Untersuchungsergebnisse, Arztgespräche und Patientenakten. Viele junge Leute nutzen auch sogenannte Wearables und Gesundheits-Apps, um körperliche Aktivitäten zu erfassen. Die Kernfrage lautet: Kann man aus diesen stetig wachsenden Datensätzen einen Nutzen ziehen und neue Erkenntnisse gewinnen? Das technische Problem ist, dass diese Daten in ganz unterschiedlichen Formaten an verschiedenen Orten erfasst und gespeichert werden. Die meisten davon sind sogar unstrukturiert und können nicht direkt maschinell verarbeitet werden, etwa ein Arztbrief. Die heutige Herausforderung besteht in der Zusammenführung von traditionellen, gut strukturierten Datensätzen und eben solch unstrukturierten Daten, die bisher kaum erschlossen sind.

Welche Perspektiven eröffnen sich mit Smart Data für die zukünftige Patientenversorgung?

Die Hoffnung besteht darin, durch die Verknüpfung vielfältiger Quellen neue Zusammenhänge zu erkennen: Was haben Patienten gemein, bei denen eine Therapie in einem bestimmten Krankheitsfall gut geholfen hat; was unterscheidet sie von denjenigen, bei denen die Therapie nicht geholfen hat? Smart Data in der personalisierten Medizin hat das Potenzial, die Erfolgschancen einer Behandlung zu verbessern und sogar Krankheiten zu verhindern. Im Wesentlichen geht es dabei um Mathematik, die bei der Auswertung der Daten zum Einsatz kommt. Dabei kommen zum Beispiel mathematische Verfahren zum Einsatz, die Muster in Daten erkennen und so beim Auffinden von Korrelationen helfen können. Das kann ein zufälliger oder auch ein innerer Zusammenhang sein. Mithilfe der Algorithmen kann man das unterscheiden. Um in der Analyse möglichst präzise zu sein und keinen statistischen Zufälligkeiten zu erliegen, hilft es, mit möglichst großen Datenmengen zu arbeiten. Dafür müssen diese Daten jedoch zugänglich gemacht werden.

Das bringt uns zum Thema Sicherheit. Die Entwicklung medizinischer Produkte und Verfahren unterliegt höchsten Standards. Was bedeutet das für Big-Data-Technologien in der Medizin?

In Deutschland sind wir oftmals an Datenschutzbestimmungen gebunden, die weltweit als sehr strikt eingestuft werden. Sie wurden im vorigen Jahrhundert entwickelt, als die elektronische Datenverarbeitung noch in den Kinderschuhen steckte. Die Grundidee war: Je weniger Daten elektronisch verfügbar sind, umso höher ist deren Schutz. Das steht jedoch im Widerspruch zu der Hoffnung, aus möglichst vielen Daten neue Erkenntnisse zu gewinnen. Sensible Daten zu schützen ist auch weiterhin erforderlich. Jedoch haben sich die Techniken und Anwendungen umfassend verändert, sodass entsprechende Anpassungen erforderlich werden.

Können Sie ein Beispiel dafür nennen?

Derzeit muss man, bevor man Daten sammeln darf, den Zweck bestimmen. Damit folgen sie dem traditionellen Weg des Erkenntnisgewinns: Ich erdenke eine Hypothese und mache entsprechende Experimente, um diese zu bestätigen oder zu verwerfen. Bei Smart Data kenne ich den Zweck aber womöglich noch gar nicht. Ich habe ein abstraktes Ziel, will etwa die Gesundheitsvorsorge verbessern, und lasse dann den Rechner auf den Daten arbeiten. Der stellt Hypothesen auf und macht Muster sichtbar. Die gilt es dann zu überprüfen. Heute kann ein Computer Hypothesen erzeugen, die für uns zunächst ganz unvorstellbar sind, weil wir einfach die schiere Datenmenge nicht allein überschauen können. Daher zum Beispiel ist die Zweckbestimmung nicht mehr zeitgemäß. Ich finde es unverantwortlich, wenn man neue technische Möglichkeiten, mit denen man Menschen im Krankheitsfall helfen kann, aufgrund antiquierter Bestimmungen nicht nutzen kann. Es ist gut, wenn es dazu Diskussionen gibt. Aber sie dürfen nicht ideologisch geführt werden.

Wie gestaltet sich die Zusammenarbeit mit den unterschiedlichen Anwendern, also etwa Kliniken und Medizintechnikunternehmen?

Die Telemedizinfirma Getemed aus Teltow macht es beispielsweise möglich, dass Herzinfarkt-Risikopatienten von zu Hause aus über das Internet permanent überwacht werden. Das ist wichtig, weil die ärztliche Versorgung auf dem Land sehr viel schlechter ist: In der Prignitz ist das Risiko, an einem Herzinfarkt zu sterben, vier Mal höher als in Berlin. Die Daten werden an der Charité analysiert. Auch hier helfen Algorithmen den Ärzten bei der Entscheidung, ob medizinisch eingegriffen werden muss oder nicht. Aus den so gesammelten Datensätzen lassen sich vielleicht auch noch andere Erkenntnisse gewinnen, die nichts mit einem Herzinfarkt zu tun haben. Algorithmen können Medizinern also auch ganz neue Forschungsansätze liefern. Die Region Berlin-Brandenburg hat hier gute Chancen, im Bereich Smart Data führend in Deutschland zu werden.

Das diesjährige Symposium „Big Data in Medicine“, das Sie am HPI gemeinsam mit HealthCapital ausrichten, widmet sich dem Schwerpunkt „Technologieforum: In-Vitro-Diagnostik und Bioanalytik“. Wie bringt man die heterogene Gruppe der Software-Entwickler und Mediziner zusammen?

Das ist leider nicht mit einer einzelnen Konferenz getan; dazu muss man kontinuierlich von- und miteinander lernen. Wir haben uns am HPI vorgenommen, einen Master-Studiengang „Digital Health“ zu etablieren. Eventuell kommt es da zu Kooperationen mit dem Berlin Institute of Health und der Einstein-Stiftung. Der Studiengang soll Informationsverarbeitung und Medizin miteinander verknüpfen und IT-Spezialisten für einen Einsatz im Gesundheitswesen vorbereiten. Das diesjährige Symposium soll dazu einen ersten Austausch zwischen den Playern ermöglichen: Mediziner, Krankenhäuser, Versicherungen, Forschungseinrichtungen und Pharma-Firmen. Es richtet sich aber auch an Menschen, die sich für das Thema interessieren. Die Präsentationen der internationalen Redner werden herausragende Beispiele vorstellen und zur Mitarbeit einladen.