Direkt zum Inhalt

Kann Big Data die Lösung sein, Krebs zu heilen?

15. Mai 2018

Durch den rasanten Anstieg der Patientendaten eröffnet Big Data revolutionäre Ansätze zur Krebsbehandlung –aber kann die IT mithalten?

Krebs ist eine der größten Geißeln unserer Zeit. Er ist weltweit die zweithäufigste Todesursache und kostete 2015 etwa 8,8 Millionen Patienten das Leben. Immer mehr Menschen sind von Krebs betroffen. So wird erwartet, dass die Zahl der Neuerkrankungen im Laufe der nächsten 20 Jahre um 70 % steigt.

In den letzten 30 Jahren kam die Medizin im Kampf gegen den Krebs einen Riesenschritt vorwärts. Doch obwohl sich die Überlebensrate verdoppelte, konnte kein „Allheilmittel“ gefunden werden.

Die Wissenschaft steht vor der Herausforderung, dass Krebs nicht eine einzelne Erkrankung ist, sondern Hunderte verschiedene Krankheiten umfasst. Jede bösartige Geschwulst ist anders und entwickelt sich auf eigene Weise. Ein Tumor alleine besteht mitunter aus Milliarden von Zellen, von denen jede mutieren kann. Krebszellen können bei jeder Teilung neue Mutationen und genetische Abweichungen in Gang setzen. Wenn ein Tumor also wächst und sich entwickelt, bedeutet das eine fast unendlich große Menge an Variationen auf Genomebene.

Dieser Umstand macht die Behandlung von Krebs unglaublich komplex. Onkologen – d.h. die Fachärzte, die auf die Behandlung von Krebs spezialisiert sind – haben die Aufgabe, einen sich ausbreitenden und unberechenbaren Feind zu stoppen. Da gibt es keine gleiche Lösung für alle.

„Der Krebs stellt sich extrem heterogen dar”, so Dr. Andreas Schuppert, Professor an der RWTH Aachen und Fachexperte für Klinische Pharmakometrie in der Division Pharmaceuticals von Bayer. „Wenn Sie versuchen, Krebsgeschwulste auf molekularer Ebene zu vergleichen, werden Sie fast nie zwei Tumore finden, die einander gleichen.” Das Problem liegt darin, dass niemand genau vorhersagen kann, welche Parameter die Entwicklung des Krebses bestimmen werden. Das stellt eine große Herausforderung für die Medizin dar.”

„In diesen Datenmengen schlummert Wissen, das das Leben eines Patienten oder auch die Welt verändern könnte.“

– Atul Butte, Direktor des Institute for Computational Health Sciences, UCSF, an der Universität von Kalifornien in San Francisco

Der Datenberg

Verlässlichere Ansatzpunkte für Forscher sind die Fülle an Daten, die zu Krebspatienten vorliegen. Ein einzelner Krebspatient kann fast ein Terabyte an biomedizinischen Daten generieren, die sowohl Daten zu diagnostischen Routineuntersuchungen als auch klinische Daten des Patienten umfassen. Die Datenmenge, die gespeichert werden muss, entspricht mehr als 300.000 Fotos oder 130.000 Büchern.

Neben der Patientenhistorie und diagnostischen Bilddaten stellen genetische Daten einen wichtigen Schlüssel im Kampf gegen den Krebs dar. Da die Kosten für die DNA-Sequenzierung in den letzten 20 Jahren erheblich gesunken sind, werden immer häufiger detaillierte genetische Informationen über den Patienten als auch den Tumor gesammelt. Auch dadurch ist die Datenmenge, die den Forschern zur Verfügung steht, rapide angestiegen.

Heute sehen sich Forscher nicht nur den genetischen Code der Krebszellen an, auf welche die Krankheit ursprünglich zurückzuführen ist, sondern sie vergleichen diesen auch mit der DNA von Metastasen oder Sekundärtumoren, die sich in der Folge entwickelt haben.

Es wird angenommen, dass die zu Patienten erhobenen Forschungsdaten zur Genom-Sequenzierung bis Ende 2017 jährlich ein Exabyte an Daten ausmachen – das entspricht in etwa einer Million Terabyte (bzw. einer Datenmenge von 130 Milliarden Büchern, und damit tausendmal mehr Büchern, als je veröffentlicht wurden).

„In diesen Datenmengen schlummert Wissen, das das Leben eines Patienten oder auch die Welt verändern könnte.“ – Atul Butte, Direktor des Institute for Computational Health Sciences, UCSF, an der Universität von Kalifornien in San Francisco

Wie Wissenschaftler im Kampf gegen den Krebs Daten nutzen

Da Krebserkrankungen von hochkomplexer Natur sind, können sie nicht auf dieselbe Weise mit Big Data erforscht werden, wie das bei anderen Arten von Krankheiten der Fall ist. Krebserkrankungen werden bei einem einzelnen Patienten durch viele Tausende Parameter determiniert. Dabei gibt es eine erheblich geringere Zahl an Patienten, die ähnliche Parameter aufweisen, weil jeder Tumor einzigartig ist.

Derzeit analysieren Forscher mit diesen Daten Krebserkrankungen auf drei Ebenen:

  • Zelluläre Daten: In den Daten zu einer einzelnen Krebszelle wird nach Mustern gesucht, die auf genetische Biomarker hindeuten. Wenn wir Gemeinsamkeiten zwischen verschiedenen Krebserkrankungen ausfindig machen, können wir besser vorhersagen, wie einzelne Tumore mutieren und welche medikamentöse Behandlung am effektivsten sein könnte.
  • Patientendaten: Aus der medizinischen Vorgeschichte und DNA eines Patienten könnte im Prinzip abgeleitet werden, welche Kombinationstherapie auf Grund der Eigenschaften von Tumor und Genen am besten geeignet ist – und wie sich eine derartige Behandlung auf Patienten mit ähnlichen Krankheitsmustern und genetischen Voraussetzungen auswirken mag.
  • Populationsdaten: Wenn Forscher die Daten einer breiteren Patientenpopulation analysieren, können sie Aussagen darüber treffen, welche Behandlungsstrategien sich bei Patienten mit unterschiedlichen Merkmalen bezüglich Lebenswandel, Herkunft und Krebsart bewährt haben.

Letztendlich zielen diese verschiedenen Ansätze darauf ab, dass Onkologen eines Tages jedem Patienten eine maßgeschneiderte medikamentöse Therapie bieten können, die seine spezifischen Krebszellen angreift und das Risiko von schweren Nebenwirkungen reduziert.

8,8 Millionen Krebstote im Jahr 2015 – die weltweit zweithäufigste Todesursache

Symptome und Supercomputer

„Big Data gehört in der Medizin schon lange zur Realität. Der Alltag in den Arztpraxen wird zunehmend durch die drei V bestimmt – Volume (Volumen), Velocity (Geschwindigkeit) und Variety (Vielfalt)“, so Dr. Jörg Lippert, Leiter der Abteilung für Klinische Pharmakometrie in der Division Pharmaceuticals von Bayer.

Auch was den Kampf gegen den Krebs im digitalen Zeitalter betrifft, hat sich die Datenanalytik bereits als essentiell erwiesen. Da für einen Tumor unmöglich vorhergesagt werden kann, wie er sich durch Mutationen verändern und weiterentwickeln wird, ist es allerdings umso schwerer, eine Antwort aus den Datenmengen herauszufiltern.

Die Herausforderung besteht also weniger darin, viele Patientendaten zu gewinnen, sondern eher in der Problematik, die Daten besser zu verwalten und effizienter zu analysieren. Aber genauso wie es kein Allheilmittel gegen den Krebs gibt, so gibt es auch kein allumfassendes Tool zur Datenanalyse. Forscher und Informatiker müssen ihre Arbeitsweise ständig anpassen. Sobald sie neue Tools und Techniken entwickelt haben, um die krebsrelevanten Daten zu verarbeiten, tauchen neue Datenquellen auf, die die Kapazitäten der Systeme übersteigen.

Ein weiteres Problem betrifft die Frage, wie die Daten standardisiert bzw. gesammelt, gespeichert und untersucht werden sollen. In der Genomforschung gibt es noch keine Standards zur Konvertierung von rohen Sequenzdaten in verarbeitete Daten. Hinzu kommt, dass einige medizinische Daten sehr unstrukturiert und manchmal auch ungenau sind – entweder auf Grund von Fehlern bei der Dateneingabe oder den Bedingungen bei der Datenmessung und -erfassung.

Die Forscher verfolgen zunehmend einen kollaborativen Ansatz, wenn es darum geht, große Mengen an personenbezogenen Daten zu verarbeiten, Software-Tools zur Datenauswertung zu entwickeln und die nötige Supercomputing-Rechenleistung aufzubauen, die zur Verarbeitung komplexer Daten und Prozesse vonnöten ist. Öffentlich-private Projekte, wie etwa die Innovative Medicines Initiative in Europa, beschleunigen den Entwicklungsprozess und bündeln verschiedene Fachkenntnisse in diesem Bereich. Die Project Data Sphere Initiative ist eine Plattform, über die historische Krebsforschungsdaten an einem einzigen Ort gemeinsam nutzbar gemacht, integriert und analysiert werden können. Die DREAM Challenges wiederum sind ein offenes wissenschaftliches Projekt, bei dem mithilfe von Crowdsourcing und transparenter, gemeinsamer Datennutzung bestehende analytische Tools evaluiert, Verbesserungsmöglichkeiten vorgeschlagen und neue Lösungen entwickelt werden. Natürlich tragen die gesetzlichen Auflagen zum Datenschutz ein Übriges zur Komplexität des Themas bei.

Die Macht des kollektiven Wissens

Die Fülle an Informationen, die Onkologen heute zur Verfügung steht, eröffnet zukünftiges Potenzial für maßgeschneiderte Therapien, mit denen gezielter gegen Tumore vorgegangen und mögliche Nebenwirkungen verringert werden können.

Allerdings ist es unglaublich schwierig, aus dem Potential dieser neuen Waffe gegen den Krebs zu schöpfen, zumal das eine effektive Verwaltung und Analyse der erwähnten krebsbezogenen Daten voraussetzt. Dazu wird es notwendig sein, dass die Forscher enger zusammenarbeiten, verschiedenste Tools einsetzen und jeweils spezifische Eigenschaften von Krebserkrankungen untersuchen.

Während die Medizin des 20. Jahrhunderts die Sammlung von Daten in den Vordergrund stellte, wird es im 21. Jahrhundert primär darum gehen, einen gemeinsamen Weg verschiedener Partner zu finden, um den bestmöglichen Nutzen aus den Datenmengen zu ziehen.

Recommended for you

Vier Neuerungen, die das Leben von Nutztieren zum Besseren verändern

 

Lassen Sie uns ins Gespräch kommen! #CanWeLiveBetter
Diskutieren wir über die Herausforderungen von heute und die Lösungen für morgen

 
Zurück zum Seitenanfang