Timm, Digitalisierung und Big Data in der Medizin
Dienstleistungsverkehrs auf das Gesundheitswesen sind daher nach zutreffender Auffassung des EuGH notwendig in ihrem Gesamtzusammenhang zu betrachten 52. Aus dem Umstand, dass die Bedingungen des Zugangs und der Ausübung der Tätigkeiten des Arztes und des Zahnarztes Gegenstand mehrerer Koordinierungs- oder Harmonisierungsrichtlinien sind, folgt für den Gerichtshof, dass in anderen Mitgliedstaaten niedergelassene Ärzte und Zahnärzte für die Zwecke des freien Dienstleistungsverkehrs als ebenso qualifiziert anerkannt werden müssen wie im Inland niedergelassene 53. Daraus lässt sich auch für die grenzüberschreitende telematische Diagnostik und Therapie ableiten, dass eine nationale Regelung, die ihre Erbringung beschränkt, etwa indem die Kostenerstattung durch die Krankenversicherung von einer vorherigen Genehmigung abhängig gemacht wird, nicht unter Berufung auf Gründe des Gesundheitsschutzes damit gerechtfertigt werden kann, dass die Qualität der ärztlichen Leistungen gewährleistet werden müsse 54. Die PatientenmobilitätsRL verpflichtet den Versicherungsmitgliedstaat auch dazu, auf lokaler, regionaler oder nationaler Ebene festzulegen, für welche Gesundheitsversorgung und in welcher Höhe ein Versicherter – unabhängig vom Ort der Leistungserbringung – einen Anspruch auf Kostenübernahme hat (Art. 7 Abs. 3 PatientenmobilitätsRL). Wenn keine Liste von erstattungsfähigen Leistungen existiert, sondern die Übernahme der Kosten für medizinische Behandlungen davon abhängt, dass diese dem entsprechen, was in ärztlichen Kreisen üblich ist, so muss es nach Auffassung des EuGH darauf ankommen, was von der internationalen Medizin als hinreichend erprobt und anerkannt angesehen wird 55. Ein Abstellen auf den nationalen Standard würde die Gefahr herbeiführen, dass die im Inland ansässigen Leistungserbringer bevorzugt würden 56. Dies ließe sich aber mit den Freiheiten des Waren- und Dienstleistungsverkehrs nicht vereinbaren. V. Fazit Telematische Diagnostik und Therapie sind nicht nur sehr innovative und boomende Bereiche, sie sind auch mit vielen Rechtsfragen verbunden. Dies gilt umso mehr, wenn sie grenzüberschreitend vonstattengehen. Dementsprechend zielt auch die Kommission mit ihrem „Aktionsplan
MedR (2016) 34: 681–686 681
a. für elektronische Gesundheitsdienste 2012–2020“ u. darauf ab, die rechtlichen Bedingungen für die Entwicklung solcher Dienste zu verbessern. Dem Abbau rechtlicher Schranken als einer wesentlichen Voraussetzung für die Einführung elektronischer Gesundheitsdienste in Europa dient insbesondere auch die PatientenmobilitätsRL. Diese RL stellt klar, dass die Patienten Anspruch auf eine grenzüberschreitende Gesundheitsversorgung haben, die auch aus der Entfernung per Telemedizin erfolgen kann. Hinsichtlich der rechtlichen Rahmenbedingungen für die Erbringung telematischer Diagnostik und Therapie bestimmt die PatientenmobilitätsRL, dass diese in jenem Mitgliedstaat festgelegt werden, in dem der Gesundheitsdienstleister ansässig ist (Herkunftslandprinzip). Die Kostenerstattung für die grenzüberschreitende telematische Diagnostik und Therapie erfolgt hingegen nach den Rechtsvorschriften des Versicherungsmitgliedstaats. Wie im vorliegenden Beitrag dargestellt wird, steht das sowohl in der PatientenmobilitätsRL als auch in der RL über den elektronischen Geschäftsverkehr verankerte Herkunftslandprinzip in Widerspruch zu Art. 5 Abs. 3 BerufsqualifikationsRL, der die Berufsregeln des Aufnahmemitgliedstaats für anwendbar erklärt (Bestimmungslandprinzip). Dieser Widerspruch ist meines Erachtens zugunsten der BerufsqualifikationsRL zu lösen. Dabei handelt es sich aber nur um eine von vielen Rechtsfragen, die sich im Zusammenhang mit grenzüberschreitender telematischer Diagnostik und Therapie stellen. Es ist daher davon auszugehen, dass der EuGH hier ein breites Betätigungsfeld vorfinden und wichtige Grundsätze aufstellen wird, so wie er es betreffend die nicht-telematische grenzüberschreitende Gesundheitsversorgung getan hat. 52) EuHG, Urt. v. 13. 5. 2003 – C-385/99 –, Rs. Müller-Fauré und van Riet, Slg. 2003, I-4509, Rdnr. 74. 53) EuGH, Urt. v. 28. 4. 1998 – C-158/96 –, Rs. Kohll, Slg. 1998, I-1931, Rdnrn. 47 f. 54) Vgl EuGH, Urt. v. 28. 4. 1998 – C-158/96 –, Rs. Kohll, Slg. 1998, I-1931, Rdnr. 49. 55) EuGH, Urt. v. 12. 7. 2001 – C-157/99 –, Rs. Smits und Peerbooms, Slg. 2001, I-5473, Rdnr. 94. 56) EuGH, Urt. v.12. 7. 2001 – C-157/99 –, Rs. Smits und Peerbooms, Slg. 2001, I-5473, Rdnr. 96.
DOI: 10.1007/s00350-016-4375-1
Digitalisierung und Big Data in der Medizin Daten in der medizinischen Forschung*
Jürgen Timm I. Einführung Mit der Entwicklung der evidenzbasierten Medizin kommt der Gewinnung und Auswertung von biomedizinischen Daten eine zentrale Bedeutung zu. Entsprechend wichtig ist deren Qualitätssicherung. So haben sich tief gegliederte Richtlinien und Standardisierungen entwickelt, die über Prof. Dr. rer. nat. Dr. h. c. Jürgen Timm, Universität Bremen, Kompetenzzentrum für Klinische Studien Bremen/Biometrie, Linzer Straße 4, 28359 Bremen, Deutschland
die GCP-Verordnung Einzug in das deutsche Arzneimittelrecht gefunden haben. Digitalisierung, Big Data und der Übergang zur personalisierten oder Systemmedizin erfordern veränderte Zielsetzungen, neue Studientypen und methodische Ansätze. Probleme z. B. bezüglich Transparenz, Datenschutz, Datensicherheit, Zeitbedarf und Kosten sind zu lösen. Fazit: Die Qualitätssicherung, Standardisierung und Regulation solcher Studien als empirische Basis *) Schriftliche Fassung des auf der 5. Tagung der Medizinrechtslehrerinnen und Medizinrechtslehrer am 6./7. 5. 2016 in Bremen gehaltenen Vortrags.
682 MedR (2016) 34: 681–686
Timm, Digitalisierung und Big Data in der Medizin
Tabelle 1: Interpretation von Evidenzstufen Ausprägung der Evidenz
Bewertung
Aussage
Hohe Evidenz Mittlere Evidenz Niedrige Evidenz
Unmittelbar überzeugend, nach Abwägung (des „Für“ und „Wider“) für wahr halten plausibel, aber es bleibt zweifelhaft
„Zustimmungszwang“ „glaubwürdig“ „immerhin spricht einiges dafür“
einer auf digitale Massendaten gestützten Systemmedizin sind noch erheblich auszubauen.
IV. RKB-Studien (randomisiert, kontrolliert und verblindet)
II. Evidenzbasierte Medizin
An die Kernelemente solcher Studien und ihre Begründung soll hier kurz erinnert werden:
Die stärkere Akzentuierung der klinischen Empirie für die Ableitung medizinischen Handelns, die mit dem Schlagwort der evidenzbasierten Medizin 1 verbunden wurde, vollzog sich in Deutschland verstärkt in der zweiten Hälfte des 20. Jahrhunderts. Meilensteine dieser Entwicklung waren die Aufnahme der Biostatistik in das medizinische Curriculum, die Einrichtung des deutschen Cochran Zentrums als Teil der internationalen Cochran Collaboration 2, die Entwicklung von Studiengängen für „Medical Biometry/ Biostatistics“ in Heidelberg und Bremen auf Initiative der beiden einschlägigen Fachgesellschaften (Deutsche Region der Internationalen Biometrischen Gesellschaft, Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie) und die Gründung des IQWIG (Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen). Die aus dem angelsächsischen Sprachgebrauch übernommene Bezeichnung „Evidenz“ meint kein absolutes (evident oder nicht evident) Kriterium, sondern bezeichnet eine relative Aussage über die Glaubwürdigkeit einer Behauptung, also eher eine Skala für die Überzeugungskraft von Argumenten. Eine grobe Klassifikation geht aus Tabelle 1 hervor. III. Bewertung von Arzneimitteln Der Übergang zur evidenzbasierten Medizin bildet sich auch im Arzneimittelrecht ab, wo es (§ 1 AMG) heißt, dass es Zweck des Gesetzes sei „[… für die Wirksamkeit und Unbedenklichkeit der Arzneimittel […] zu sorgen“ und die dafür notwendige Beurteilung wissenschaftlichen Kriterien der medizinischen Forschung genügen soll. Dieser Übergang von der Bindung an Gutachtervoten hin zu wissenschaftlichen Kriterien geht mit einer Standardisierung und Internationalisierung von Qualitätskriterien für wissenschaftliche Forschung in der Medizin 3 einher. Hier ist zunächst die Entwicklung von Kriterien für eine gute Praxis der klinischen Forschung (GCP – Good Clinical Praxis) zu nennen, die von der ICH 4 international harmonisiert 5 und im deutschen Arzneimittelrecht über die GCP-Verordnung 6 festgeschrieben wurde. Die Setzung qualitativer Standards für klinische Forschung hat international den Nebeneffekt der Stärkung der regulativen Institutionen. So hat z. B. die FDA (US Food and Drug Administration) ebenso wie das CHMP 7 der EMA (European Medicines Agency) inzwischen in erheblichem Umfang weitergehende bzw. konkretisierende Guidelines verfasst, in denen in erheblichem Umfang biostatistische und allgemein methodische Entwicklungen der letzten Jahre umgesetzt werden. Zusammenfassend kann man diese Entwicklungen als die Operationalisierung der Suche nach der besten Evidenz für die Beurteilung der Wirksamkeit und Verträglichkeit von Therapien (insbesondere von Arzneimitteln) beschreiben. Sehr stark vereinfacht hat sich dabei eine randomisierte, kontrollierte und doppelt verblindete prospektive Studie als die Methode der Wahl zur Evidenzgewinnung herausgeschält, die im folgenden Abschnitt kurz vorgestellt wird.
IV.1 Kontrolliert Wenn eine klinische Studie nur eine Therapie an allen teilnehmenden Patienten prüft, so kann man nicht entscheiden, ob die beobachtete Wirkung oder die unerwünschten Ereignisse auch spontan eingetreten wären oder ob sie durch die zu prüfende Therapie verursacht sind. Ein typisches Beispiel sind Therapien von Erkältungskrankheiten, die auch ohne Therapie ausheilen. Aus diesem Grund ist es notwendig, stets eine nicht mit der Prüftherapie behandelte Kontrollgruppe zu untersuchen, die in allen anderen Punkten genauso behandelt und beobachtet wird wie die Gruppe der Patienten, die die jeweilige Prüftherapie erhält. Die Kontrollgruppe kann eine Placebo-Behandlung oder ein bereits gut eingeführtes Therapiekonzept erhalten. Geprüft wird der Unterschied im Ergebnis beider Gruppen als Maß für die Bewertung der Prüftherapie. IV.2 Doppelt blind Vorurteile von Ärzten oder Patienten können zu einer Verfälschung der Ergebnisse führen. Es kann sich dabei um übertriebene Erfolgserwartungen oder übertriebene Vermutungen eines Misserfolgs oder Risikos handeln. Patienten wie Ärzte achten dann stärker auf Anzeichen von Erfolg oder Misserfolg, die mehr ihren Vorurteilen entsprechen und übersehen leicht Anzeichen, die dem widersprechen. Z. B. werden unerwünschte Ereignisse selektiv registriert oder unbewusst falsch bewertet. Um das zu vermeiden werden die Therapien so maskiert (z. B. neutral verkapselte Tabletten), dass weder der Arzt noch der Patient identifizieren kann, welche Therapie er gerade anwendet bzw. erhält. IV.3 Randomisiert Wenn die Patienten willkürlich 8 der Prüftherapie oder der Kontrollgruppe zugeordnet werden, besteht die große Gefahr, dass diese beiden Therapiegruppen sich in relevanten Parametern unterscheiden. In einem solchen Fall
1) S. z. B. Group E-BMW, Evidence-based medicine. A new approach to teaching the practice of medicine. JAMA, 1992, 268 (17), 2420 ff. 2) Stavrou et al., Archibald Cochrane (1909–1988): the father of evidence-based medicine. Interactive Cardiovascular and Thoracic Surgery 2013; 18(1), 121 ff. 3) Vgl. z. B. die Richtlinie 2001/20/EG des Europäischen Parlaments und des Rates. ABL L121/34 v. 4. 4. 2001. 4) International Conference on Harmonisation of Technical Requirements for Registration of Pharmaceuticals for Human Use. 5) Die ICH entwickelte eine Reihe von Guidelines. Die GCP-Inhalte sind in der Guideline E6 (R1) v. 1996 festgelegt. 6) GCP-V, Verordnung über die Anwendung der Guten Klinischen Praxis, BGBl. 2012 I, S. 2081 ff. 7) Committee for Medicinal Products for Human Use. 8) D. h. z. B. nach Entscheidung eines Arztes.
Timm, Digitalisierung und Big Data in der Medizin
kann das Ergebnis ebenfalls nicht dem Unterschied in der Therapie zugeordnet werden, sondern könnte durch die unterschiedlichen Parameter der Patientengruppen erklärt werden. Viele Erfahrungen mit erfolglosen Studien zeigen, dass es sehr schwierig ist, diesen Effekt zu vermeiden. Auch unbekannte oder wenigstens nicht dokumentierte Eigenschaften mit Auswirkungen auf das Ergebnis können bei solcher Zuweisung ungleich verteilt sein. Zur Vermeidung solcher Effekte bedient man sich eines Zufallsgenerators, der die Zuordnung von Patienten zu den Behandlungsgruppen übernimmt und gleiche Wahrscheinlichkeiten für alle Parameter in der Verum- und Kontrollgruppe herstellt. Wenn die Zuteilung der Behandlungsgruppen auf diese Weise realisiert wird, bezeichnet man die Studie als randomisiert. IV.4 Evidenzkriterium Die Ergebnisse klinischer Studien unterliegen immer zufälligen Einflüssen durch die Auswahl von Patienten und deren „Tagesform“, durch variierende Umwelteinflüsse, Streuungen von Messwerten usw. Die statistische Analyse der Ergebnisse berechnet die Wahrscheinlichkeit p, dass der gefundene Unterschied rein zufällig entstanden sein könnte, wenn sich die Behandlungen in Wirklichkeit gar nicht unterscheiden (Nullhypothese). Diese Wahrscheinlichkeit gilt als Maß für die Beurteilung der Evidenz. Je kleiner die Wahrscheinlichkeit umso größer ist die Evidenz für einen echten Unterschied im Effekt oder im Risiko der getesteten Behandlungsalternativen. Als Grenze für eine hinreichende Evidenz gilt konventionell die Wahrscheinlichkeit p = 5 %. („Das ist so unwahrscheinlich, dass ich nicht mehr an einen Zufall glaube“). Der gefundene Unterschied gilt dann als signifikant und glaubwürdig i. S. von Tabelle 1. IV.5 Indikationen Die gewonnenen Evidenzaussagen beziehen sich stets auf Gruppen von Patienten mit einer bestimmten Diagnose, die als Indikation für die Therapie gelten soll. Das Design und das Aufnahmeverfahren für die klinischen Studien sollen sicherstellen, dass die Studienpatienten eine repräsentative Stichprobe aus der Population aller Patienten mit der jeweiligen Indikation darstellen. Die Zulassung einer Medikation für eine bestimmte Indikation aufgrund von Studienergebnissen setzt voraus, dass diese Repräsentativität hinreichend gesichert ist. Probleme können sich dabei durch zu enge Ein- und Ausschlusskriterien ebenso ergeben wie durch die Auswahl von Studienzentren (z. B. Kliniken) mit spezifischen Einzugsbereichen. Beides führt zu einer nicht repräsentativen Patientenpopulation. Methodisch wird dem durch die Forderung nach multizentrischen Studien ebenso entgegen gewirkt wie durch den Vergleich der randomisierten Studienpopulation mit den insgesamt in den Zentren vorhandenen Patienten der jeweiligen Indikation 9 und Vergleich mit epidemiologischen Ergebnissen. Ein in letzter Zeit viel diskutierter Aspekt ist die Alters- und Genderproblematik, d. h. die Frage nach einem der Indikationspopulation äquivalenten Geschlechterverhältnis und einer vergleichbaren Altersstruktur. V. Die digitale Revolution von Papier und Tinte zum Bit V.1 Klassischer Ablauf der Datenerfassung in einer klinischen Studie Der Ablauf einer klinischen Studie ist durch die GCP-Prinzipien und die ergänzenden Handreichungen der regulativen Institutionen weitgehend standardisiert. Historisch bedingt und heute noch oft implizit geht die gesamte Regulation von
MedR (2016) 34: 681–686 683 Tabelle 2: Schritte zur Datenerfassung Schritt Wer? 1 2 3 4 5 6 7 8 9
Tätigkeiten
P, B, D CRF Entwurf D Studiendatenbank auf Protokollbasis konstruieren und prüfen P CRF ausfüllen, an D senden D Prüfung auf Vollständigkeit und Plausibilität, schriftliche Rückfragen (Queries) an P P Antwort auf Rückfragen, Korrekturen mit Handzeichen bestätigt zurück an D D Dateneingabe in Studiendatenbank, unabhängige zweite Eingabe D automatischer Abgleich beider Eingaben, Entscheidung über Korrektur bei Differenzen P, D Abschließende Validitätskonferenz vor Entblindung D, B Entblindung, Sicherung und Archivierung, Übergabe an B zur Auswertung
Legende: P = Prüfer, B = Biometriker/Statistiker, D = Datenmanager
einer Schriftlichkeit aller relevanten Schritte aus. Es beginnt mit den Dokumenten der Studienplanung, Auf klärung und Einverständniserklärung, dem Personallog, der Dokumentation der Patientenauswahl, der Randomliste und den Prüfer informationen und endet mit Auswertung, Berichten und der Auf bewahrung von Daten und Studiendokumenten. Zentrale Bedeutung kommt dem CRF (case report form) zu, in den alle in der Studie erhobenen Daten vom Prüfer eingetragen werden sollen. Hier sind schon Details wie dokumentenechte Tinte oder die Vorschriften für Änderungen mit sauberer Durchstreichung, Korrektur und Abzeichnung durch Handzeichen 10 und Datum vorgegeben. Die Daten erfassung erfolgt dabei in 9 Schritten (s. Tabelle 2). V.2 Digitalisierung In den letzten Jahren wurde die Datenerfassung in klinischen Studien zunehmend digitalisiert. Dabei sind mehrere Prozesse relevant, die z. T. unabhängig, z. T. überlappend und am Ende als Gesamtsystem einer digitalisierten Studie auftreten. Der erste Schritt ist in den meisten Fällen die Einführung eines elektronischen CRFs 11. Es handelt sich im Prinzip um ein Datenerfassungsprogramm, das meist auf mobilen Endgeräten installiert wird, die mit einem zentralen Datenbankrechner über das Internet vernetzt werden oder direkt eine Internetplattform nutzen. Zunächst werden dabei lediglich die im klassischen CRF handschriftlich erfassten Daten auf dem Eingabegerät elektronisch erfasst. Das hinterlegte Programm gibt bereits Alarme aus, wenn nicht plausible Eintragungen erfolgen, und bittet um Korrekturen. Ebenso wird auf vergessene (leere) Eingabefelder aufmerksam gemacht. Serviceprogramme auf dem Zentralrechner unterstützen die Studienorganisation, indem sie in Echtzeit den Umfang und evt. auch die Qualität der Datenerfassung verfolgen. Ebenfalls in Echtzeit können Meldungen von schwerwiegenden unerwünschten Ereignissen eingehen und die Sicherheit der Therapien von einer unabhängigen Kommission verfolgt
9) Während der Rekrutierung soll ein „screening log“ geführt werden, in dem zu jedem Patienten mit der Indikation vermerkt wird, ob er in die Studie aufgenommen wurde oder warum nicht. 10) Die Handzeichen (Kürzel der Unterschrift) aller Beteiligten sind im Personallog des jeweiligen Studienzentrums erfasst. 11) Vgl. z. B. Kuchinke/Ohmann, DÄBl. 2003, A-3081 ff.
684 MedR (2016) 34: 681–686
bzw. überprüft werden. Der so gewonnene Datenumfang unterscheidet sich nicht wesentlich vom Datenumfang, der mit dem klassischen Verfahren erfasst wird. Eine andere Form der Digitalisierung von Studiendaten ist die direkte Übernahme von Daten aus Messgeräten in die Studiendatenbank mittels geeigneter Interfacekonstruktionen und Übertragungsprotokolle. Beispiele sind die Übernahme von Daten aus 24-Stunden-Messgeräten zu Blutdruck, Sauerstoffsättigung oder EKG. Diese Möglichkeit vervielfacht die Zahl der in der Studie erfassten Daten enorm. Eine solche Datenübernahme ist auch in Studien mit klassischem CRF möglich. Sie setzt in jedem Fall eine Kennzeichnung der übernommenen Datensätze mit Patientennummern, Untersuchungszeiten (Visiten) usw. voraus, die die Zusammenführung mit den restlichen Patientendaten ermöglicht. Werden beide Verfahren miteinander gekoppelt, so entsteht ein komplexes rein digitales Datenerfassungssystem. In seiner konsequentesten Ausprägung folgt dieses System der Idee des „Internets der Dinge“, d. h. die einzelnen Messgeräte kommunizieren miteinander und erfassen vollautomatisch diverse Daten der Patienten. Sie folgen dabei u. U. nicht einem fest vorgegebenen Plan, sondern entscheiden im Rahmen eines allgemeinen Studienkonzepts autonom, wann welche Daten erfasst und transferiert werden sollen. Das Studienpersonal bleibt allerdings meist für die Eingabe von Daten zur Diagnostik und Therapie verantwortlich. Diese Daten werden im Gesamtsystem ebenfalls berücksichtigt. Aus dem linearen Erfassungsgang mit CRF wird so ein mehrdimensionales nichtlineares Erfassungssystem. Die durch Digitalisierung erreichte Datenmenge kann dabei leicht um ein Millionenfaches über dem Umfang liegen, der bei einem klassischen CRF erfasst werden kann. Durch „Verlinkung“ mit anderen Datensammlungen kann ein noch weiter ausufernder Datenbestand („Big Data“) erschlossen werden. VI. Paradigmenwechsel von der indikations orientierten zur personalisierten Medizin Die bisherige Methodik und Regulation zur Gewinnung klinischer Evidenz für Nutzen und Risiken bestimmter Therapien orientiert sich an breiten Indikationsgebieten mit notwendigerweise sehr heterogenen Populationen, für die dann repräsentative Stichproben in klinischen Studien untersucht werden. Dabei wird angenommen, dass sich die Heterogenität der Zielpopulation zwar auf den Behandlungserfolg auswirkt, dass sie aber nur zu geringfügigen Variationen der primären Zielkriterien führt. Diese Variation wird in der statistischen Auswertung auch explizit berücksichtigt. Die Aussagen etwa zur Überlegenheit der neuen Therapie gelten mit den angegebenen Unsicherheiten also für die Therapie in Bezug auf die gesamte Zielindikation. Entsprechend erfolgt auch die Zulassung und der praktische Einsatz der so geprüften Therapien für diese breite Indikation. Dieser Ansatz hat sich über viele Jahrzehnte bewährt. Er kam sowohl den Interessen der regulatorischen Institutionen (Verfahrenssicherheit, Komplexitätsreduktion), der Pharmaindustrie („Blockbuster“ gibt es nur für große Indikationsgebiete), den wissenschaftlichen Vereinigungen (Leitlinienentwicklung) als auch den praktizierenden Ärzten (einfacher Zusammenhang von Diagnose und Therapie) entgegen. Zur Zeit vollzieht sich jedoch in mehreren Teilgebieten der Medizin ein Paradigmenwechsel von diesem indikationsorientierten Ansatz hin zu einer personalisierten Medizin 12. Im Kern geht es um die Frage „was ist die beste Therapie für diesen Patienten“ und nicht so sehr um die Frage „was ist die beste Therapie zur Behandlung einer bestimmten Diagnose/Indikation“. Tatsächlich ist eine wirklich individuelle patientenorientierte Medizin noch in weiter Ferne. Aber die Heterogenität der großen Indikationsgebiete erzwingt mit zunehmendem Kenntnisstand eine Diversifizierung der Therapieansätze. Diese Entwicklung wird auch als Präzisi-
Timm, Digitalisierung und Big Data in der Medizin
onsmedizin oder Systemmedizin bezeichnet. Vorreiter ist die Onkologie unter Anderem mit der Berücksichtigung genetischer Merkmale der Patienten (und Tumoren). VII. Auswirkungen Die Entwicklung digitalisierter Datenerhebung in Verbindung mit dem Ziel einer personalisierten Medizin stellt eine große Herausforderung an die Methodik klinischer Forschung und in der Folge an ihre Regulation sowie an die Zulassungsverfahren von Therapien dar. Einige wichtige Aspekte sollen hier kurz benannt werden. VII.1 Zielsetzungen Die patientenorientierte Arbeitshypothese besagt, dass Risiko und Nutzen der Therapien erheblich vom einzelnen Patienten, seiner Differentialdiagnose, Krankengeschichte, genetischen Disposition, Begleiterkrankungen und Begleitbehandlungen, aktuellem Allgemeinzustand, Fitness und psychischer Verfassung, Lebensgewohnheiten und anderen relevanten gesundheitsbezogenen Daten abhängen. Unter dieser Hypothese ist die auf eine (breite) Indikation bezogene Aussage „Therapie A ist der Therapie B überlegen“ unbefriedigend. Es geht vielmehr um Aussagen der Form „Therapie A ist bei bestimmten Patienten der Therapie B überlegen, bei anderen Patienten ist aber Therapie B besser geeignet“. Diese Aussage kann in zwei Teilzielen bearbeitet werden. Ziel 1: Assoziation zwischen Behandlungserfolg und Patientenprofil Im ersten Schritt konzentriert sich die klinische Forschung auf die Suche nach Ursachen für heterogene Ergebnisse zur Wirksamkeit und Verträglichkeit bestimmter Therapien. Gesucht sind erklärende Differenzen in den Datenprofilen der unterschiedlich reagierenden Patienten. Für solche Profile benötigt man sehr umfangreiche Daten, womit sich die argumentative Lücke zwischen Digitalisierung und Personalisierung schließt. Das Ziel ist die Ableitung von Assoziationen und nicht der Nachweis von Kausalität, d. h. nicht die Überprüfung von Hypothesen zu Wirksamkeit und Verträglichkeit, sondern ihre Erzeugung. Ziel 2: Überprüfung der daraus abgeleiteten Hypothesen Ist gemäß Ziel 1 eine Assoziation von Patientenprofilen mit charakteristischen Unterschieden in der Wirksamkeit und Verträglichkeit der zu untersuchenden Therapien gelungen, so können differenzierte Hypothesen über den Erfolg der Therapien aufgestellt und überprüft werden. Im zweiten Schritt geht es also z. B. um den Nachweis der Überlegenheit einer spezifischen Therapie über die Vergleichstherapie in einer geeigneten Untergruppe, die in der vorausgehenden Studie durch ein mit günstigem Erfolg assoziiertes Profil beschrieben ist. VII.2 Studiendesign a) Studien zur Entdeckung erklärender Faktoren für das Therapieergebnis Bei der Suche nach Assoziationen ist zwischen der Untersuchung neuer Therapien und der Suche nach Unterschieden in der Wirkung und Verträglichkeit bekannter Therapien zu unterscheiden. Bei bereits bekannten Therapien kann in großen schon vorhandenen Datensätzen nach erklärenden Faktoren für unterschiedliche Ergebnisse der Therapien gesucht werden. 12) S. z. B. Ohmann, DZKF 2001; 11/12 : 52 ff.
Timm, Digitalisierung und Big Data in der Medizin
Oft werden weitere Daten der betroffenen Patienten genutzt (auch von autonomen Selbstmessungen) und mit vorhandenen Studiendaten verbunden. Dieser Ansatz wird unter Anderem von der Pharmaindustrie angewendet um für bekannte Medikamente neue oder differenziertere Indikationen abzuleiten. Bei neuen Therapien ist das nicht möglich, vielmehr müssen erst Studien durchgeführt werden um Daten zur Entdeckung von unterschiedlichen Erfolgen der Therapien bei unterschiedlichen Patientenprofilen zu gewinnen. Auch hier kann das verfügbare Datenvolumen durch Zuschalten weiterer digitaler Informationen erheblich ausgeweitet werden. Vor einer voreiligen Interpretation gefundener Zusammenhänge zwischen Therapieerfolg und Patientendaten muss jedoch gewarnt werden. Bei der üblichen Suche nach solchen Zusammenhängen ist die Wahrscheinlichkeit sehr groß, rein zufällige Ergebnisse zu erzielen, die tatsächlich keinerlei Bedeutung für den Sachverhalt haben und falsche Schlüsse erzeugen können. Ganz generell kann bestenfalls mit solchen Analysen eine Assoziation aber keine Kausalität belegt werden (s. oben). Die Aussonderung und anschließende Analyse von Untergruppen aufgrund solcher Ergebnisse ist hoch problematisch 13. Die so erzeugte Evidenz ist noch sehr gering und reicht für belastbare Aussagen zu unterschiedlichen Erfolgen der Therapien in bestimmten Patientengruppen nicht aus. b) Studien zum Nachweis differenzierter Therapieerfolge Wenn aus Vorstudien Untergruppen mit Assoziation zu differenziertem Behandlungserfolg gewonnen wurden, kann die Indikationspopulation in solche kleinen, in sich homogenen Untergruppen zerlegt werden, die jeweils unterschiedliche Ergebnisse bezüglich Wirkung und Verträglichkeit erwarten lassen. Im Prinzip kann für jede solche Untergruppe der Indikatorpopulation eine klassische Studie geplant und durchgeführt werden. Dies ist insbesondere angezeigt, wenn die Untergruppen in der Indikatorpopulation verschieden groß sind, da dann die Rekrutierung unterschiedlich lange dauern kann. Es ist aber auch möglich, solche Untergruppen in einer stratifizierten Gesamtstudie zusammenzufassen, was einige methodische Vorteile bringt. In dieser Situation erhält der Ansatz adaptiver Designs 14 besondere Aktualität, bei denen die Patientenzahl oder auch die Untersuchungsgruppen aufgrund von Zwischenauswertungen während des Studienverlaufs angepasst werden können. Ein etwas anders geartetes Design verwendet definierte Strategien, die je nach Patientendaten unterschiedliche Behandlungen vorsehen 15. Geprüft wird dann global die Überlegenheit einer Strategie und nicht die Überlegenheit einer einzelnen Behandlung innerhalb der jeweiligen Strategie. Dieses Verfahren gestattet es auch, den behandelnden Arzt mit seinem komplexen Wissen über den Patienten einzubeziehen. VII.3 Fallzahlen Die Planung der Fallzahlen stellt einen wichtigen ethischen Aspekt dar. Zu kleine Zahlen lassen keine verwertbaren Ergebnisse erwarten, so dass alle Patienten unnötig der Studie ausgesetzt werden. Zu große Fallzahlen bedeuten, dass immerhin ein erheblicher Teil der Patienten der Studie unnötig ausgesetzt wird. Die klassische Rekrutierung einer repräsentativen Stichprobe der Indikationspopulation für die Studie geht von einer Fallzahl aus, die für die globale Aussage einer Überlegenheit (oder wenigstens Nichtunterlegenheit) der Prüftherapie benötigt wird. Dieser Ansatz reicht für die komplexere Fragestellung der personalisierten bzw. der Systemmedizin nicht mehr aus. Für die Suche nach charakteristischen Patientenprofilen, die mit Erfolg (Wirksamkeit und Verträglichkeit) der zu untersuchenden Therapien verbunden sind, benötigt man neue Methoden der Fallzahlkalkulation. Umfangreichere Voruntersuchungen, Literatur- und Pilotstudien müssen dafür ausge-
MedR (2016) 34: 681–686 685
wertet werden. Die Rekrutierung wird oft von der Forderung einer repräsentativen Stichprobe abweichen, um bestimmte, relevante Untergruppen ausreichend häufig zu erhalten (stratifizierte Rekrutierung). Im Allgemeinen benötigt man insgesamt größere Patientenzahlen für diese Fragestellung. VII.4 Statistische Auswertung Die grundsätzliche Herausforderung für die statistische Auswertung besteht in der hohen Zahl von Parametern oder Variablen, die zu berücksichtigen sind. Viele dieser Variablen weisen zudem zeitliche Veränderungen auf. Als Teilgebiet der Statistik ist deshalb die multivariate Statistik gefragt. Sie stellt eine Reihe von Methoden zur Verfügung, mit denen Untergruppen mit unterschiedlicher Wirksamkeit und Verträglichkeit gefunden werden können. Für die Auswertung digitaler Massendaten werden darüber hinausgehend spezifische Verfahren (advanced computational intelligence 16, CI) entwickelt, die z. T. lernende Algorithmen verwenden, um die Datenprofile von „respondern“ und „nonrespondern“ zu trennen. Zu beachten ist, dass solche Untergruppen nicht aus derselben Studie heraus gebildet werden sollten, in der auch eine Entscheidung über Verträglichkeit und Wirksamkeit der Behandlungen in diesen Untergruppen getroffen werden soll. Für die Entscheidung darüber ist es wichtig, dass die Untergruppen „a priori“, d. h. vor der Planung der entscheidenden Studie definiert sind. Bildung von Untergruppen „a posteriori“, also aus denselben Daten, aus denen auch die Entscheidung getroffen werden soll, ist aus statistischer Sicht hoch problematisch und sollte vermieden werden (vgl. auch Abschnitt 7.2.1). Eine anschließende Studie zur genaueren Untersuchung definierter Untergruppen kann zunächst mit Standardverfahren bearbeitet werden wie sie auch bei der statistischen Auswertung klassischer Studien verwendet werden. Eine besondere Beachtung erfordert jedoch die Einhaltung des Testniveaus, das die Wahrscheinlichkeit für den Fehler erster Art kontrolliert. Der Übergang von der Indikationspopulation zu ausgesuchten Untergruppen dieser Population ist noch nicht die Einlösung des Anspruchs einer personalisierten Medizin. Es wird ja immer noch der einzelne Patient einer bestimmten Gruppe zugeordnet und seine Erfolgschancen nach denen der Gruppe bestimmt. Einen Ausweg können komplexe mathematische Modelle bieten, die ein Prognosemodell für den Erfolg der verschiedenen Therapien aufgrund der Gesamtauswertung einer großen (stratifizierten) Studie liefern. Solche Modelle stellen die Wahrscheinlichkeit für bestimmte Erfolgskriterien in Abhängigkeit der umfangreichen gemessenen Daten der einzelnen Studienpatienten dar. Auch hier ist eine Überprüfung der Prognosegüte mit einer weiteren Studie notwendig. Eine andere Möglichkeit besteht z. B. in der Aufteilung des gesamten Datensatzes in zwei Teile. Aus dem einen Teil wird das Modell erstellt und mit dem anderen Teil überprüft. VII.5 Probleme klinischer Forschung mit digitalisierten Massendaten a) Mangelnde Transparenz Die Auswertung von Studien mit digitalisierten Massendaten stellt wie oben angedeutet eine große Herausforderung 13) S. z. B. Wang et al., Statistics in Medicine – Reporting of Subgroup Analyses in Clinical Trials. N Engl J Med 2007; 357 21: 2189 ff. 14) Wassmer/Brannath, Group Sequential and Adaptive Confirmatory Designs in Clinical Trials. Springer Series in Pharmaceutical Statistics 2016 XII. 15) Schulz et al., Patient-oriented randomisation: A new trial design applied in the neuroleptic Strategy Study. Clin Trials 2016; 13: 251 ff. 16) Yoshida/Ichalkaranje, Advanced Computational Intelligence Paradigms in Healthcare, 2007.
686 MedR (2016) 34: 686–690
an die statistische Auswertung dar. Darauf bezogene Entscheidungen sind oft nur durch Verweis auf methodische Details zu begründen, die selbst für Experten nicht leicht nachvollziehbar sind. Dies gilt besonders für Ergebnisse, die mit lernenden CI-Algorithmen erzeugt werden. Damit büßt das Verfahren zur Ableitung klinischer Evidenz einer Therapieempfehlung oder auch nur Marktzulassung erheblich an Transparenz für Ärzte und Patienten ein. Vertrauen kann vielleicht durch penible Einhaltung akzeptierter methodischer Standards, Zertifizierung von Algorithmen/ Computerprogrammen und ggf. erlassener Regeln erreicht werden, die verständlich formuliert und öffentlich sein sollten. b) Qualitätskontrolle Für eine solche Entwicklung ist eine umfangreiche Qualitätskontrolle notwendig. Qualitätsmanagement und -kontrolle müssen sich angesichts der komplexeren Materie mit mehr Aspekten befassen und ihre Ergebnisse umfangreicher dokumentieren und kommunizieren, als das bei klassischen klinischen Studien notwendig ist. Wichtige Qualitätsaspekte beziehen sich auf die Organisation der Studie, ihre Kommunikationsstruktur, Patientenrechte, Datenschutz und Datensicherheit, Informationstechnologie, die Verfahren der Datenerhebung und -verarbeitung, die Auswertungsmethoden und die Veröffentlichung von Ergebnissen. Für die Qualitätskontrolle von Studien mit digitalen Massendaten fehlen zum großen Teil noch Standardverfahren. Spezifische Zertifizierungsprozesse können hier hilfreich sein, sind aber z. T. noch (weiter) zu entwickeln. c) Zeitbedarf und Kosten Eine qualitätsorientierte Durchführung klinischer Forschung unter den hier beschriebenen Anforderungen benötigt einen höheren Zeitbedarf und höhere Kosten als der klassische Ansatz. Patienten, die auf die Zulassung neuer Medikamente warten, haben oft wenig Verständnis für den Zeitbedarf bis zur Zulassung und die Hersteller von Medikamenten oder Medizinprodukten neigen dazu aus Kostengründen Qualitätsabstriche vorzunehmen. Eine Optimierung unter Einhaltung der Qualitätsanforderungen erfordert innovative Ansätze. d) Datenschutz Während die Einwilligung der Patienten in die Verwendung der in einer Studie erhobenen Daten für das Studienziel inzwischen als Voraussetzung für die Studienteilnahme Standard ist, wirft die Verwendung weiterer Daten oft da-
Timm, Digitalisierung und Big Data in der Medizin
tenschutzrechtliche Probleme auf. Hier wäre ein standardisiertes Verfahren hilfreich um ein Ausufern in Richtung einer beliebigen Nutzung solcher Daten durch zu weitgehende Einwilligung ebenso zu verhindern wie eine Blockade für die jeweilige Fragestellung wichtiger Datenwege. Eine weitere besondere Problematik ist die Möglichkeit der Auflösung der Pseudonymisierung, da aus umfangreichen Patientendatenprofilen zumindest im Prinzip auf einzelne Patienten zurück geschlossen werden kann. Hier sind besondere Vorkehrungen zu treffen, die diese Möglichkeit verhindern, zumindest erheblich erschweren. Die in klassischen Studien angewendeten Methoden 17 reichen dafür noch nicht aus. e) Datensicherheit Neben dem Datenschutz ist bei Studien mit digitalisierten Massendaten in besonderer Weise auf deren Sicherheit bei der Erhebung, Übertragung, Auswertung und Speicherung zu achten. Das bezieht sich nicht nur auf technische Fehler und Systemausfälle, sondern auch auf Cyberkriminalität der unterschiedlichsten Formen. VIII. Fazit Der Übergang zu einer evidenzbasierten Systemmedizin, die sich auf digitale Massendaten stützt, verspricht patientenorientiert besser angepasste Therapien, bedeutet aber auch höheren methodischen Aufwand. Werden hierbei Abstriche in Kauf genommen, kann es aufgrund zufälliger Ergebnisse leicht zu gravierenden Fehlschlüssen kommen, die zu falscher Therapie führen und damit weder medizinisch noch ethisch akzeptabel sind. Der Ansatz ist mit weiteren spezifischen Problemen behaftet. Beispiele für neue oder deutlicher hervortretende Problembereiche sind Transparenz von Ergebnissen, Datenschutz, Datensicherheit, Zeitbedarf und Kosten. Hier sind Lösungen zu erarbeiten bzw. weiter zu entwickeln. Qualitätssicherung, Zertifizierung, Standardisierung und Regulation solcher Studien als empirische Basis einer auf digitale Massendaten gestützten Systemmedizin sind noch erheblich auszubauen. Hier ist die interdisziplinäre wissenschaftliche Gemeinschaft ebenso gefragt wie die regulativen Instanzen und letztlich der Gesetzgeber. 17) Z. B. das Schwärzen, besser der Verzicht auf Namen oder Initialen, Geburtstage etc.
Digitalisierung und Big Data in der Medizin Chancen und Risiken aus Sicht der Informatik*
Ingo J. Timm Die Digitalisierung zieht sich durch beinahe alle Lebensbereiche: sowohl der private Raum als auch die Arbeitswelt wird zunehmend von Informations- und Kommunikationstechnologien unterstützt. Dabei verschwinden Univ.-Prof. Dr.-Ing. Ingo J. Timm, Universität Trier, FB IV – Lehrstuhl für Wirtschaftsinformatik I, Behringstraße 21, 54286 Trier, Deutschland
die Grenzen der Wahrnehmung für diese Technologie: Computer und Netzwerke sind allgegenwärtig und werden von Nutzerinnen und Nutzern nicht mehr als solche wahrgenommen. Daneben wurden und werden die tech*) Schriftliche Fassung des auf der 5. Tagung der Medizinrechtslehrerinnen und Medizinrechtslehrer am 6./7. 5. 2016 in Bremen gehaltenen Vortrags.