Home | Patienten | Gesundheitssystem | International | GKV | Prävention | Epidemiologie | Websites | Meilensteine | Impressum

Sitemap erstellen RSS-Feed

RSS-Feed
abonnieren


Sämtliche Rubriken in "Gesundheitssystem"


Umgestaltung, neue Modelle

Finanzierung und Kosten, Lohnnebenkosten

Demografie, Krankheitslast

Medizinisch-technischer Fortschritt

eHealth / IT: Versichertenkarte, Patientenakte

Das Märchen von der Kostenexplosion

Internationaler Gesundheitssystem-Vergleich

Gesundheitswirtschaft

Andere Themen



Alle Artikel aus:
Gesundheitssystem
Medizinisch-technischer Fortschritt


Hilft das Wissen über genetische Risiken das Gesundheitsverhalten zu verändern und sind Therapien nah? Nein, eher nicht!!

Artikel 2509 Zu den hartnäckigen mit dem Angebot von Analysen der individuellen genetischen Dispositionen und Risiken verbundenen Erwartungen und Versprechungen zu ihrem Nutzen gehört (vgl. dazu u.a. den Beitrag Das Geschäft mit Genomanalysen für Privatpersonen blüht: Krankheitsrisiken, Ernährungsratschläge, Empfehlungen zur Partnerwahl in diesem Forum), dass die NutzerInnen durch die Kenntnis ihrer DNA-basierten Erkrankungs- oder gar Sterberisiken motiviert würden gezielt ihr risikobezogenes Verhalten zu verändern. Wer also ein genetisch erkennbares und bekanntes Übergewichts- oder Herzinfarktsrisiko hat, könne und würde also seine Ernährung umstellen, das Rauchen aufhören oder sich mehr bewegen - so jedenfalls die Welt aus Sicht der Anbieter der entsprechenden Gentests.

Angesichts der erkennbaren Zunahme des Angebots und der Nutzung solcher Tests erschien bereits 2010 ein erster Cochrane Review, der auf der Basis von damals 7 methodisch hochwertigen Studien überprüfte, ob die Welt so oder anders aussieht.

Angereichert mit den Ergebnissen von weiteren 11 Studien (nach den Kriterien von Cochrane Reviews ausgewählt nach Sichtung von 10.515 Studienabstracts) mit jeweils mehreren tausend TeilnehmerInnen erschien am 15. März 2016 ein Update dieses Reviews. Vorgestellt werden die Wirkungen der Kommunikation über Gentestergebnisse auf sieben Arten von Gesundheitsverhalten: Rauchen, Ernährung, körperliche Aktivitäten, Alkoholtrinken, Arzneimitteleinnahme, Sonnenschutz und Nutzung von Screeninguntersuchungen sowie verhaltensunterstützender Programme.

Die Ergebnisse lauten so:

• Für keine der genannten Verhaltensarten gab es einen statistisch (u.a. mit Meta-Analysen) signifikanten Effekt der Kommunikation über D• -basierte Risikoschätzungen auf das konkrete Verhalten, also z.B. mehr körperliche Bewegung oder die Beendigung des Rauchens.
• Es gab auch keine gesichert nachweisbaren Effekte auf die Motivation für Verhaltensänderungen.
• Nicht nachweisbar waren aber auch unerwünschte Effekte der Kenntnis genetischer Risiken, wie Depression oder Angst.
• Die Analyse von Untergruppen der StudienteilnehmerInnen lieferten außerdem keine klare Evidenz, dass die Kenntnis der individuellen genetischen Struktur (Genotyp) das Verhalten mehr beeinflusst als deren Nichtkenntnis.

Trotz der Eindeutigkeit der Studienlage weisen die AutorInnen des Cochrane Review aber aber auf das bisher hohe oder unklare Risiko von Verzerrungen in den analysierten Studien und die geringe Qualität der daraus gewonnenen Evidenz ("high or unclear risk of bias, and evidence was typically of low quality") hin.
Trotzdem sollte ihre Zusammenfassung der Evidenz jede Hoffnung, dass man etwas so Komplexes wie das gesundheitsbezogene Verhalten mit den Ergebnissen von Gentests steuern könne, abbremsen, wenn nicht gar stoppen: "Existing evidence does not support expectations that such interventions could play a major role in motivating behaviour change to improve population health."

Unabhängig davon verdienen aber die Fortschritte der DNA-Analysen mit den dadurch gewonnenen Einsichten in die Komplexität von Erkrankungen, die Untergruppen von Erkrankten und die möglichen positiven Auswirkungen auf die Entwicklung wirksamer Therapeutika auch hohe Aufmerksamkeit von Gesundheitswissenschaftlern.

Zum Einlesen und einem Hauch von Problembewusstsein lohnt sich z.B. ein ebenfalls gerade erschienener Aufsatz über die Bestimmung von molekularen Untertypen von jungen Personen mit einer neurologischen Entwicklungsstörung wie Autismus, intellektuelle Behinderung, Epilepsie oder Schizophrenie.

Die Autoren beginnen mit einer keineswegs selbstverständlichen zurückhaltenden Vorstellung ihres Versuchs, Patienten mit diesen Erkrankungen genetisch zu differenzieren und erst dann therapeutische Verbesserungen liefern zu können: "We propose that grouping patients on the basis of a shared genetic etiology is a critical first step in tailoring improved therapeutics to a defined subset of patients."
Was dies trotz modernster und schnellster Gen-Sequenziertechnik rein quantitativ bedeutet, machen sie daran klar, dass zwischen 500 und 1.000 Gene zur Ätiologie des Autismus beitragen, hinter intellektuellen Behinderungen mehr als 1.000 Gene stehen und auch an Epilepsie und Schizophrenie 500 bzw. 600 Gene beteiligt sind.
Selbst dann, wenn diese Zusammenhänge quantitativ zutreffend sind, räumen die AutorInnen ein, dass "hundreds of ND risk genes remain undiscovered or have not been associated with NDs with sufficient statistical significance owing to ultra-low mutation frequencies in the patient population".

Damit wird auch klar warum sie bei praktischen Ergebnissen dieser Forschung insgesamt zurückhaltend argumentieren: "Classifying patients into subgroups with a common genetic etiology and applying treatments tailored to the specific molecular defect they carry is likely to improve management of neurodevelopmental disease in the future."

Ob andere Studien mit wesentlich bestimmteren Aussagen über die strenge Determiniertheit anderer Krankheiten durch wenige Gene bzw. deren Mutationen und bevorstehende oder bald mögliche gentechnische Interventionen, wirklich zutreffen, lohnt eine intensivere Beschäftigung - trotz der zum Teil schwer verständlichen Fachbegrifflichkeiten.

Der Review The impact of communicating genetic risks of disease on risk-reducing health behaviour: systematic review with meta-analysis. von Hollands GJ, French DP, Griffin SJ, Prevost AT, Sutton S, King S und Marteau TM ist im Fachjournal "British Medical Journal" (352: i1102) als open access-Text erschienen und damit vollständig kostenlos erhältlich.

Das ausgewählte Beispiel aus der laufenden gentechnischen und -medizinischen Forschung Molecular subtyping and improved treatment of neurodevelopmental disease von Holly A. F. Stessman, Tychele N. Turner und Evan E. Eichler ist am 25. Februar 2015 als "open access"-Aufsatz in der Fachzeitschrift "Genome Medicine" (8: 22) erschienen und kostenlos erhältlich. Sämtliche dort veröffentlichten Fachaufsätze kann man nach einer Anmeldung kostenlos erhalten.

Bernard Braun, 25.3.16


Enger Zusammenhang: Wohlbefinden in der letzten Lebensphase, soziale Ziele, Teilhabe und Aktivitäten

Artikel 2500 Eine Grunderkenntnis von und ein Ansatzpunkt für Public Health ist, dass viele Krankheiten und gesundheitsbezogene Ereignisse in erheblichem, wenn nicht sogar überwiegenden Maße mit sozialen Strukturen und Beziehungen assoziiert sind oder durch diese verursacht werden. Dort befinden sich folglich auch wichtige Ansatzpunkte für Prävention und Bewältigung.
Einen gewichtigen Beleg für diese Zusammenhänge liefert jetzt eine gerade veröffentlichte Analyse über die spezifischen und eigenständigen Zusammenhänge von sozialer Aktivität und Engagement sowie einer Vielzahl gelebter sozialer Werte auf das Wohlbefinden insbesondere älterer Personen in den letzten Jahren vor ihrem Tod.
Der Studie lagen Daten aus dem Sozioökonomischen Panel (SOEP) von 2.910 verstorbenen Personen zugrunde, die vor ihrem Tod bis zu 27-mal an der jährlich durchgeführten Erhebung teilgenommen hatten. Das Durchschnittsalter zum Zeitpunkt ihres Todes betrug 74 Jahre und das Verhältnis von Männern und Frauen war ausgeglichen. Diese Personen wurden u.a. regelmäßig zu ihrem Wohlbefinden und ihren sozialen Aktivitäten befragt.

Die wesentlichen Ergebnisse waren:

• "Sowohl ein sozial aktives Leben als auch das Verfolgen von sozialen Zielen stehen unabhängig voneinander mit einem höheren Wohlbefinden in der letzten Lebensphase in Verbindung.
• Der Zusammenhang ist unabhängig von anderen bereits bekannten Faktoren, wie dem Gesundheitszustand, Behinderungen oder Krankenhausaufenthalten sowie beispielsweise dem Geschlecht, dem sozio-ökonomischen Status und dem Bildungsstand zu beobachten.
• Die Stärke des Effektes liegt bei annähernd zehn Prozent im Hinblick auf die Höhe des Wohlbefindens und bei beinahe zwanzig Prozent in Bezug auf dessen Abnahme kurz vor dem Tod.
• Wenn die untersuchten Personen sowohl weniger sozial aktiv waren als auch soziale Ziele weniger wichtig fanden, verstärkten sich die an sich schon einzeln vorhandenen Effekte erheblich. Diese Menschen schätzten ihre Lebenszufriedenheit ein Jahr vor ihrem Tod besonders niedrig ein. Außerdem konnte gezeigt werden, dass soziale Teilhabe nicht nur an sich wichtig ist, sondern dass es auch darauf ankommt, sozial aktiv zu bleiben. So war die Abnahme des Wohlbefindens vor dem Tod weniger ausgeprägt bei Menschen, deren hohes Niveau an sozialen Aktivitäten - trotz Krankheit und Behinderung - kaum abnahm."

Die von einem internationalen ForscherInnenteam u.a. aus dem Deutschen Institut für Wirtschaftsforschung (DIW) erstellte 56-seitiges Studie Terminal decline in well-being: The role of social orientation von Gerbstoff, D., Hoppmann, C. A., Löckenhoff, C. E., Infurna, F. J., Schupp, J., Wagner, G. G. und Ram, N. ist im März 2016 in der Fachzeitschrift "Psychology and Aging" (31(2):149-65) erschienen und komplett kostenlos erhältlich.

Bernard Braun, 12.3.16


Antibiotikaresistenzen - Aus der Traum von der Beherrschbarkeit aller Krankheiten

Artikel 2474 Die ausbleibende Wirksamkeit von Antibiotika weckt weltweit wachsende Besorgnis. Selbst das G7 genannte informelle Forum der Staats- und Regierungschefs hat sich bei ihrem letzten Treffen im bayerischen Elmau dieses Themas angenommen. Die deutsche Präsidentschaft hatte neben anderen Gesundheitsthemen auch die zunehmenden Multiresistenzen auf die Tagesordnung gesetzt. Doch die auf dem G7-Gipfel im Juni 2015 verabredeten Ansätze und Strategien sind ernüchternd, denn sie gehen nicht über gängige technokratische Vorgehensweisen hinaus. Ein Erfolg versprechendes Umdenken lassen die Beschlüsse von Elmau ebenso vermissen wie ein Rühren an grundlegenden Ursachen und Faktoren der Resistenzentwicklung.

Auch die unter Federführung der Nationalen Akademie der Wissenschaften Leopoldina entstandene Stellungnahme G7 Science Academies' Statement 2015 verharrt bei den gängigen biomedizinischen Ansätzen - Entwicklung neuer antibiotischer Wirkstoffe, Eindämmung der Ausbreitung von Multiresistenzen und bessere Überwachung - und ergänzt sie durch das andere gesundheitsbezogene Gipfel-Thema der Gesundheitssystemstärkung.

Überraschend ist das allerdings nicht bei der Leopoldina, die sich bezeichnenderweise auch Akademie der Naturforscher nennt. Das innovative Potenzial dieser und anderer Stellungnahmen - siehe zum Beispiel den Beitrag Public Health als Weg zur Optimierung des Menschen im Sinne besserer Resilienz auf dieser Website - beschränkt sich regelhaft auf Genomik und andere evolutionäre Forschungsansätze. Wichtige gesellschaftliche Zusammenhänge und insbesondere Einflussfaktoren außerhalb des Gesundheitswesens im engeren Sinne spielen in der Problemanalyse und den Lösungsansätzen einflussreicher WissenschaftlerInnen ebenso wie in der Politik allenfalls eine untergeordnete Rolle.

Die Ausführungen von Bundeskanzlerin Angela Merkel zum Thema Antibiotikaresistenzen bei ihrer Pressekonferenz zum Abschluss des G7-Gipfels in Elmau zeugen allerdings von erheblich grundlegenderem Aufklärungsbedarf bei politischen EntscheidungsträgerInnen: "Erstens: der Kampf gegen Antibiotikaresistenzen. Das ist ein Thema, das die entwickelten Länder und die Entwicklungsländer gleichermaßen interessiert und für beide wichtig ist. Man denkt immer, gegen alle Krankheiten seien Antibiotika vorhanden ‑ aber wenn einmal Resistenzen auftreten, dann ist es heute sehr, sehr schwer, neue Antibiotika zu entwickeln. Hier haben uns die nationalen Akademien der G7-Staaten geholfen, Maßstäbe zu entwickeln und Handlungen durchzuführen, mit denen wir dann besser die Entwicklung von Antibiotika begleiten können und die sachgerechte Anwendung von Antibiotika sicherstellen können. Dazu haben sich die G7-Staaten zu dem einen Gesundheitsansatz bekannt. Was heißt das? Das heißt, Menschen und Tier gleichermaßen in den Blick zu nehmen und Antibiotika auch verschreibungspflichtig zu machen. Das ist von äußerster Wichtigkeit für den sachgerechten Umgang."

Tatsächlich stellt die zunehmende Multiresistenz vieler Erreger gegen gängige Antibiotika weltweit ein wachsendes Problem dar. Das deutsche Bundesgesundheitsministerium legte im März 2015 seinen 10-Punkte-Plan zur Bekämpfung resistenter Erreger vor, und die Bundesregierung hat sich auf die Deutsche Antibiotika-Resistenzstrategie DART verständigt. Die Weltgesundheitsorganisation legte bereits 2001 ihre Global Strategy for Containment of Antimicrobial Resistance vor und erst letztes Jahr ihren bisher letzten Bericht zu Antimicrobial resistance: global report on surveillance 2014 vor.

So richtig und wichtig all diese Ansätze auch sind - ihre nachhaltige Wirksamkeit ist allerdings zweifelhaft. Sie beschränken sich darauf, die Vorbeugungs- und Behandlungsmöglichkeiten zu verbessern. Die Verhältnisse, die zur Entstehung gefährlicher Multiresistenzen geführt haben, lassen sie ebenso außer Acht wie die Beseitigung ihrer vielschichtige Ursachen. Darauf macht ein Hintergrundpapier der Deutschen Plattform für Globale Gesundheit DGPP aufmerksam, das sich kritisch mit den bisherigen Ansätzen der Resistenzeindämmung befasst.

Zweifellos ist es erforderlich und hilfreich, die Entwicklung neuer, wirksamer Antibiotika zu fordern und zu fördern und auf einen rationalen Einsatz dieser Medikamente sowohl in der Human- als auch in der Veterinärmedizin zu drängen. Dazu bedarf es allerdings einer erheblichen Umsteuerung bei Anreizen und Finanzierung des Krankenversorgungssystems - hiervon ist in den bisherigen Verlautbarungen und Strategien wenig bis nichts zu lesen. Auch reicht es nicht aus, den TierärztInnen schärfer auf die Finger zu schauen oder Verordnung und Vertrieb von Antibiotika zu trennen, denn die Voraussetzungen für die Entstehung von Multiresistenzen stecken in der Renditeorientierung des agroindustriellen Wirtschaftszweigs.

Die wirksame Vermeidung von Multiresistenzen erfordert aber letztlich ein weitaus umfassenderes Verständnis relevanter Zusammenhänge. Wie im Forum Gesundheitspolitik bereits dargelegt - siehe Korruption sowie private Finanzierung von Gesundheitsleistungen - wichtigste Ursachen für zunehmende Antibiotikaresistenzen - nehmen auch der Umfang der privaten Gesundheitsausgaben in einem Versorgungssystem und vor allem die Güte der Regierungsführung Einfluss auf die Entstehung von Antibiotikaresistenzen. Das DGPP-Hintergrundpapier weist an Hand verschiedener Beobachtungen und Zusammenhänge nach, dass die Bekämpfung und Vermeidung von Multiresistenzen über biomedizinische und technische Ansätze hinausgehen muss, um erfolgreich zu sein.

Unerwähnt bleibt dabei allerdings der Zusammenhang zwischen den herrschenden Bedingungen, unter denen wissenschaftliche Forschung stattfindet, und den Erfolgsaussichten bei der nachhaltigen Überwindung von Resistenzentwicklungen. Schließlich ist es kein Zufall, dass die Pharma-Industrie zuletzt wenig in die Entwicklung neuer Antibiotika investiert hat, denn hohe Gewinne locken woanders. Selbst wenn sich dies ändert, steht zu befürchten, dass die bestehenden Patentregelungen neue Antibiotika für zu viele unerschwinglich machen, um Resistenzentwicklungen tatsächlich vermeiden zu können. Die gleichzeitig in Elmau beschworene Forcierung internationaler Handelsabkommen beraubt die Staaten zunehmend ihrer Möglichkeiten, steuernd und Gefahr mindernd in das globale Geschehen einzugreifen. Doch dieser Widerspruch bleibt im herrschenden Diskurs unerkannt - oder zumindest unbenannt.

Das Hintergrundpaper zu Antibiotika-Resistenzen steht in voller Länge zum Download zur Verfügung.

Bernard Braun, 8.7.15


Public Health als Weg zur Optimierung des Menschen im Sinne besserer Resilienz

Artikel 2470 Mitte Juni legte die Nationale Akademie der Wissenschaften Leopoldina gemeinsam mit der Deutschen Akademie der Technikwissenschaften e. V. und der Union der deutschen Akademien der Wissenschaften e. V. ihre Stellungnahme Public Health in Deutschland (2015) vor. Das Papie mit dem Untertitel Strukturen, Entwicklungen und globale Herausforderungen geht erklärtermaßen der Frage nach, ob Deutschland sein Potenzial im Bereich Public Health in Hinblick auf nationale und globale Herausforderungen ausschöpft. Dazu hat "eine internationale Arbeitsgruppe aus hochrangigen Wissenschaftlerinnen und Wissenschaftlern die bestehenden Grundlagen von Public Health in Deutschland untersucht und die zukünftigen Anforderungen an die Förderung und Weiterentwicklung des Gebietes ausgelotet" (S. 3).

Die Stellungnahme umfasst eine Vielzahl unterschiedlicher Aspekte von Public und Global Health und geht im Einzelnen auf die folgenden Themenbereiche ein: Ziele und Funktionen von Public Health, Herausforderungen, Fortschritte und Aussichten von Public Health, Globale Herausforderungen bewältigen: Erfolgreiche globale Gesundheitspolitik beginnt zu Hause, Geschichte und aktuelle Situation von Public Health in Forschung und Lehre in Deutschland und europäischer Hintergrund, und leitet daraus einschlägige Folgerungen und Empfehlungen für die Zukunft von Public Health in Deutschland ab.

Die mit der Stellungnahme unterstrichene Forderung nach stärkerer Beachtung und Bedeutung von Public Health in der Wissenschaft ist grundsätzlich begrüßenswert und könnte eine wichtige Weichenstellung in diese Richtung darstellen. Auch erscheint die einleitende Verortung dieses Wissenschaftszweigs plausibel, nachvollziehbar und korrekt: "Public Health ist mehr als Medizin" (S. 13) und "Public Health ist eine wichtige integrative Wissenschaft, die Ergebnisse der Grundlagenforschung in praktische Maßnahmen für die Gesundheit der Bevölkerung umsetzt" (S. 6). Auch der Forderung, Public-Health-Forschung müsse dazu beitragen, "effektive politische Maßnahmen, Programme und Strategien zur Verbesserung der Gesundheit, auch im nichtmedizinischen Bereich, zu entwickeln und Gesundheitssysteme zu stärken" (S. 9), ist nicht zu widersprechen.

Die Überlegungen der beteiligten WissenschaftlerInnen beruhen nicht zuletzt auf der beklagenswerten Situation, dass deutsche Forschungsergebnisse und praktische Erfahrungen nur geringen Einfluss auf die internationale Debatte und globale Gesundheitsansätze haben. Daher fordern sie: "Hier kann sich Deutschland verstärkt in die internationale Zusammenarbeit einbringen, vor allem da, wo es über einen reichen Erfahrungsschatz verfügt, beispielsweise in den Bereichen Forschung, Innovation, flächendeckende Gesundheitsversorgung und soziale Sicherheit" (S. 7) und kommen zu der Analyse: "Letztlich ist festzustellen, dass die in Deutschland erzielten Forschungsergebnisse und praktischen Erfahrungen zu Public Health bisher nicht in dem ihnen angemessenen Umfang in die Debatte zu Global Health eingeflossen sind" (ibid.). Das wiederholt in dem Papier eingeforderte Mehr an Forschung lässt sich aus dieser Formulierung allerdings schwerlich ablesen, hapert es doch vielmehr an der richtigen Vermarktung in der merkantilisierten Welt der Wissenschaft. Dieses Dilemma ist in erster Linie Folge des sprachlich, inhaltlich und machtbedingten Publikationsbias der internationalen wissenschaftlichen Publikationsszene und zum anderen dem in Deutschland vielfach zu beobachtenden gesundheitswissenschaftlichen und -politischen Germano- oder zumindest Eurozentrismus geschuldet. Dies zu ändern, erfordert eher Publikations- als Wissenschaftsförderung. Doch davon steht in dem Papier nichts, ebenso wenig wie von den möglichen Ursachen der aufgeführten unterschiedlichen nationalen Publikationsumfänge (S. 48ff).

Eine Kernforderung des Leopoldina-Papiers ist die nach "Entwicklung einer innovativen Forschungsagenda für die Bereiche Public Health und Global Health, die die globale, sich wandelnde Krankheitslast widerspiegelt" (S. 9, 61). Dieser Satz spiegelt unübersehbar den überwiegend medizinisch-naturwissenschaftlichen Hintergrund der AutorInnen wider und entlarvt gleichzeitig ihre eigentliche Absicht. Wer Public Health primär als Antwort auf die "Krankheitslast" begreift und funktionalisiert, degradiert sie zu einem verlängerten Arm von Medizin und Biowissenschaften. Dazu passt der ausgesprochen beschränkte Präventionsbegriff der Leopoldina-AutorInnen (S. 30; wenngleich nachgehend wieder etwas aufgeweitet, s. S. 44). Die Verkürzung von Prävention auf Impfungen und Früherkennung entspricht dem Verständnis von BiologInnen, MedizinerInnen und anderen NaturforscherInnen - einem gesundheitswissenschaftlichen Ansatz wird sie aber ebenso wenig gerecht wie dem tatsächlichen Umfang von Krankheitsvorbeugung bzw. -vermeidung und dem Bedarf an gesund erhaltenden Maßnahmen. Der Leopoldina-Standpunkt ist nicht nur biomedizinisch geprägt ("Wie verbessern wir den Beitrag von Forschung und Wissenschaft, um die Gesundheit der Bevölkerung zu verbessern?" (S. 7)), sondern erkennbar selbstreferenziell: "Inwiefern könnte eine Reform der wissenschaftlichen Einrichtungen im Bereich Public Health in Deutschland die Rolle Deutschlands auf nationaler, europäischer und internationaler Ebene stärken? (S. 7f). Zwar enthält die Stellungnahme auch Empfehlungen für die Rückbesinnung auf die öffentliche Hand ("Ein starker Öffentlicher Gesundheitsdienst (ÖGD) und eine angemessene Ausbildung sind wichtige Voraussetzungen für ein funktionierendes Public-Health-System" (S. 8) - was auch immer ein "Public-Health-System" sein soll). Aber die Betonung vertikaler Ansätze wie der Bekämpfung von HIV/AIDS und chronischer Krankheiten (NCD, s. S. 6) weckt gleichzeitig Zweifel an der Komplexität und Integralität des Public-Health-Verständnisses der Leopoldina.

Insgesamt wappnen sich die AutorInnen des Papiers durch die stetige Verwendung genereller Begrifflichkeiten, gängiger Allgemeinplätze und unspezifischer Worthülsen gegen den Vorwurf einer inakzeptablen Einengung und der Auslassung relevanter Aspekte. Bedenklich ist dabei zugleich die Gewichtung bzw. wiederholte selektive Hervorhebung einzelner Gesichtspunkte, die zwar durchaus ihre Bedeutung haben mögen, deren grundlegende gesundheitswissenschaftliche Relevanz man allerdings in Frage stellen muss. So heißt es in der Zusammenfassung des Papiers: "Darüber hinaus müssen mehr Mittel für Sozial- und Verhaltenswissenschaften sowie für Genomik und andere, auf Omics-Technologien basierende Forschungsansätze und deren systematische Verbindung untereinander bereitgestellt werden" (S. 9; s. auch S. 33, 61, 66). Schön ist, dass auch Sozial- und Verhaltenswissenschaften benannt sind; schade ist dabei, dass viele andere Teile der Gesundheitswissenschaften keine zusätzlichen Mittel erhalten sollen; und besorgniserregend die einseitige Betonung von Genomik und Omics-Technologien. Die auf den ersten Blick willkürlich erscheinende, bei genaueren Hinsehen erkennbar interessensgeleitete Fokussierung auf einen bio-technokratischen Ansatz verdeutlicht den kaum verhohlenen Versuch, die Gesundheits- im Dienste der Krankheitswissenschaften zu instrumentalisieren und zu Hilfswissenschaften der Biomedizin zu degradieren.

Die grundlegenden und hinlänglich bekannten, in dem Papier ja zumindest auch benannten Auswirkungen sozialer Determinanten auf die Gesundheit der Bevölkerung lassen sich aber weder durch Genforschung noch durch Omics beseitigen oder kompensieren - erst recht nicht, wenn gleichzeitig soziale Ungleichheit und Depravation weltweit zunehmen. Ohne die Probleme aufgrund bestehender Patentregelungen zu benennen - das Wort Patent taucht nicht ein einziges Mal auf -, entbehrt die Forderung nach Forschungsförderung in Gentechnologie und sonstigen Bereichen der Biomedizin nicht nur einer überzeugenden Grundlage, sondern ist grob fahrlässig: Unter den bestehenden Bedingungen der Renditeorientierung und Gewinnmaximierung werden innovative biomedizinische Erkenntnisse bestehende soziale und gesundheitliche Ungleichheiten verstärken und eben nicht dazu beitragen, die Gesundheit der Bevölkerung zu verbessern.

Vor diesem Hintergrund entlarven sich die Verweise der mit ihrem traditionellen Namen Nationale Akademie der Naturforscher wesentlich treffender beschriebenen Leopoldina auf soziale Determinanten als Alibi, wenn nicht gar als Ablenkungsmanöver. "Weitere Forschungsanstrengungen sind erforderlich, um diese bereichsübergreifenden Themen zu verstehen; dazu zählt das breite Feld der Ungleichheit und der die Gesundheit beeinflussenden sozialen Determinanten" (S. 9). Hier ist deutlicher Widerspruch angezeigt: Es braucht nicht mehr und immer mehr Forschung, um die Zusammenhänge immer wieder aufs Neue zu belegen, die seit Jahrzehnten und letztlich spätestens seit Rudolf Virchow in diesem Land hinlänglich bewiesen sind. Die Beforschung sozialer Bedingungen und Ungleichheiten bleibt Selbstzweck, solange die Ergebnisse keine hinreichende Berücksichtigung in einer nationalen und globalen Health-in-All-Politik finden. Und so lange wie realitätsferne Modellbetrachtungen aus der Ökonomie erheblich größeren Einfluss auf gesundheitspolitische Entscheidungen nehmen als tausendfach belegte Zusammenhänge zwischen Lebensbedingungen und Gesundheit.

Auf den ersten Blick erscheint die Stellungnahme der Leopoldina zu Public Health als hervorragend gelungene Komposition aus Wort- und Begriffshülsen, die praktisch alle Aspekte benennen, aber kaum etwas davon mit Inhalt hinterlegen. Das Ganze ist garniert von wiederholten abrupten und inhaltlich nicht nachvollziehbaren Aneinanderreihungen (z.B. S. 30, linke Spalte Mitte und re. Spalte oben). Aus diesem dahin plätschernden Sammelsurium fallen allein biomedizinisch-naturwissenschaftliche Einzelaspekte heraus, die ein armseliges Verständnis von "Public Health" offenbaren, dabei aber klar die Stoßrichtung der angestrebten Neuausrichtung dieser Wissenschaft in Deutschland vorgeben.

Das lässt nichts Gutes ahnen. Tatsächlich ist die eigentliche Botschaft bedrohlich. Auch wenn der Begriff an keiner Stelle auftaucht, kann die Omics-Forschung - zumal bei ihrer bisher (?) ausschließlich individualmedizinischen Ausrichtung - letztlich doch eher auf die menschliche Resilienz, also die Widerstandsfähigkeit der Spezies Mensch gegenüber den herrschenden Umwelt- und Lebensbedingungen Einfluss nehmen als "die Umgebung und Gesellschaft so zu ändern, dass sie zum menschlichen Körper passen" (S. 33), wie das Leopoldina-Papier vollmundig behauptet. Mit dieser Logik lässt sich nicht nur die Forderung nach Änderung der krank machenden Verhältnisse aushebeln und damit die Auseinandersetzung mit machtvollen Strukturen vermeiden. Sie ist zynisch, bahnt sie doch bisher ungeahnte Möglichkeiten zur sozialen Selektion: Only the fittest survive - wer nicht genügend Resilienz erwerben kann, muss mit den katastrophalen Verhältnissen leben und sterben.

Die Leopoldina-NaturforscherInnen stellen ihre Stellungnahme als Volltext kostenfrei zum Download zur Verfügung.

Jens Holst, 28.6.15


Nutzung von elektronischen Patienteninformationen und Entscheidungshilfen kann Arzt-Patient-Kommunikation negativ beeinflussen

Artikel 2330 Im Lichte einer bis zum Jahre 2018 prognostizierten Wachstumsrate des internationalen Telemedizinmarkts von 18,5% (so der jüngste Marktforschungsreport von "Research and Markets") vernachlässigen manche Akteuren allzu gerne und schnell den aus gesundheitlicher Sicht allein entscheidenden Nachweis des uneingeschränkten gesundheitlichen Nutzen der entsprechenden Produkte und Dienstleistungen. Hauptsache der "Job-/Renditemotor Gesundheitswirtschaft" läuft und läuft und läuft.

Besondere Aufmerksamkeit sollte aber dem Bereich des direkten Behandlungskontakts von Ärzten und Patienten, und damit des Kernprozess der gesundheitlichen Versorgung gewidmet werden. Hier gibt es immer wieder Belege für unerwünschte Wirkungen, die bei der Einführung bestimmter telemedizinischer Prozeduren bedacht und mit geeigneten Maßnahmen vermieden werden müssen. Keinesfalls sollte also trotz allen "Fortschritts" auf eine grundsätzliche Skepsis gegenüber diesen und weiteren technisch-organiatorischen Neuerungen bis zum positiven Nachweises ihres Nutzens bzw. ihrer Schädigungsfreiheit verzichtet werden.

In einer Ende Dezember 2013 in der Fachzeitschrift "International Journal of Medical Informatics" erschienenen Studie, geht es um die Auswirkungen elektronischer Patienteninformationen bzw. -akten ("electronic health records") auf die Kommunikation zwischen Arzt und Patient. Zahlreiche andere Studien haben gezeigt, dass diese Kommunikation zu den wichtigsten Determinanten der Zufriedenheit von Patienten mit ihrem Arzt und ihrer Behandlung, ihrer eigenen Therapietreue und damit letztlich auch des Behandlungsergebnisses oder der Gesundheit der Patienten gehört.
In der Studie wurden 100 Arzt-Patientengespräche per Videokamera aufgenommen und auf sämtliche kommunikativen Prozesse, Interaktionen etc. untersucht.

Die wesentlichen Beobachtungen sahen wie folgt aus:

• Ärzte, welche im Untersuchungsraum Zugang zur elektronischen Patientenakte hatten, verbrachten mehr als ein Drittel der Kontaktzeit mit diesen Patienten damit, den Bildschirm anzuschauen.
• Unabhängig davon, ob sie den Text auf dem Monitor lesen oder verstehen konnten, verbringen auch Patienten einen Teil der Konsultationszeit damit, auf den Monitor zu schauen.
• Als unerwünschte Effekte nennen die Studienautoren, dass das Verhalten der Ärzte es für Patienten schwer machen könnte, die notwendige Aufmerksamkeit zu erwecken und zu erhalten. Außerdem bleiben die oft für die Behandlung relevanten nonverbalen kommunikativen Signale unbeachtet und wahrscheinlich ist auch die Fähigkeit der Ärzte, zuzuhören, zu denken und Problemlösungen zu erwägen erheblich eingeschränkt.

Dies bestätigt auch die Ergebnisse einer im Januar 2013 in der Zeitschrift "Medical Decision making" veröffentlichten experimentellen Studie über Wirkungen des Einsatzes von elektronischen Programmen zur Entscheidungsfindung des Arztes ("computerized clinical decision support systems (CDSS)"). Zum einen bewerteten Patienten, welche die Nutzung solcher Programme erlebten die Fähigkeiten des Arztes schlechter als die von Ärzten, die diese Hilfsmittel nicht (erkennbar) in Anspruch nehmen oder einen Kollegen konsultieren. Diese Patienten sind unzufriedener mit der Behandlung und verhalten sich weniger therapietreu. Zum anderen machten allerdings Patienten von Ärzten, die elektronische Hilfsprogramme nutzten, weniger für negative Behandlungsergebnisse verantwortlich.
Sämtliche AutorInnen weisen auf die dringende Notwendigkeit hin, über technische Lösungen, andere Formen der Kommunikation am und mit Monitoren sowie eine Beeinflussung der Einstellungen von Patienten zu Ärzten, die sich elektronischer Hilfsmittel bedienen nachzudenken.

Die Studie Dynamic modeling of patient and physician eye gaze to understand the effects of electronic health records on doctor-patient communication and attention von Enid Montague und Onur Asan ist am 30.12. 2013 online veröffentlicht worden und wird in der Zeitschrift "International Journal of Medical Informatics" (Volume 83, Issue 3 , Pages 225-234) abgedruckt. Das Abstract ist kostenlos verfügbar.

Die Studie Why Do Patients Derogate Physicians Who Use a Computer-Based Diagnostic Support System? von Victoria Shaffer et al. ist in der Zeitschrift "Medical Decision Making" im Januar 2013 (33: 108-118) erschienen. Ein Abstract ist kostenlos verfügbar.

Bernard Braun, 29.1.14


Verlust von Lebensqualität und Therapietreue durch Spritz-Ess-Abstand bei insulinpflichtigen Typ 2-DiabetikerInnen "not necessary"

Artikel 2224 Es gibt Forschungsergebnisse nach deren Lektüre man sich fassungslos fragt, warum sie nicht bereits seit Jahren oder Jahrzehnten vorliegen und die Versorgung von Millionen PatientInnen positiv bestimmen. Es geht um den so genannten Spritz-Ess-Abstand bei den mit Humaninsulin behandelten PatientInnen mit einem Diabetes mellitus 2 bzw. Altersdiabetes.

Die Fähigkeit ihrer Bauchspeicheldrüse, Insulin zu produzieren, und damit den Blutzuckerspiegel zu senken, ist bei diesen Personen so weit verringert, dass z.B. vor Mahlzeiten Humaninsulin gespritzt werden muss, um den gesundheitlich bedenklichen Anstieg des Blutzuckerspiegels zu verhindern. Um die volle Wirkung erzielen zu können gehörte bisher eine Wartezeit vor den beabsichtigten Mahlzeiten von 20 bis 30 Minuten zu den Standardempfehlungen bzw. -vorschriften. Damit schien der gesundheitliche Effekt der Insulinspritze unabänderlich mit einer Beeinträchtigung der Lebensqualität verbunden zu sein, auch wenn dies nicht selten zu einer geringeren Therapietreue beitrug. Ein Teil der Neuentwicklungen von Insulin versuchte daher, auch insulinpflichtigen DiabetikerInnen spontaneres Essen zu ermöglichen und den Spritz-Ess-Abstand gegen Null zu verkürzen.

Eine jetzt von WissenschaftlerInnen des Uni-Klinikums Jena durchgeführte Studie belegt wahrscheinlich zum ersten Mal so deutlich, dass Millionen von DiabetikerInnen umsonst gewartet und gelitten haben und auch ein Teil der pharmazeutischen Fortschritte eigentlich nicht notwendig gewesen wäre.
Eine Studie mit 100 Probanden, die an Diabetes Typ 2 erkrankt und insulinpflichtig waren, untersuchte mit einem randomisierten Kontrollgruppendesign, wie sich der Blutzuckerspiegel nach der Einnahme von Mahlzeiten mit oder ohne Wartezeit entwickelte.
Das Ergebnis: DiabetikerInnen können direkt nach dem Spritzen von Normalinsulin essen, ohne dass der als valider Indikator für den Blutzuckerwert gemessene Langzeitwert HbA1c-Wert zu stark ansteigt. Dieser Wert schwankte in beiden Gruppen lediglich um nach Meinung der Diabetologen gesundheitlich unbedenkliche 0,08%. Auch bei den zusätzlich erhobenen Blutzuckerprofilen, dem Beginn einer Unterzuckerung, der Lebensqualität und der Zufriedenheit mit der Behandlung gab es keine nennenswerten oder nur Unterschiede zugunsten des Wegfalls des Spritz-Abstand.

Auch für viele andere PatientInnen mit anderen Krankheiten gibt es jede Menge "goldene Regeln" oder Verhaltensvorschriften mit vergleichbaren Auswirkungen auf deren Lebensqualität und Versorgungsverhalten. Vor allem dann, wenn diese letztlich nur eminenzbasiert sind oder vom einen zum anderen "Ratgeber" ab- und fortgeschrieben werden, sollten auch dort schleunigst und systematisch Untersuchungen stattfinden, die der hier vorgestellten ähneln.

Der Aufsatz Randomized Crossover Study to Examine the Necessity of an Injection-to-Meal Interval in Patients With Type 2 Diabetes Mellitus and Human Insulin. von Nicolle Müller, Thomas Frank, Christof Kloos, Thomas Lehmann, Gunter Wolf und Ulrich Alfons Müller ist in der Fachzeitschrift "Diabetes Care" am 22. Januar 2013 online veröffentlicht worden. Ein Abstract ist kostenlos erhältlich.

Bernard Braun, 16.2.13


Fortschritt der Prädiktion von Herz-/Kreislaufrisiken durch Biomarker gegenüber Cholesterinindikatoren nur sehr gering

Artikel 2198 Seit ein paar Jahren fließt ein wachsender Teil der Forschungsausgaben der pharmazeutischen Industrie in die Entwicklung so genannter Biomarker. Diese sollen so früh wie möglich, unaufwändiger und zuverlässiger als andere Diagnostika das Risiko des Eintretens schwerer chronischer Erkrankungen anzeigen und schwere Risiken einer Behandlung zuführen. Dazu zählen auch drei verschiedene Protein-Biomarker, die zur Entdeckung des Risikos von Herz-Kreislauferkrankungen dienen sollen. Ob sie wirklich besser sind als die schon seit langem etablierten Prädiktoren Gesamtcholesterinspiegel und HDL-C, sollte die Analyse der Krankenakten von 37 Kohorten mit insgesamt 165.544 Personen aus den Jahren 1968 bis 2007 klären helfen. Die TeilnehmerInnen der Studie litten zu Beginn der Studie an keiner Herz-Kreislauferkrankung. Bei einem durchschnittlich nach 10,4 Jahren durchgeführten Follow up waren 10.132 der TeilnehmerInnen an koronarer Herzkrankheit erkrankt und 4.994 hatten einen Schlaganfall hinter sich.

Bei der Berechnung der Anzahl von Personen, deren Gesamtrisiko einer Herz-/Kreislauferkrankung sowohl mit den konventionellen Risikofaktoren bzw. -indikatoren und einer oder allen der neuen Biomarkern untersucht wurde, zeigte sich Folgendes:

• Die Verbesserung der Bewertung des Gesamtrisikos belief sich durch die erneute Klassifikation mit den Biomarkern auf weniger als 1%.
• Bei 100.000 Erwachsenen im Alter von 40 und mehr Lebensjahren würde die konventionelle Cholesterinwert-Messmethode bei 15.436 Personen ein mittleres Risiko identifizieren.
• Zusätzliche Tests mit einem oder einer Kombination der neuen Biomarker würden darüber hinaus 1,1%, 4,1% oder 2,7% der 100.000 Erwachsenen einer Hochrisikogruppe für Herz-/Kreislauferkrankung (Risiko >20%) zuweisen, die nach geltenden Leitlinien auch sofort mit Statinen behandelt werden müssten.
• Die ForscherInnen,insgesamt fast 200 Personen, lehnen sowohl den generellen zusätzlichen Einsatz der Biomarker als auch einen Ersatz der konventionellen Klassifikation mit Cholesterinwerten durch die neuen Biomarker ab, und zwar weil diese "lipid parameters does not improve CVD prediction".

Von dem am 20. Juni 2012 in JAMA (307: 2499-2506) erschienenen Aufsatz "Lipid-related markers and cardiovascular disease prediction.", verfasst von zahlreichen Mitgliedern der "The Emerging Risk Factors Collaboration", ist sowohl ein Abstract als auch der komplette Text kostenlos erhältlich.

Bernard Braun, 29.12.12


"Auf den Hund gekommen" - Medizinisch-animalisch-olfaktorischer Fortschritt beim Umgang mit nosokomialen Infektionen in Holland

Artikel 2194 Seit einigen Jahren treten in europäischen und nordamerikanischen Kliniken immer mehr Erkrankungen mit dem bei rund 30% der Krankenhauspatienten zunächst harmlos vorhandenen Bakterium Clostridium difficile auf. Beim Einsatz von Antibiotika gegen andere Erreger kann sich dieses Bakterium stark vermehren und dabei giftige Stoffe produzieren. Die betroffenen Patienten leiden an mildem Durchfall aber auch an schweren Erkrankungen wie einer pseudomembranösen Colitis und einer erheblichen Ausdehnung des Darmes (dem toxischen Megacolon). Die durchschnittliche Inzidenz von Clostridium difficile beträgt 17,5 bis 23 Fälle pro 10.000 Krankenhauseinweisungen. In Großbritannien liegt der Wert im Moment bereits bei 50 Fällen.

Um die riskante Verbreitung des Bakteriums innerhalb des Krankenhauses zu verhindern, ist es wichtig zu wissen, welche PatientInnen infiziert sind, um diese dann, wenn die weiteren Voraussetzungen für die genannten Folgerisiken gegeben sind, zu isolieren. Die Routinemethode, der Nachweis durch eine Bakterienkultur, dauert aber zwei bis drei Tage, während denen die Verbreitung des Bakteriums ungehindert möglich ist.

In zwei großen niederländischen Krankenhäusern, die wie alle Kliniken in den Niederlanden generell mehr tun als deutsche Krankenhäuser, um die Infektionen mit multiresistenten Keimen zu verhindern, wurde jetzt untersucht, ob Hunde mit ihrem enormen Geruchssinn eingesetzt werden könnten, um in Stuhlproben oder direkt bei PatientInnen Clostridium difficile-Erreger über den ihnen eigenen "Pferdemistgeruch" in kürzester Zeit identifizieren zu können.
In einer explorativen Studie und in einer Art Fall-Kontrollstudie wurde ein zweijähriger Beagle trainiert, diesen Geruch zu identifizieren. In einem Test mit 30 infizierten Patienten und 270 Angehörigen einer Kontrollgruppe von Nichtinfizierten musste der Hund seine Fähigkeiten zusammen mit seinem Trainer auf die Probe stellen lassen. Dieser Trainer wusste nicht, welche Personen infiziert waren. In einer Gruppe von 10 Patienten waren jedes Mal eine infizierte und 9 nichtinfizierte Personen zusammengefasst.

Die beiden wichtigsten Ergebnisse waren:

• Bei der Identifizierung der Infektion in Stuhlproben betrug die Sensitivität und Spezifität 100%.
• Bei den Schnüffelrunden in Behandlungszimmern identifizierte der Hund 25 von 30 Fällen, was einer Sensitivität von 83% entspricht. Auch bei 265 von 270 nichtinfizierten Angehörigen der Kontrollgruppe verroch sich der Hund nicht, was einer Spezifität von 98% entsprach.

Trotz dieser sehr guten Werte beabsichtigen die ForscherInnen in weiteren Versuchen zu untersuchen, ob die Erfolge auch mit anderen Hunden und Trainern und unter anderen räumlichen Bedingungen wiederholt werden können. Da sich auch bei anderen Erkrankungen oft spezifische Körpergerüche entwickeln, ist nicht ausgeschlossen, dass die Erkennung und damit Prävention weiterer schwerer Erkrankungen ebenfalls noch "auf den Hund kommen" werden.

Der Aufsatz "Using a dog's superior olfactory sensitivity to identify Clostridium difficile in stools and patients: Proof of principle study" von Bomers MK et al. ist in der Weihnachtsausgabe 2012 des "British Medical Journal" (13. Dezember 2012, 345: e7396) erschienen und samt 10-minütigen Video mit dem Beagle "Cliff" kostenlos zugänglich.

Bernard Braun, 23.12.12


Medizinisch-technischer Fortschritt: teuer, aber gut und nützlich!? Das Beispiel der softwaregestützten Analyse von Mammogrammen.

Artikel 1990 Zu den Verheißungen des Pro-E-Health-Diskurses gehört, dass ein Teil der bisher für diagnostische und therapeutische Tätigkeit aufgewandten Arbeitszeit und Aufmerksamkeit von Ärzten oder anderen hochqualifizierten, teuren und angeblich auch knapp werdenden Berufstätigen im Gesundheitswesen durch entsprechende Computersoftware eingespart werden kann - ohne, so jedenfalls nimmermüde die Hersteller, einen relevanten Qualitätsverlust oder gar mit einem höheren Nutzen dank des nie müde und unpräzise werdenden technischen Verfahrens.

Es wundert deshalb nicht, dass gerade auch bei sehr häufigen diagnostischen Verfahren wie der Mammographie in den USA bereits rund 75% der gewonnenen Bilder mit Unterstützung entsprechender Software ("computer assisted detection" [CAD]) ausgewertet werden und sich Therapieentscheidungen u.a. auf die Richtigkeit der damit erzielten Ergebnisse beziehen. Die staatliche Krankenversicherung für Ältere, Medicare, gibt jährlich 20 Millionen US-Dollar für diese Art der Mammografie-Analyse aus.
Überprüft man den mit technischer Assistenz erzielten Ergebnisqualität-Nutzen mit dem, der allein auf den Augen und Erfahrungen von Radiologen etc. beruht, ist ersterer relativ gering und die Anzahl von falsch-positiven Befunden deutlich höher.
Nachdem dieser Verdacht bereits vor einigen Jahren geäußert und auch empirisch erhärtet wurde, untersuchten nach dem definitiven Ende einer Lernzeit eine Gruppe von Wissenschaftlern mit den Daten der 90 im "Breast Cancer Surveillance Consortium" zusammengefassten Diagnosezentren diese Frage erneut. Die Datenbasis umfasste 684.956 Frauen mit mehr als 1,6 Millionen Mammografien. Im Untersuchungsjahr 2006 setzten rund 28% der Diagnosezentren die Analyse-Software bereits 27,5 Monate lang ein.

Der Vergleich mit Zentren, die dieses Instrument des medizinisch-technischen Fortschritts nicht einsetzten, sieht dann wie folgt aus:

• Die Spezifität (die Fähigkeit risikofreie Personen zu entdecken und damit von weiteren diagnostischen und therapeutischen Prozeduren frei zu halten) der softwaregestützten Diagnose war statistisch signifikant um 13% geringer. Und auch der positive prädiktive Wert, also ein zentraler Ergebnisindikator der Mammografie, war signifikant um 11% niedriger.
• Die Sensitivität oder die Fähigkeit risikobehaftete Personen zuverlässig zu entdecken ist beim Einsatz con CAD zunächst leicht um 6% erhöht. Vor allzu viel Jubel ist aber zweierlei zu bedenken: Die Sensitivität in den Mammografiezentren, die sich auf die Blicke und Erfahrungen von ärztlichen Experten verlassen, ist erstens nicht signifikant niedriger und zweitens werden überwiegend "nur" so genannte duktale Karzinome in situ entdeckt. Dies sind krankhafte Wucherungen neoplastischer Zellen in den Milchgängen der weiblichen Brust, also aktuell kein bösartiger Krebs, die nur zum Teil (schätzungsweise in 10-20 Jahren rund 50%) invasive Karzinome werden können. Nur für diese Fälle hätte also eine Entdeckung möglicherweise einen Nutzen als Krebsvorsorge.
• Die computerassistierte Entdeckungsmethode war aber auch nicht mit einer generell höheren Entdeckungsrate von Brustkrebs oder mit der Entdeckung in einem besseren Stadium, in kleinerer Größe und einem unproblematischen Zustand der Lymphknoten im Falle eines invasiven Karzinoms assoziiert.

Zurückhaltend formulierend fassen die Forscher ihre Ergebnisse so zusammen: "The health benefits of CAD use during screening mammograms remain unclear, and the data indicate that the associated costs may outweigh the potential health benefits." Damit nicht genug, weisen sie darauf hin, dass die jetzige CAD-Praxis in den USA das Risiko erhöht, ohne gesundheitlichen Grund und mit zweifelhaftem gesundheitlichen Nutzen weitere Untersuchungen angeboten zu bekommen.

Wenn man jetzt noch bedenkt, dass es seit Jahren (vgl. dazu den Forumsbeitrag Brustkrebs-Früherkennung durch Mammographie: Ein Drittel aller Karzinome ist harmlos und überdiagnostiziert aber auch ganz aktuell (vgl. dazu die Ergebnisse eines gerade im "British Medical Journal" veröffentlichten und kostenlos erhältlichen 6-Ländervergleichs des Mammographienutzens für die Sterblichkeit, welche die Autoren so zusammenfassen: ""The contrast between the time differences in implementation of mammography screening and the similarity in reductions in mortality between the country pairs suggest[s] that screening did not play a direct part in the reductions in breast cancer mortality." - mehr dazu demnächst im Forum) kontroverse Untersuchungen und heftige Debatten über den grundsätzlichen Nutzen der Mammographie gibt, wird ein möglicherweise im Zeichen von Ärztemangel standardmäßige Einsatz von CAD noch fragwürdiger.

Für den Aufsatz "Effectiveness of Computer-Aided Detection in Community Mammography Practice" von Joshua Fenton et al., erschienen im "Journal of the National Cancer Institute (JNCI)" der USA (Vol. 103, Issue 15 vom 3.August 2011), ist kostenlos nur ein Abstract erhältlich.

Bernard Braun, 14.8.11


"Medizin aus der Steckdose und via Bluetooth!?" Neues über den Nutzen und die Grenzen von Telemonitoring und Telemedizin

Artikel 1885 Kaum ein gesellschaftlicher Bereich wird so stark von "deus ex machina"-Konjunkturen bestimmt wie das Gesundheitswesen. Egal ob es sich um bestimmte Arzneimittel, freie Radikale im Broccoli, Rotwein oder Bewegungsprogramme handelt: zumindest phasenweise scheinen sie für nahezu alle gesundheitlichen Probleme die Lösung zu sein - eben Götter aus der Theater-Maschine, die helfen, wenn scheinbar nichts anderes hilft.

In diese Reihe fügt sich seit einiger Zeit eine Art "Gott aus der Steckdose" ein, nämlich die Telemedizin mit einer Fülle von diagnostischen und therapeutischen Anwendungen und Hilfsmitteln. Egal, ob prädemente Patienten zu Hause die Einnahme wichtiger Arzneimittel vergessen könnten, Körperwerte unregelmäßig schwanken und bei den davon betroffenen Personen unberechtigte Panik auslösen oder schlichtweg die Arztdichte in ländlichen Gegenden immer geringer wird, versprechen telemedizinische Techniken und Verfahren der Datenerfassung, -übertragung und -überprüfung Probleme zu beseitigen und gesundheitlichen wie wirtschaftlichen Nutzen zu stiften.

Und solange diejenigen, die z.B. in Deutschland den Sicherstellungsauftrag für die gesundheitliche Versorgung haben, über keine alternativen Lösungen der schwindenden Arztdichte auf dem Land nachdenken müssen (Schlagwort: "AGNES statt Arzt"), wurde auch lieber nicht seriös überprüft, ob und wie nützlich telemedizinische Verfahren sind.

Im kurzen Abstand sind jetzt aber Ergebnisse zweier Studien einer us-amerikanischen und einer deutschen Forschergruppe über den Nutzen von Telemonitoring als einem Eckpfeiler der Telemedizin-Welt erschienen, die erhebliche Zweifel an ihrer Omnipotenz erwecken.

In der US-Studie mit 1.653 Teilnehmern, die vor kurzem mit einer Herzschwäche stationär behandelt wurden, erhielt die Hälfte Telemonitoringleistungen und die andere Hälfte wurde traditionell versorgt. Das Telemonitoring bestand aus einem telefonbasierten interaktiven und mündlichen System der täglichen Information der Arztpraxen über Krankheitssymptome und weitere Körperwerte wie z.B. das Gewicht. Dem schlossen sich eine Bewertung durch den Arzt und möglicherweise Rückmeldungen an den Patienten an. 180 Tage lang wurde kontrolliert, ob die Angehörigen der Interventions- wie Kontrollgruppe wegen irgendeiner Erkrankung erneut stationär behandelt werden mussten oder starben (primärer Endpunkt) und wie oft und wie lange sie im Falle einer erneuten Krankenhausbehandlung ihrer Herzschwäche ihr Aufenthalt war (sekundärer Endpunkt).

Die Ergebnisse für die im Durchschnitt 61 Jahre alten, überwiegend männlichen und weißen Patienten sahen so aus:

• Beim primären Endpunkt unterschieden sich die Telemonitoring- nicht signifikant von der Normalversorgungsgruppe. 52,3 % der Interventions- und 51,5 % der Kontrollgruppen-Angehörigen waren erneut in stationärer Behandlung oder starben innerhalb der 180 Tage. Dieser geringe Unterschied fand sich auch in beiden Subgruppen wieder.
• Und auch bei den sekundären Endpunkten fanden sich keinerlei statistisch signifikante Unterschiede.
• Zumindest für diese Zielgruppe verbesserte also Telemonitoring nicht das Behandlungsergebnis.
• Bei keinem Teilnehmer der randomisierten kontrollierten Studie gab es unerwünschte Wirkungen eines der Verfahren.

Dies heißt nicht, dass Telemonitoring der beschriebenen oder einer anderen Art bei Patienten mit einer anderen gesundheitlichen Konstellation nicht doch von Nutzen sein kann. Das Ergebnis zeigt aber in den Worten der Forschergruppe plastisch "the importance of a thorough, indeoendent evaluation of disease-management strategies before their adoption."

Gründlich und methodisch noch anspruchsvoller hingeschaut hat eine Gruppe deutscher ForscherInnen an der Charité in Berlin im Auftrag des Bundeswirtschaftsministeriums im Rahmen der seit Anfang 2008 laufenden Telemedizin-Studie TIM-HF ("Telemedical Interventional Monitoring in Heart Failure"). Weitere Einzelheiten finden sich auf der vorbildlich gestalteten Website des gesamten Forschungs- und Entwicklungsprojektes "Partnership for the Heart".
Die TIM-HF-Studie gehört zu den weltweit wenigen Langzeitstudien zur Prüfung der medizinischen und wirtschaftlichen Überlegenheit einer telemedizinischen Mitbetreuung gegenüber der Standard-Therapie bei chronischer Herzinsuffizienz.

An der kontrollierten multizentrischen Studie nahmen 710 Patienten teil, jeweils zur Hälfte mit telemedizinischer Betreuung zusätzlich zur Standardtherapie ("Gruppe Telemedizin") bzw. ausschließlich mit Standardtherapie ("Gruppe Standard-Therapie").

Als Patient der Telemedizingruppe erhielt man zusätzlich zu den gewohnten Medikamenten ein EKG-Gerät, ein Blutdruckmessgerät, einen Aktivitätsmesser und eine Waage. Diese Messgeräte sind mit einem Sender ausgestattet, der die Messdaten über Bluetooth (Nahfunk) an einen Mobilen Medizinischen Assistenten (MMA) sendet. Dieser sendet dann alle Daten über Mobilfunk an das Telemedizinische Zentrum des behandelnden Krankenhauses, wo die Daten in einer elektronischen Patientenakte erscheinen und von medizinischem Fachpersonal befundet werden. Bei auffälligen Werten leitet der Arzt im Telemedizinischen Zentrum das weitere Vorgehen (z.B. Therapieplanänderung) ein. Die Angehörigen der Standard-Therapiegruppe unterscheiden sich nur darin, dass sie keine Geräte erhalten. Ihre Daten gelangen daher wesentlich seltener und nur im Rahmen direkter Kontakte zu ihren Ärzten.

Endpunkte der Studie sind Mortalität, stationäre Morbidität, Wirtschaftlichkeit und Lebensqualität. Die Studie ermöglicht zudem die Prüfung von Langzeiteffekten der telemedizinischen Mitbetreuung bei Patienten mit chronischer Herzinsuffizienz. Bisherige Studien weisen mehrheitlich eine Laufzeit von 6-12 Monaten auf und konnten daher keine Langzeiteffekte bei dieser chronischen Erkrankung prüfen. Neben den beteiligten Kliniken Charité - Universitätsmedizin Berlin und Robert-Bosch-Krankenhaus Stuttgart unterstützten niedergelassene Fachärzte aus inzwischen vier Bundesländern die Studie (Baden-Württemberg, Berlin, Brandenburg sowie Sachsen-Anhalt). An der technischen Entwicklung und Unterstützung während der Studie sind unter anderem die folgenden medizintechnischen Anbieter beteiligt: Robert Bosch Healthcare GmbH sowie die Intercomponentware AG und die Aipermon GmbH & Co. KG.

Die im Laufe des November 2010 veröffentlichten Ergebnisse der Studie sahen so aus:

• In der Gesamtgruppe der TeilnehmerInnen gab es weder bei der Gesamtsterblichkeit (primärer Endpunkt) noch bei den Klinikeinweisungen (sekundärer Endpunkt) signifikante Unterschiede zwischen den beiden Gruppen (Gesamtmortalität in beiden Gruppen rund 8,2 %). Erklärt wird dies von den ForscherInnen mit der insgesamt hervorragenden Versorgung herzinsuffizienter Patienten in Deutschland.
• Auch bei der mit dem SF36-Instrument gemessenen Lebensqualität im Bereich der körperlichen Funktionsfähigkeit gab es lediglich nach 12 Monaten einen absolut geringen aber signifikanten (54,3 zu 49,9 Punkte, p=0,01) Unterschied zu Gunsten der Telemonitoringgruppe. Nach 24 Monaten war die Lebensqualität in beiden Gruppen absolut fast gleich und der Unterschied auch eindeutig nicht mehr signifikant (53,8 zu 51,7 Punkten, p=0,30).
• Nach einer Subgruppenanalyse bleibt eine Subgruppe der Patienten mit Herzinsuffizienz übrig, die von Telemonitoring einen Nutzen hat: Patienten mit einer kardialen Dekompensation, die nicht depressiv sind und eine so genannte Auswurffraktion des Herzens (Herzleistungsmaß) zwischen 25 und 35 % haben. Dabei handelt es sich schätzungsweise um 10 % aller an Herzinsuffizienz leidenden Personen.
• Wichtig ist sicherlich auch, dass die technische Lösung funktioniert hat und 81 % der TeilnehmerInnen therapietreu gewesen sind. Ob dies nicht auch damit zu tun hat, dass die TeilnehmerInnen solcher Studie a priori interessierter und engagierter für die Therapie und das Erleben der Ergebnisse sind, sollte aber trotz der dabei zu überwindenden Schwierigkeiten gründlich untersucht werden.

Auch wenn dieses Ergebnis aus Sicht der WissenschaftlerInnen vor der Übernahme des Telemonitorings in die Regelversorgung noch weiter bestätigt werden sollte, steht im Prinzip fest, dass Telemonitoring nur für eine Minderheit der hier näher betrachteten Kranken einen zusätzlichen Nutzen hat.

Nur Bundeswirtschaftsminister Brüderle will für die 8 Millionen Euro Fördergelder mehr sehen und springt nach kurzem Zögern vor so viel Differenzierung in das alte "deus ex machina"-Gleis zurück: "Die Studienergebnisse müssen jetzt rasch in praktisches Handeln umgesetzt werden, zumal dadurch auch Kosten eingespart werden können. Vor allem in strukturschwachen Gebieten sehe ich große Chancen für die Telemedizin. Eines Tages könnte es Telemedizin auch in Deutschland auf Krankenschein geben."

Zu der Studie " Telemonitoring in Patients with Heart Failure" von Sarwat I. Chaudhry et al., die am 9. Dezember 2010 im "New England Journal of Medicine" (2010; 363:2301-2309) vorgestellt wurde, ist kostenlos ein Abstract zugänglich.

Die Ergebnisse der deutschen Telemonitoringstudie sind in zwei komplett und kostenlos zugänglichen Veröffentlichungen dargestellt: in dem im März 2011 in der Zeitschrift "Circulation" (2011; 123: 1873-1880) erschienen Aufsatz "Impact of Remote Telemedical Management on Mortality and Hospitalizations in Ambulatory Patients With Chronic Heart Failure : The Telemedical Interventional Monitoring in Heart Failure Study von Friedrich Köhler et al. und in dem Aufsatz "Telemedical Interventional Monitoring in Heart Failure (TIM-HF), a randomized, controlled intervention trial investigating the impact of telemedicine on mortality in ambulatory patients with heart failure: study design" von Koehler et al. in Eur J Heart Fail (2010, 12 [12]: 1354-1362).

Bernard Braun, 11.12.10


"Warten auf den medizinisch-technischen Fortschritt!?" Das Beispiel "Humane Genome Project"

Artikel 1826 3 Milliarden US-Dollar waren vor rund 10 Jahren in den USA ausgegeben worden, um das aus Sicht von Genetikern und Biologen bedeutendste Projekt für die vollständige Transparenz der menschlichen "Gen-Landkarte" abzuschließen.
Damit sollte die entscheidende Voraussetzung für eine Revolution im Gesundheitswesen geschaffen werden. So meinte der damalige US-Präsident B. Clinton am 26. Juni 2000 bei der Vorlage der ersten Version der Genomkarte, dies würde "revolutionize the diagnosis, prevention and treatment of most, if not all, human diseases." Und der Direktor der Genome-Agency des "National Institutes of Health" der USA war sich damals auch sicher, dass zehn Jahre später, also heute, die genetische Diagnose aller Krankheiten möglich wäre und dass noch einmal 5 Jahre danach gezielte Behandlungen beginnen könnten: "Over the longer term, perhaps in another 15 or 20 years you will see a complete transformation in therapeutic medicine."

Obwohl sich die pharmazeutische Industrie geradezu in die Entwicklung und Herstellung neuer Arzneimittel mit Hilfe einiger Erkenntnisse der Genforschung gestürzt hat, kühlt nicht erst mit dem 10. Jahrestag des Abschlusses der ersten Gesamtübersicht des menschlichen Genoms die damalige Euphorie über den scheinbar grenzenlosen Nutzen dieser Kenntnisse erheblich ab.
Die realen Krankheiten erwiesen sich wider Erwarten hinsichtlich ihrer genetischen Verortung und Bestimmtheit als sehr komplex und uneindeutig. Weder die genetisch basierten Diagnosemöglichkeiten noch eine punktgenaue Therapie, geschweige denn die Verhinderung des Ausbruchs einer Krankheit durch Genscreening und rechtzeitige Intervention sind auch nur in Reichweite. Und selbst dann, wenn dies alles geklärt wäre, wäre bei vielen genetisch disponierten Krankheitsbildern immer noch unklar, wie eigentlich eine ethisch vertretbare Intervention aussehen könnte.

Zum Jahrestag titelte daher die "New York Times" am 12. Juni 2010 "A Decade Later, Genetic Map Yields Few New Cures" und die europäische Ausgabe unterstrich dies am 21. Juni 2010 nochmals nachdrücklich mit dem Titel "Gene map is yielding few new treatments".

In dieser und weiteren Veröffentlichungen spielte eine nahezu zeitgleiche wissenschaftliche Veröffentlichung in der US-Medizinzeitschrift Nr. 1, dem "Journal of American medical association (JAMA)" eine Rolle, in der nachdrücklich gezeigt wurde, wie weit Mediziner und Genetiker eigentlich noch davon entfernt sind, die genetischen Wurzeln selbst einfachster Erkrankungen überhaupt zu finden.

In der vorgestellten Studie eines Bostoner Medizinerteams um Nina Paynter wurde versucht mit Hilfe der Kenntnis von 101 genetischer Konstellationen, die in verschiedenen anderen Gen-Scans statistisch als mit Herzerkrankungen assoziiert bestimmt worden waren, prädiktive Hinweise für den wahrscheinlichen Eintritt einer dieser Erkrankungen mittels eines dazu gebildeten genetischen Risikowertes zu gewinnen. Ob Gen-Informationen dies wirklich verlässlich leisten wurde an einer prospektiven Kohorte von 19.313 weißen Frauen in der so genannten "Women's Genome Health Study"über durchschnittlich 12,3 Jahre hinweg untersucht. Die Zielerkrankungen oder Krankheitszustände, deren Eintreten man dabei beobachtete, waren der Herzinfarkt, Schlaganfall, die Wiederbelebung der Blutversorgung des Herzens und der kardiovaskuläre Tod. Im Untersuchungszeitraum von 12,3 Jahren traten insgesamt 777 dieser kardiovaskulären Krankheitsereignisse auf.

Nach einer Altersstandardisierung und einer Adjustierung der StudienteilnehmerInnen mit einem kardiovaskulären Ereignis nach traditionellen Risikofaktoren gab es keinerlei statistische Assoziation des genetischen Risikowerts mit den tatsächlichen kardiovaskulären Risiken bzw. Ereignissen. Der prädiktive Wert des genetischen Risikoindikators war gleich Null.

Ganz anders sah es mit der selbstberichteten Familien-Krankengeschichte aus, die auch in mehrfach standardisierten Berechnungen signifikant mit dem Auftreten kardiovaskulärer Ereignisse assoziiert blieb. Wer also Risikoschätzungen machen will, sollte noch und wieder auf die prädiktive Kraft einer gründlichen Familienanamnese setzen.

Von dem Aufsatz "Association Between a Literature-Based Genetic Risk Score and Cardiovascular Events in Women" von Nina P. Paynter, Daniel I. Chasman, Guillaume Paré, Julie E. Buring, Nancy R. Cook, Joseph P. Miletich, und Paul M Ridker im JAMA (2010; 303(7):631-637) gibt es kostenlos lediglich ein Abstract.

Bernard Braun, 23.6.10


"Vorsicht Röhre": Bildgebende Diagnostik zwischen Überversorgung und unerwünschten Folgewirkungen

Artikel 1817 Als empirische Belege für ein zum Teil anbieterinduziertes oder -gesteuertes Geschehen in der Behandlung von PatientInnen wurde schon immer die wachsende Anzahl und die zunehmende Häufigkeit des Einsatzes bestimmter diagnostischer Prozeduren oder Verfahren genannt. Dabei ging es nicht nur um die absolute Anzahl einzelner Untrersuchungen, sondern insbesondere um so genannte Diagnose-Kaskaden im Bereich der bildgebenden Verfahren. Die Aneinanderreihung mehrerer bildgebenden Verfahren bzw. Techniken entspringt nicht nur einer Strategie des "Auf-Nummer-Sicher-Gehens", sondern dient unter geeigneten Vergütungsordnungen auch der Optimierung ärztlicher Einkünfte und natürlich dem Umsatz der Medizintechnik-Industrie. Gegen diese kritische Beurteilung wird eingewandt, es handle sich zum Teil darum den Einsatz potenziell gesundheitsschädigender Verfahren zu vermeiden oder der gesundheitliche Nutzen würde durch Diagnosekaskaden erhöht.

Schon welche Verfahren und Untersuchungen aber wirklich neben- oder nacheinander zum Einsatz kommen und welchen Nutzen oder gar Schaden dies für PatientInnen hat, ist immer noch nicht sehr gut empirisch belegt.

2008 hatte eine Gruppe von Gesundheitswissenschaftler aus den USA untersucht, wie viele bildgebende Untersuchungen bei 377.048 Patienten einer großen Krankenversicherung von 1997 bis 2006 insgesamt durchgeführt wurden. Absolut waren es 4,9 Millionen einzelne Untersuchungen oder Tests. Die Anzahl aller bildgebenden Untersuchungen verdoppelte sich im Querschnitt während dieses Zeitraums von 260 auf 478 Untersuchungen pro 1.000 Versicherte und pro Jahr. Während sich speziell die Computertomographie-Untersuchungen (CTs) ebenfalls "nur" verdoppelten, verdreifachte sich etwa die Häufigkeit von Magnetresonanzuntersuchungen (MRI). Hinter der Zunahme verbirgt sich sowohl eine Zunahme der Anzahl der Personen, die überhaupt mit einem bildgebenden Verfahren untersucht wurde, als auch die Zunahme der Anzahl von UNtersuchungen pro einzelnem Patienten. Fast 5 % der Patienten wurden mehr als fünfmal pro Jahr diagnostiziert.

Die Autoren überprüften mit ihren Daten die immer wieder vorgetragene Hypothese, hinter der Zunahme der Bilddiagnostik stecke die Zunahme der Prävalenz bestimmter Erkrankungen, fanden dafür aber keinen empirischen Beleg. Sie untersuchten ferner die Hypothese, finanzielle Vorteile für die untersuchenden Ärzte führten zu Zuwächsen beim Einsatz bestimmter, teurer Verfahren. Obwohl sie direkte Zusammenhänge eher ausschließen, halten sie es für möglich, weitgespannte finanzielle Anreize auf die Mitglieder der "radiology community" "could affect clinical practice standards". Und schließlich untersuchen die Autoren eine Verbindung von mehr Diagnostik mit besseren Behandlungsergebnissen. Weder für diese Verbindung noch für ihr Fehlen liefert aber die vorlegende Studie ausreichend empirische Evidenz. Für gesichert halten sie aber die These, die enorm wachsenden Kosten dieser Diagnostik "are rising out of proportion to any possible benefit".
Warnend weisen die Forscher abschließend auf die enorme Zunahme der Strahlenbelastung insbesondere durch CT-Untersuchungen hin.

Zusätzlich und ganz aktuell liegen nach der Analyse des Umfangs und der Art des diagnostischen Geschehens bei 101.000 durchschnittlich 76 Jahre alten Krebspatienten zwischen 1999 und 2006, die bei der staatlichen Krankenversicherung der USA für ältere BürgerInnen, Medicare, versichert waren, noch differenziertere und vor allem indikationsbezogene Daten zum Diagnostikgeschehen vor. Dies gilt für einen Zeitraum von 2 Jahren nach der Erstdiagnose von Leukämie, Non-Hodgkin-Lymphsystemkrebs, Brustkrebs, Darm-, Lungen- oder Prostatakrebs.
Die Studie bestätigte zunächst, dass die Ausgaben für bildgebende Untersuchungen in den USA die am schnellsten wachsende Ausgabenart ist. Die Häufigkeit von bildgebenden Untersuchungen variierte je nach Krebsart erheblich. Am häufigsten wurden diese Untersuchungen bei Personen durchgeführt, die an Lungenkrebs unhd Lymphsystemkrebs erkrankt waren.

Die Ergebnisse sahen im Einzelnen so aus:

• Der durchschnittliche Lungenkrebspatient des Jahres 2006 durchlief in den zwei Jahren davor 11 konventionelle Röntgenuntersuchungen, 6 Computertomogramme, 1 Positronen-Emissions-Tomogramm (PET), einen nuklearmedizinischen Test, 1 Magnetresonanzuntersuchung (MRI), 2 Echokardiogramme und eine zusätzliuche Ultraschalluntersuchung.
• Das größte Wachstum erreichte die Anzahl der PET-Untersuchungen, die im Durchschnitt und je nach Krebsart um 36 bis 54 % pro Jahr wuchs. Zum Vergleich: MRI-Untersuchungen wuchsen jährlich um 4 bis 12 %, der Einsatz von Echokardiographie wuchs zwischen 5 und 8 % und die einfachen kardiographischen Untersuchungen nahmen in einigen Jahren sogar ab oder blieben im Rest des Untersuchungszeitraums stabil.
• Je nach Krebsart stiegen die Kosten für diese Diagnoseverfahren, wiederum in Abhängigkeit von der Krebsart, zwischen 5 und 10 %. Damit lagen die Kostenzuwächse für bildgebende Verfahren über denen für die gesamten Krebsbehandlungskosten: Diese stiegen in den 7 Studienjahren jährlich um 2 bis 5 %.

Als Erklärungsmöglichkeiten verweisen auch diese ForscherInnen u.a. auf die Möglichkeit erweiterter Indikationen hin, was ihres Erachtens besonders die Zunahme der PET-Untersuchungen erklären könnte.
Für sämtliche untersuchten Indikationen ist schließlich trotz der unbestreitbaren Relevanz solchen Wissens weiterhin unklar, ob das dramatische Ansteigen der Untersuchungshäufigkeit durch bessere gesundheitliche Ergebnisse gerechtfertigt ist - was ja immerhin eine wichtige Basis für inhaltliche Entscheidungen darstellen würde.

Selbst auf der eher technik- und industriefreundlichen Website "diagnosticimaging.com" wird daher die Frage gestellt: "Is imaging being overused on Medicare cancer patients?" Auch wenn es darauf keine eindeutig bejahende Antwort gibt, referiert der Autor den Hinweis der ForscherInnen der Duke-Universität, dass wahrscheinlich beim Großteil der jüngeren Krebspatienten noch deutlich häufiger diagnostische Verfahren zum Einsatz kämen als bei den über 70 Jahre alten Medicare-PatientInnen.

Zum Aufsatz mit den Ergebnissen der 2008 durchgeführten Studie "Rising Use of diagnostic medical imaging in a large integrated health system" von Rebecca Smith-Bindman, Diana Miglioretti und Eric Larson (Health Affairs; 27, Nr. 6: 1491-1502) gibt es kostenlos lediglich ein Abstract.

Auch zu dem Aufsatz "Changes in the use and costs of diagnostic imaging among Medicare beneficiaries with cancer 1999-2006" von Dinan MA et al. (JAMA. 2010;303(16):1625-1631) gibt es kostenlos nur das Abstract.

Bernard Braun, 5.6.10


Biomedizinische Forschung überwiegend von finanziellen Gewinnerwartungen motiviert

Artikel 1735 In den USA wurden im Jahr 2007 105,6 Mrd. Dollar in die biomedizinische Forschung investiert. Da die Geldgeber darüber bestimmen, welche Fragen untersucht werden und welche nicht, ist die Frage nach den Finanzierungsquellen von großer Bedeutung. Unterschieden wird beispielsweise zwischen "Investigator-Driven Clinical Trials" und "Industry-driven trials", also zwischen Studien, die entweder in erster Linie der wissenschaftlichen Neugier oder aber den Gewinnerwartungen der Industrie entspringen. Im Jahr 2009 hatten sich die European Medical Research Councils in einem Bericht für eine Stärkung der Industrie-unabhängigen Forschung, also der "Investigator-Driven Clinical Trials" ausgesprochen (wir berichteten).

70 bis 80 % der weltweiten biomedizinischen Forschungsleistungen werden in den USA erbracht. Die Trends in der Finanzierung sind das Thema einer kürzlich im Journal of the American Medical Association erschienen Untersuchung.
Die wesentlichen Geldgeber sind
• die amerikanische Regierung
• die Bundesstaaten
• private gemeinnützige Einrichtungen einschließlich Stiftungen
• die Industrie.

Auf Seiten der Industrie sind zu unterscheiden:
• die pharmazeutische Industrie
• Biotechnologiefirmen
• Hersteller medizinischer Geräte.

Die Gesamtsumme für biomedizinische Forschung stiegt von 75,5 Mrd. Dollar im Jahr 2003 auf $101,1 Mrd. Dollar im Jahr 2007. Inflationsbereinigt beträgt der Anstieg 14%, und ist damit etwas stärker als der Anstieg des Bruttosozialproduktes, das im selben Zeitraum um 12% stieg. Die jährliche Wachstumsrate hatte zwischen 1994 und 2003 noch durchschnittlich 7,8% betragen, zwischen 2003 und 2007 nur noch 3,4%. Die neuesten Zahlen aus dem Jahr 2008 weisen sogar auf eine Abnahme der Forschungsgelder hin.

Die National Institutes of Health (NIH) trugen im Jahr 2007 27% der Forschungsausgaben und damit den größten Teil (84%) der öffentlichen Ausgaben. Inflationsbereinigt nahm der absolute Betrag wie auch der Anteil an den Gesamtausgaben seit 2003 ab.

Größter Geldgeber war die Industrie mit 58,6 Mrd. Dollar im Jahr 2007, entsprechend einem Anteil von 58% der Gesamtausgaben. Im Jahr 2003 waren es noch 40 Mrd. gewesen, der Zuwachs bis 2007 beträgt inflationsbereinigt 25%. Die pharmazeutische Industrie stellt den größten Anteil der Ausgaben, gefolgt von den Biotechnologiefirmen und der Geräteindustrie. Die Stärke des Wachstums von 2003 auf 2007 verläuft umgekehrt - hier liegt die Geräteindustrie mit 59% vor den biotechnologischen Firmen (41%) und den pharmazeutischen Firmen (15%).

Zusammenfassend lässt sich feststellen, dass
• weiterhin mit hohem finanziellem Aufwand neue medizinische Technologien erforscht werden,
• in den letzten Jahren eine Dämpfung des Anstiegs der Zuwachsraten zu verzeichnen ist,
• sich die Anteile der Förderung weiter zuungunsten der öffentlichen Förderung in den Bereich der Industrie verschieben,
• die größten Hoffnungen der Anleger derzeit auf den Geräteherstellern und den Biotechnologiefirmen ruhen.

Vergleichsweise niedrig sind die Forschungsanstrengungen, wenn es darum geht, die Funktionalität der Gesundheitsversorgung und den Stellenwert neuer Technologien zu ergründen ("Health Policy
and Health Services Research"). Im Jahr 2008 stellten die amerikanische Regierung und private Einrichtungen dafür 2,2 Mrd. Dollar zur Verfügung. Die NIH waren mit 1,0 Mrd. Dollar beteiligt, die Agency for Healthcare Research and Quality mit 335 Mrd. Dollar und die Robert-Wood-Johnson-Foundation mit 523 Mrd. Dollar. Der Anteil für Forschung im Bereich Health Policy and Health Services an den Gesamtgesundheitsausgaben beträgt kärgliche 0,1 %. In die biomedizinische Forschung investieren die USA hingegen 4,5 %, ein Wert, der höher ist als in jedem anderen Land der Welt.

Dorsey ER, de Roulet J, Thompson JP, Reminick JI, Thai A, White-Stellato Z, et al. Funding of US Biomedical Research, 2003-2008. JAMA 2010;303(2):137-1. Abstract der Studie

Volltext der Vorläuferstudie Moses H, III, Dorsey ER, Matheson DHM, Thier SO. Financial Anatomy of Biomedical Research. JAMA 2005;294(11):1333-1342.

David Klemperer, 12.2.10


Zunahme der bildgebenden Diagnostik: Unerwünschte Strahlenbelastungen und geringer Nutzen gegen Fehldiagnosen. Lösung in den USA?

Artikel 1725 Ohne dass es lückenlose und uneingeschränkte Nachweise der Notwendigkeit und des Nutzens gibt, wächst die Anzahl der Verfahren der bildgebenden Diagnostik und darunter besonders auch der mit einer Röntgenstrahlenexposition verbundenen Verfahren in Deutschland seit Mitte der 1990er Jahren stetig an.

Der aktuellste Bericht zu dieser Entwicklung, der im Dezember 2008 erschienene "Jahresbericht 2007 Umweltradioaktivität und Strahlenbelastung" des Bundesamtes für Strahlenschutz stellt in seinem Hauptabschnitt über den medizinischen Beitrag zum Problem trotz einer Reihe methodischer Probleme und Skrupel folgende ZUstände und Tendenzen dar:

• Zur Generaltendenz: "Der größte Beitrag zur zivilisatorischen Strahlenexposition wurde durch die Anwendung radioaktiver Stoffe und ionisierender Strahlung in der medizinischen Diagnostik verursacht. Insbesondere der Beitrag der Röntgendiagnostik zur effektiven Dosis ist in den letzten Jahren kontinuierlich angestiegen. Wesentliche Ursache für die Zunahme ist die steigende CT-Untersuchungshäufigkeit. Von daher bleibt in diesem Bereich Handlungsbedarf weiterhin angezeigt."
• Tendenz des klassischen Röntgen: "Für das Jahr 2005 wurde für Deutschland eine Gesamtzahl von etwa 132 Millionen Röntgenuntersuchungen abgeschätzt (ohne zahnmedizinischen Bereich: etwa 84,5 Mio. Röntgenuntersuchungen). Die Häufigkeit von Röntgenuntersuchungen in Deutschland während des betrachteten Zeitraums 1996 bis 2005 nahm leicht ab, wobei der Wert für das Jahr 2005 bei etwa 1,6 Röntgenuntersuchungen pro Einwohner und Jahr liegt." 1996 betrug dieser Wert 1,8.
• Tendenz des "modernen" Röntgen=Computertomographie: "In der Trendanalyse am auffälligsten ist die stetige Zunahme der Computertomographie(CT)-Untersuchungen - insgesamt um nahezu 80% über den beobachteten Zeitraum." Die Häufigkeit stieg von rund 0,06 (1996) auf rund 0,11 (2005) CT-Untersuchungen pro Einwohner und Jahr.
• Bildgebende Verfahren ohne Röntgenexposition: "Ein erheblicher Anstieg ist auch bei den "alternativen" bildgebenden Untersuchungsverfahren, die keine ionisierende Strahlung verwenden, zu verzeichnen, insbesondere bei der Magnetresonanztomographie (MRT)." Der Anstieg von 1996 auf 2005 erfolgte von 0,02 auf 0,08 Untersuchungen pro Einwohner und Jahr.
• Zu den Strahlenbelastungseffekten: Unter verschiedenen Annahmen "beläuft sich die - rein rechnerische - effektive Dosis pro Einwohner in Deutschland für das Jahr 2005 auf ca. 1,8 mSv und stieg damit über den Beobachtungszeitraum nahezu kontinuierlich an. Der festgestellte Dosisanstieg ist im Wesentlichen durch die Zunahme der CT-Untersuchungshäufigkeit bedingt."
• Wo steht Deutschland international?: "Im internationalen Vergleich liegt Deutschland nach den vorliegenden Daten bezüglich der jährlichen Anzahl der Röntgenuntersuchungen pro Einwohner und Jahr im oberen Bereich." In Ländern wie den USA betrug die effektive Dosis pro Kopf in den USA im Jahr 2006 3,2 mSv.
• Was tun?: "Darüber hinaus ist es weiterhin erforderlich, bei der Ärzteschaft ein Problembewusstsein für eine strenge Indikationsstellung unter Berücksichtigung der Strahlenexposition der Patienten zu schaffen."

Dem gesundheitspolitikfernen Bundesamt ist es nicht übel zu nehmen, dass es bei Appellen an das "Problembewusstsein" und bei den technischen Möglichkeiten der Röntgenverordnung verharrt, die Strahlenexposition zu reduzieren.
Außerdem stellt sich auch hier die Frage warum zu diesem quantitativ und qualitativ relevanten gesundheitsbezogenen Geschehen nicht die Gesetzliche Krankenversicherung (GKV) die Daten liefert und sich auf dieser Datenbasis verstärkt um die wahrscheinliche diagnostische Über- oder Fehlversorgung kümmert?

Um über andere, ausdrücklich gesundheitspolitische Methoden und deren Wirksamkeit Genaueres zu erfahren, muss man schon in die USA schauen. Angesichts der gerade genannten sehr hohen Strahlenbelastung und den damit auch noch verbundenen hohen Gesundheitsausgaben ist es nicht verwunderlich, dass dort bereits vor mehreren Jahren versucht wurde, die Zunahme aller bildgebenden und besonders der röntgenbasierten Verfahren zu stoppen und den Trend u.U. umzukehren.

Ob es dort gelungen ist eine wirksame Lösung zu finden und wodurch, arbeitet nun ein im Januar 2010 in der renommierten US-Public Health-Zeitschrift "Health Affairs" erschienener Aufsatz akribisch auf.

Zu den wesentlichen Daten und Einflussfaktoren der Untersuchung gehören:

• Zwischen 2000 und 2005 nahm die Anzahl der bildgebenden Untersuchungen für die ambulante Behandlung mit so genannten entwickelten diagnostischen Bildverfahren (MRT, CT und Nuklearmedizin - hier vor allem die Positronenemissionstomographie PET) für Medicare-Versicherte um 72,7% zu (von 365,7 Untersuchungen pro 1.000 Versicherte auf 631,4 Untersuchungen pro 1.000 Versicherte). Die jährliche durchschnittliche Wachstumsrate war mit 11,3% bei MRT-Untersuchungen am höchsten, dicht gefolgt von der Nuklearmedizin mit 10,7% und der CT mit 9,2%.
• Während die Zunahme der Häufigkeit bildgebender Diagnostik in ambulanten Praxen (inklusive alleinstehende Diagnosezentren bzw. "imaging centers") von 2000 bis 2006 jährlich rund 15,4% betrug, stieg derselbe Indikator in ambulanten Einrichtungen innerhalb von Krankenhäusern lediglich um 6,1% pro Jahr.
• Mit dem "Deficit Reduction Act (DRA)" von 2005, der allerdings voll erst mit dem Beginn des Jahres 2007 wirkte, versuchte die US-Regierung diese Entwicklung in ambulanten Praxen zu bremsen. Das Gesetz enthält aber keine direkten Blockaden des Zugangs der Versicherten zu diesen Leistungen.
• Bereits 2006 und dann vor allem 2007 verringerte sich die Zunahme der bildgebenden Untersuchungen beträchtlich: Das jährliche Wachstum betrug bei allen drei Verfahren zusammen nur noch 1,7% pro Jahr. Dahinter steigt ein Wachstum von 4,3% bei CTs, von 1% bei MRTs aber ein Minuswachstum von 0,8% bei nukleartechnischen Verfahren.
• Sieht man sich insbesondere die Entwicklung im Jahr 2007 nach Art des Leistungserbringern an, steigt die Rate aller Untersuchungen pro 1.000 Medicareversicherten in privaten Praxen um 2,8% und in ambulanten Einrichtungen in Krankenhäusern um gerade einmal 0,4% an. Dies ist insofern ein paradoxes Ergebnis, weil der erwartete Anreiz des DRA vor allem zu einem Rückgang bei den privaten Praxen führen sollte. Gegen eine Stagnation oder gar einen Rückgang der Untersuchungsrate in Krankenhäusern hätte auch gesprochen, dass ein Teil des bisher ambulanten Diagnostikgeschehens wegen der Schließung ambulanter Einrichtungen in die Krankenhäuser hätte wandern müssen.
• Da damit der DRA nicht mehr der einzige oder entscheidende Faktor für die Stagnation der Zunahme zu sein scheint, fragen die Forscher nach anderen Ursachen. Sie halten generell mehrere Erklärungen für möglich. Dazu zählen das Aufkommen von so genannten "radiology business management companies", die besonders hart die Notwendigkeit des Einsatzes bildgebender Verfahren überprüfen und evtl. auch das Bewusstsein für die Angemessenheit derartiger Untersuchungen schärfen. Eine weitere mögliche Erklärung ist der verbesserte Zugang zu fachlichen Kriterien, mit denen sich Ärzte die Angemessenheit einer bildgebenden Diagnostik vergegenwärtigen können.
• Selbst wenn die Abnahme der Zunahme ("slowdown") auch nach 2007 anhält, handelt es sich um eine anhaltende Stagnation auf dem erreichten hohen Niveau. Bei der Nutzung dieser Untersuchungen dürfte es sich daher immer noch um eine Menge Überversorgung oder angesichts der Strahlenrisiken auch um Fehlversorgung handeln.

Im Zusammenhang mit der Einführung innovativer bildgebender Verfahren sind aber nicht nur die Menge, der Preis und die Strahlenbelastung zu hinterfragen, sondern auch der tatsächlich mit den neuen Verfahren zusätzlich zu realisierende Nutzen.

Dass auch hier die Formel "neu-teuer-gut-nützlich" nicht uneingeschränkt gilt, zeigten u.a. zwei Studien einer deutschen Forschergruppe. Dieser untersuchten bereits Mitte der 1990er Jahre für die Jahre 1959, 1969, 1979 und 1989 und dann erneut für die Jahre 1999/2000, also während der alten Röntgenzeit und der Einführungszeit von CT, MRT, Ultraschall und weiteren Verfahren, via Obduktion die Entwicklung der Raten klinischer Fehleinschätzungen an einer Universitätsklinik. Diese Ergebnisse beruhten auf den Autopsiedaten von jeweils 100 zufällig ausgewählten und im Krankenhaus oder kurz danach verstorbenen PatientInnen.

Ernüchterndes Ergebnis: Die Verbesserung der Diagnostik hat die Raten der Fehldiagnosen, des Übersehens der Grundkrankheit, irrtümlich gestellter Diagnosen und übersehener anderer Krankheiten nicht nennenswert beeinflusst.

Im Einzelnen:

• Die Rate von 11% Fehldiagnosen veränderte sich während der gesamten Untersuchungszeit nicht.
• Die Häufigkeit falsch negativer Diagnosen stiegen sogar von 22% im Jahr 1979 auf 34% und 41% in den Jahren 1989 und 1999/2000.
• Die Häufigkeit von falsch positiven Diagnosen stieg ebenfalls vom Jahr 1989 bis zum Jahr 1999/2000 von 7% auf 15%.
• Zu den verbreitetsten und häufigsten Diagnoseirrtümern gehörte im Jahr 1999/2000 wie in den Vorjahren Lungenembolien, Myokardinfarkte, Neubildungen und Infektionen.

Interessante Ergebnis am Rande und auch ein Beitrag zur Debatte über den Nutzen neuer Techniken:

• Die gründliche Erhebung der Erkrankungs- und Behandlungsgeschichte der Patienten und die einfache körperliche Untersuchung hatten durchweg eine wichtige diagnostische Bedeutung. Mit diesen Methoden gelangten die nur so diagnostizierenden Ärzte in 75% der Fälle zu einer korrekten Diagnose.
• Die Autopsierate sank von 88% im Jahr 1959 auf 20% im Jahr 1999/2000. Dies bewerten die Autoren als enorme Beschränkung der Möglichkeiten für Ärzte, aus Fehlern zu lernen. Es könnte aber auch Ausdruck der vermessenen und mit Sicherheit unbegründeten Überzeugung sein, keine Fehler zu machen.

Der erste Aufsatz "Misdiagnosis at a University Hospital in 4 Medical Eras: Report on 400 Cases" von Wilhelm Kirch und Christine Schafii erschien in der Zeitschrift "Medicine" (January 1996; Volume 75, Issue 1: 29-40) und hat weder einen freien Zugang zum Abstract noch zum kompletten Text.
Der zweite Aufsatz bzw. die Fortsetzung der Beobachtungszeitpunkte des Autorenteams "Health care quality: Misdiagnosis at a university hospital in five medical eras. Autopsy-confirmed evaluation of 500 cases between 1959 and 1999/2000: a follow-up study" von Wilhelm Kirch, Fred Shapiro und Ulrich R. Fölsch erschien im "Journal of Public Health" (Volume 12, Number 3 / June, 2004: 154-161) und von ihm ist kostenlos das Abstract zugänglich.

Von der Studie "Physician Orders Contribute To High-Tech Imaging Slowdown" von David C. Levin, Vijay M. Rao und Laurence Parker in der Zeitschrift "Health Affairs" (29, no. 1 (2010): 189-195) gibt es leider nur ein Abstract. Da die Zeitschrift seit Januar 2010 auch ein etwas aufgelockerteres Layout hat, ist Interessenten an der US-Gesundheitspolitik und -wissenschaft aber auch allen Anderen ein Abonnement als "individual" empfohlen, das zumindest normal bezahlte Beschäftigte nicht überfordert.

Der 308-Seiten-Bericht "Umweltradioaktivität und Strahlenbelastung. Jahresbericht 2007" wird seit Anfang des Jahrhunderts vom Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU) herausgegeben, ist vom Bundesamt für Strahlenschutz erstellt und kostenlos herunterladbar.

Bernard Braun, 2.2.10


Selbstverständlichkeit oder medizinisch-technischer Fortschritt? WHO-Sicherheitscheck im OP.

Artikel 1468 Um noch mehr diagnostische Einblicke für frühe oder punktgenaue Therapien zu erhalten, werden millionenschwere Investitionen in Großgeräte getätigt und um bestimmte Wirkstoffspiegel noch schneller und direkter zu erreichen ebenfalls Millionen in die Entwicklung neuer Arzneimittel gesteckt. Den medizinisch-technischen Fortschritt lassen "wir uns" also so viel kosten, dass oft schon die bange Frage auftaucht, ob dies künftig wirklich noch alles auf "Kassenrezept" erhältlich sein wird.

Zur selben Zeit tragen aber die mangelhafte Handhygiene (siehe dazu auch z. B. diesen Forumsbeitrag zur Handhygiene und ihren unerwünschten Folgen), der unüberlegte gießkannenartige Einsatz von Antibiotika in allen Teilen des Krankenbehandlungssystems nicht wenig zum Problem der multiresistenten Erreger bei (siehe dazu auch diesen Forumsbeitrag) und offensichtlich auch das Fehlen einfachster Sicherheitschecks in vielen Operationssälen dazu bei, dass Patienten trotz aller Fortschrittsinvestitionen z.B. wegen "vergessener" Gegenstände im Bauchraum schwer erkranken oder gar sterben.

Dies will nun die Weltgesundheitsorganisation (WHO) mit Hilfe einer von ihr entwickelten einfachen Sicherheits-Checkliste im Umfang von einer DIN A 4-Seite dauerhaft verhindern. Nach dieser insgesamt 19 Fragen umfassenden Liste soll u.a. routinemäßig und schematisch vor der Narkose die Identität des Patienten festgestellt werden, die Art des Eingriffs und die Stelle, die operiert werden soll, bestätigt werden, wenn möglich, festgestellt werden, ob der Patient eine Allergie hat, unter Atemschwierigkeiten leidet und ob er bereits Blut verloren hat. Vor dem Schnitt stellt sich jedes Mitglied des OP-Teams mit Namen und Funktion vor. Ärzte und Pflegepersonal sollen vor dem Eingriff über mögliche Komplikationen während der Operation sprechen. Bevor der Patient nach dem Eingriff den Operationssaal verlässt, werden die Instrumente gezählt und mögliche Schwierigkeiten, die bei der Abheilung der Wunde auftreten könnten, vermerkt werden.

Auch wenn vieles selbstverständlich wirkt und banal erscheint, beruht die WHO-Liste schlicht auf den am häufigsten vorkommenden Behandlungsfehlern mit zum Teil schwerwiegenden negativen Auswirkungen auf die Gesundheit der Patienten im Krankenhaus.

Um aber nicht ständig hören zu müssen, die Liste bewirke praktisch nichts, untersuchten weltweit aktive Mitglieder der "Safe Surgery Saves Lives Study Group" in einer Studie an acht sozial und technisch deutlich unterschiedlichen Krankenhäusern in weltweit acht Städten (Toronto, Neudelhi, Ammann, Auckland, Manila, Ifakara, London und Seattle - natürlich wieder ohne ein deutsches Krankenhaus) die Behandlungsgeschichten von 7.688 nichtkardiologischen Chirurgiepatienten, die älter als 16 Jahre alt waren, drei Monate vor (3.733 Patienten) und 3 Monate lang nach (3.955 Patienten) der Anwendung dieser Liste.

Die im Januar 2009 im "New England Journal of Medicine (NEJM)" veröffentlichten Hauptergebnisse lauten:

• Die Rate aller wesentlichen Komplikationen während der Behandlung und 30 Tage nach dem operativen Eingriff fiel statistisch signifikant (p<0,001) von 11 % vor dem Einsatz der Liste auf 7 % danach.
• Die Sterblichkeit während und nach der Operation sank ebenfalls statistisch signifikant (p=0,003) von 1,5 % auf 0,8 %.
• Auch die Raten für postoperative Infektionen und ungeplante Nachoperationen sanken statistisch hochsignifikant.
• Diese Erfolge konnten in allen sozialen Settings verzeichnet werden.
• Die Erfahrungen mit der Einführung an organisatorisch unterschiedlichen Kliniken zeigten auch, dass die Einführung weder viel Geld noch Zeit kostet. Die Testkliniken brauchten zwischen einer Woche und einem Monat, die Checkliste und ihre expliziten Prüfvorgänge in den Alltag einzubauen.

Die erste Ausgabe der WHO Surgical Safety Checklist kann komplett im Internet eingesehen und herunter geladen werden.

Dort gibt es auch einen kurzen Überblick über das Projekt der WHO.

Der 8 Seiten umfassende Aufsatz "A Surgical Safety Checklist to Reduce Morbidity and Mortality in a Global Population" von Alex B. Haynes et al. ist seit 14. Januar 2009 online auf der Website des NEJM komplett kostenlos erhältlich und wird am 29. Januar 2009 im NEJM (N Engl J Med 2009;360: 491-9) gedruckt erscheinen.

Bernard Braun, 22.1.09


Überversorgung mit Medizintechnik durch Anbieterdruck und Fehleinschätzung des Bedarfs. Beispiel häusliche Defibrillatoren!

Artikel 1211 Es vergeht selten ein Monat, in dem nicht kometenartig ein Gerät, ein Arzneimittel oder eine ärztliche oder nichtärztliche Leistung in der öffentlichen Diskussion auftaucht, einer Vielzahl von Erkrankten umfassende Hilfe versprochen und nach Geldmitteln gerufen wird. Es nicht zur Verfügung zu stellen erschiene unmenschlich und bekäme sofort das Etikett der "Rationierung" bzw. Vorenthaltung medizinisch notwendiger Leistungen aufgeklebt.

Dazu gehört auch der so genannte automatische externe Defibrillator (AED), der nicht nur an möglichst vielen öffentlichen Orten, sondern am besten auch in jedem Haushalt vorhanden sein sollte, in dem ein Risikopatient wohnt und in denen drei von vier plötzlichen Herzstillständen stattfinden, mithin Leben gerettet werden könnten.

Der AED ist ein medizinisches Gerät, das "durch gezielte Stromstöße Herzrhythmusstörungen wie Kammerflimmern und Kammerflattern (Defibrillation) oder ventrikuläre Tachykardien, Vorhofflimmern und Vorhofflattern (Kardioversion) beenden" (Wikipedia) kann, also eindeutig lebensrettende Wirkungen hat. Bei 85% aller plötzlicher Herztode liegt nämlich anfangs ein Kammerflimmern vor.

Defibrillatoren gibt es als externe Geräte in einer manuellen und automatischen Version. Letztere erkennt automatisch, ob es sich überhaupt um ein Kammerflimmern handelt und Stimulation notwendig ist. Außerdem existieren implantierbare automatische Defibrillatoren.

Da die Ausstattung jeder Risikopatientenwohnung mit einem Gerät für alle Beteiligten eine teure Angelegenheit wäre, liegt nahe, den individuellen wie kollektiven Nutzen dieses neuen "Haushaltsgeräts" genau zu ermitteln. Dies geschah in dem hauptsächlich in angelsächsischen Länder durchgeführten "Home Automated External Defibrillator Trial" (HAT). Diese rund drei Jahre laufende Studie sollte untersuchen, ob sich eine Aufstellung der Geräte in Wohnungen von Risikopatienten gesundheitlich lohnt bzw. es eine kosteneffektive Maßnahme wäre. An der HAT-Studie beteiligten sich 7.001 Patienten, die aufgrund eines Vorderwandinfarktes gefährdet sind, jederzeit ein tödliches Kammerflimmern (Kammerarrhythmie) zu erleiden, deren Prognose aber nicht so schlecht war, dass die Indikation für einen internen Kardioverter-Defibrillator bestand.

Eine weitere Voraussetzung zur Teilnahme war, dass die Patienten mit einem Partner zusammenlebten, der bereit war, eine Reanimation durchzuführen, da dies der Patient im Versorgungsfall nicht mehr selber machen kann. Diese Partner wurden angewiesen, im Fall eines Kollapses den Notarzt zu rufen und eine Laien-Reanimation zu beginnen. Jedes zweite Paar wurde mit einem AED ausgerüstet. Die Partner lernten das Gerät zu bedienen, und die Forscher erhofften sich eine deutliche Reduktion der kardialen Todesfälle.

Diie ERgebnisse der Studie wurden jetzt in der Ausgabe der angesehenen Fachzeitschrift "New England Journal of Medicine" vom 1. April 2008 veröffentlicht.

Danach trat die erwartete Reduktion nicht ein, was an mehreren unerwarteten Faktoren lag:

• Die Sterblichkeit unter den StudienteilnehmerInnen war deutlich niedriger als erwartet (37 von 470 Patienten) und nur jeder dritte (160 Fälle oder 35,5%) verstorbene Teilnehmer starb an den Folgen eines nicht behandelten Kammerflimmern. Nach Meinung der WissenschaftlerInnen war dafür u.a. die wirksame medikamentöse Behandlung der Risikopatienten verantwortlich.
• Weitere Gründe für die geringe Wirksamkeit eines häuslichen AEDs waren aber im Wesentlichen soziale Gründe: So starben nur 117 der 160 Gestorbenen in Reichweite des häuslichen Gerätes. Lediglich bei 58 verstorbenen Patienten war ein zwingend notwendiger Sachkundiger bzw. Angehöriger anwesend. Bei 32 Patienten wurde aber schließlich der AED genutzt und entdeckte dann auch in 15 Fällen ein Kammerflimmern und löste bei 14 Personen eine Defibrillation aus. Vier Patienten oder 28,6% überlebten das Ereignis. Da das Gerät auch noch in zwei Fällen in der Nachbarschaft eingesetzt werden konnte, erhöht sich die Anzahl der geretteten Leben auf insgesamt 6.
• In den Fällen von gefährdeten Patienten, in denen das Gerät überhaupt zum Einsatz kam, liegt die Erfolgsrate von rund 12,5% (4 bei 32 Patienten) höher als die in der bisherigen Gesamtversorgung berichteten 2% oder die 6%, die im allgemeinen in Notfallstationen erreicht werden.

Auch wenn man in Rechnung stellt, dass die Ergebnisse der Studie nicht uneingeschränkt verallgemeinerbar sind (z.B. erhielten auch die Angehörigen in der Kontrollgruppe Grundzüge des Umgangs mit Herzkammerflimmer-Patienten vermittelt), würde eine flächendeckende Ausstattung von Risikopatient-Haushalten nur sehr wenige Menschenleben retten. Daher sollten die möglicherweise hier eingesetzten Geldmittel an anderen, wirksameren Orten eingesetzt werden.

Der Aufsatz "Home Use of Automated External Defibrillators for Sudden Cardiac Arrest" von Gust H. Bardy et al. ist kostenlos in einer kompletten PDF-Version erhältlich.

Bernard Braun, 21.4.2008


Von der Einfachheit des medizinisch-technischen Fortschritts - Wie verlängere ich die Dauer des Stillens?

Artikel 0897 Das möglichst sofort nach der Geburt beginnende und möglichst lange Stillen mit Muttermilch gilt als eine der besten Ernährungsmöglichkeiten für Neugeborene und Babies und bringt auch zahlreichen gesundheitlichen Nutzen für Kinder und Mütter.

Deshalb findet sich unter den nationalen Gesundheitszielen vieler Länder auch das einer möglichst hohen Quote stillender Mütter. In den USA wird beispielsweise angestrebt, dass 75 % aller Mütter mit Stillen beginnen, in den ersten drei Monaten eine Rate ausschließlich mit Brustmilch stillender Mütter von 60 % erreicht wird und auch noch innerhalb der ersten 6 Monate eine Stillquote von 50 % erreicht wird (darunter exklusiv 25 % mit Brustmilch Stillende). Weltweit gibt es aber trotzdem wesentlich niedrigere Raten.

Zwei Aufsätze in der aktuellen Septemberausgabe der Fachzeitschrift "Birth" stellen Ergebnisse zweier empirischer Studien zu den Gründen niedriger Stillraten und den Möglichkeiten, sie zu verbessern vor.

Die Studie "Factors Associated with Low Incidence of Exclusive Breastfeeding for the First 6 Months" von Lilian Cordova do Espírito Santo, Luciana Dias de Oliveira und Elsa Regina Justo Giugliani (Volume 34 Issue 3 Page 212-219, September 2007) untersuchte bei einer Kohorte von 220 gesunden jungen Müttern in Brasilien deren Werdegang und "Stillkarriere" in den ersten 6 Monaten nach der Entbindung.
Dabei identifizierten sie folgende Faktoren, die die Beendigung des exklusiven Stillens vor Erreichen des Endes des Untersuchungszeitraums statistisch signifikant förderten: Mutter war eine Heranwachsende, Besuch von weniger als 6 Beratungen/Untersuchungen in der Schwangerschaft, Benutzung eines Schnullers im ersten Lebensmonat des Kindes und schlechtes Anlegen ("poor lath-on") des Kindes an die Brust. Die brasilianischen Forscherinnen schlagen daher eine gezielte Förderung und Ratschläge für die erkennbar zu früh abstillenden Mütter vor.

Über die empirisch untersuchte Wirksamkeit eines 5-Punkteprogramms zur Förderung des Stillens berichten die amerikanischen Forscherinnen Erin K. Murray, Sue Ricketts und Jennifer Dellaport in ihrem Aufsatz "Hospital Practices that Increase Breastfeeding Duration: Results from a Population-Based Study" (Volume 34 Issue 3 Page 202-211, September 2007).
Es handelt sich dabei um Ergebnisse einer Studie mit Daten des "Pregnancy Risk Assessment Monitoring System" im US-Bundesstaat Colorado, mit denen die Dauer der Stillzeit aller jungen Mütter der Jahre 2002 und 2003 in diesem Bundesstaat bestimmt werden konnte. Dabei konnte die Stilldauer von Müttern, die ein spezifisches 5-Punkteprogramm vermittelt bekamen, mit der von Müttern verglichen werden, die dieses Programm nicht angeboten bekamen bzw. nicht nutzten.
Dieses, auch in den USA nicht besonders weit verbreitete Programm (angeblich nur in bundesweit 56 Krankenhäusern und Geburtszentren) umfasst folgende Elemente:

• Das Stillen wird innerhalb der ersten Stunde nach der Geburt initiiert,
• Die Neugeborenen bleiben im Zimmer der Mutter,
• Im Krankenhaus werden die Kinder nur mit Muttermilch gestillt und es erfolgt keinerlei Ergänzung mit Wasser oder sonstiger Milch,
• Schnuller sind im Krankenhaus untersagt und
• Die Mütter erhalten bei ihrer Entlassung eine Telefonnummer bzw. die Adresse einer erfahrenen Kontaktperson, die nach der Krankenhaus-Entlassung Ratschläge für das Stillen erteilen kann.

Mit diesem Programm verbessert sich die Rate der möglichst lang stillenden Mütter signifikant: Nahezu zwei Drittel der Mütter, die dieses Programm nutzten, stillten noch 4 Monate nach ihrer Entlassung. In der Kontrollgruppe ohne dieses Programm betrug dieser Anteil noch rund 50 %. Die Verbesserung der Stilldauer aufgrund des Programms wurde auch nicht vom sozioökonomischen Status der Mutter beeinflusst.

Hier erhalten Sie das kostenfreie Abstract des Aufsatzes "Factors Associated with Low Incidence of Exclusive Breastfeeding for the First 6 Months" von Cordova et al..
Und hier können sie ebenfalls das Abstract des Aufsatzes "Hospital Practices that Increase Breastfeeding Duration: Results from a Population-Based Study" von Murray et al. herunterladen.

Bernard Braun, 2.9.2007


Chirurgie in Deutschland: "Studienmuffel" zu 85 Prozent im "Blindflug"

Artikel 0450 Als "Blindflüge am Operationstisch" charakterisiert die Internetausgabe der "Frankfurter Allgemeinen", "FAZ.NET" vom 2.1.2007 große Teile des chirurgischen Geschehens in deutschen Krankenhäusern. Gemeint ist, dass in Deutschland wesentlich weniger klinische Studien durchgeführt und daraus gewonnene Erkenntnisse in der OP-Praxis genutzt werden als in vergleichbaren europäischen und nordamerikanischen Ländern. Stattdessen wird allein oder vorherrschend auf die "persönliche Erfahrung und das technische Geschick eines Operateurs" also die gute alte "Eminenz" gesetzt. Die Erkenntnis, dass in Deutschland eminenz- vor evidenzbasierte Chirurgie an der Tagesordnung ist, bezieht die FAZ von medizinischen Experten, die in einigen Publikationen und bei der staatlich geförderten und von der "Deutschen Gesellschaft für Chirurgie" mitgetragenen Gründung des "Zentrums für klinische Studien" aktiv waren und sind. Der jetzige Leiter des Zentrums, der Heidelberger Chirurg Christoph Seiler, stellte zusammen mit seinen Kollegen Wente, Uhl und Büchler die Situation des Faches Chirurgie in einem bereits 2000 und dann 2003 in der Zeitschrift "Digestive Surgery" (Dig Surg 2003;20:263-269) veröffentlichten und komplett zugänglichen Review mit dem Titel "Perspectives of Evidence-Based Surgery" fest, dass nur für weniger als 15 % aller Fragen in der Chirurgie Daten aus randomisierten kontrollierten Studien (RCT) verfügbar waren und sind.
Das lange für diesen defizitären Zustand bemühte technische Argument, es sei in der Chirurgie schwer, den methodischen Anforderungen von RCTs zu genügen, ist mittlerweile in vielfacher Hinsicht überholt und kein absoluter technischer oder ethischer Hinderungsgrund mehr, sich auch in diesem medizinischen Bereich um die "best possible evidence" (Sackett) zu bemühen.

Dass dies geht, welche Ergebnisse erwartet werden können und was unter Umständen auch hinter der zögerlichen Haltung von Chirurgen zur evidenzbasierten Medizin stecken könnte, demonstrierten Seiler et al. bereits in einem im "Deutschen Ärzteblatt"-Heft vom 6.2.2004 publizierten "Plädoyer für mehr evidenzbasierte Chirurgie" am Beispiel der mittlerweile in Deutschland und vielen anderen Länder flächendeckend eingeführten minimalinvasiven laparoskopischen Operationstechnik z. B. zur Entfernung der Gallenblase oder auch des Blinddarms. Diese so genannte "Schlüsselloch-Chirurgie" galt und gilt gegenüber den konventionellen offenen Verfahren als mehrfach überlegen und vorteilhafter. So mindert die Laparoskopie angeblich die Zeit und Intensität postoperativer Schmerzen, verkürzt damit die Rekonvaleszenz- und die Krankenhausverweildauer und hat auch noch ein besseres kosmetisches Ergebnis, ist also billiger und besser! Nur wurde dies lange Zeit nicht praktisch in soliden wissenschaftlichen Studien überprüft.

Was dabei herauskommt zeigten die ersten systematisch vergleichenden Studien von offenen und minimal-invasiven Operationen zur Entfernung der Gallenblase:

• Die Operationszeit war für die Laparoskopie signifikant länger und auch aufwändiger und
• die Krankenhausverweildauer wie die Rekonvaleszenzzeit unterschieden sich nicht.

Dieses Beispiel für die Einführung einer Neuerung, ohne dass deren zusätzlicher Nutzen nachgewiesen wird, ist nach der Darstellung von Seiler et al. auch kein Einzelfall. So sollten nicht "Ansichten eines Chirurgen" darüber entscheiden, wann ein bösartiges Magengeschwür sinnvoll und zum Vorteil für den Patienten entfernt werden muss oder ob ein bestimmtes Prostatakarzinom operativ entfernt wird oder kontrolliert abgewartet wird (die Gesamtüberlebenszeiten unterscheiden sich bei beiden Vorgehensweisen im übrigen nicht, sehr wohl aber die konkrete Lebensqualität), sondern kontrollierte Studien, die sich auch noch an den Präferenzen der Patienten orientieren müssen.

Angesichts der ängstigenden und systemsprengenden Kostenprognosen für den medizinischen Fortschritts ist der Forderung der Heidelberger Forscher unbedingt zuzustimmen, dass "neue Verfahren, wie beispielsweise die roboterassistierte Chirurgie, endoskopische Antirefluxverfahren oder interventionelle radiologische Techniken,...vor der breiten Anwendung in RCT getestet werden" sollten.

Bernard Braun, 5.1.2007


Öffnung verstopfter Gefäße nach Herzinfarkt durch kathetergestützte Interventionen (z.B. Stents): Über- oder Fehlversorgung

Artikel 0320 Viele Diskussionen in Deutschland konzentrieren sich aktuell darauf , ob die Erweiterung und das Offenhalten von verstopften Blutgefäßen am Herzen besser durch wesentlich teurere, mit Medikamenten beschichtete Stents (kleine Streben oder Stempel aus Metall) als den herkömmlichen Metall-Stents erfolgt.

In dem hier vorgestellten Aufsatz findet sich dazu eine hochinteresante Anmerkung: "Randomized trials comparing drug-eluting stents and bare-metal stents have shown no reduction in the components of our primary end point with the use of drug-eluting stents. On the contrary, there is growing concern regarding the increased risk of late thrombosis with the use of drug-eluting stents, as compared with bare-metal stents. Moreover, trials of thrombectomy and distal-protection devices to prevent downstream embolization during PCI for myocardial infarction with ST-segment elevation have yielded disappointing results."

Die jetzt vorveröffentlichten Ergebnisse einer randomisierten Interventionsstudie bei Herzinfarktpatienten im "New England Journal of Medicine" (NEJM) vom 7. Dezember 2006 relativieren aber vor allem den Nutzen der so genannten PCI-Intervention (percutaneous coronary intervention=perkutane (C-)Koronarintervention, medizinische Bezeichnung für unterschiedliche Methoden der herzkathetergestützten Behandlung eingeengter oder verschlossener Herzkranzgefäße durch Aufdehnung mittels Ballonkatheter, Einsetzen eines Stents) erheblich.

Die wichtigsten Eckpunkte und Ergebnisse der unter dem Titel "Coronary Intervention for Persistent Occlusion after Myocardial Infarction" vorgestellten Studie sind:

• 2.166 Personen, bei denen sich 3 bis 28 Tage nach einem Herzinfarkt Blutgefäße hartnäckig geschlossen hatten und deren Risiko einen erneuten Infarkt zu bekommen und auch daran zu sterben damit erhöht war, wurden in zwei Gruppen aufgeteilt. In der einen Gruppe erfolgte eine Behandlung mit PCI-Methoden (z.B. Einsetzen von Stents und Ballonerweiterung von Gefäßen) und einer optimalen medikamentösen Therapie, in der zweiten erhielten die Patienten ausschließlich die medikamentöse Therapie.
• Als primäre Endpunkte der Therapien wurden über 4 Jahre Reinfarkte, Tod und schwere Herzschwäche beobachtet.
• Am Ende dieses Zeitraums ähnelten sich die Häufigkeiten der Endpunkt-Ereignisse weitgehend, was die Forschergruppe zum Schluss führte: "PCI did not reduce the occurrence of death, reinfarction, or heart failure".

Gesundheitswissenschaftlich und -politisch folgt daraus: Noch mehr als bisher sollten dramatisierende positive wie negative Debatten über den Nutzen aber auch die Unfinanzierbarkeit relevanter medizinisch-technischer Innovationen vor der Durchführung solider Studien vermieden werden.

Hochman JS, Lamas GA, Buller CE,et al. Coronary Intervention for Persistent Occlusion after Myocardial Infarction. New England Journal of Medicine 2006;355:2395-407. 7.Dezember 2006
Abstract
PDF der Studie

Bernard Braun, 17.11.2006


Verdreifachung der GKV-Ausgaben bis 2050 durch medizinischen Fortschritt?

Artikel 0154 Von entscheidender Bedeutung für die Entwicklung der Ausgaben der Gesetzlichen Krankenversicherung ist nach Meinung des Fritz Beske Instituts für Gesundheits-System-Forschung Kiel der medizinische Fortschritt, d.h. neue Arnzeimittel, neue Behandlungsmethoden und moderne Medizintechnik. In einer Studie rechnen die Experten bei einer durch den medizinischen Fortschritt ausgelösten jährlichen Ausgabensteigerung von 1 Prozent mit einer Verdopplung, bei 2 Prozent mit einer Verdreifachung des heutigen Beitragssatzes von 14,2 Prozent bis 2050 und damit auf 43 Prozent.

In der Studie werden bereits für die heutige Situation vielfältige Beispiele aktueller Finanzierungs- und Versorgungsdefizite aufgeführt, so zum Beispiel:
• Früherkennungsuntersuchungen: Eine vollständige Inanspruchnahme der Früherkennungsuntersuchungen hätte bei der GKV zu Mehrausgaben von rund 1 Milliarde geführt
• Schutzimpfungen: Es müssten 2004 bei vollständiger Inanspruchnahme der empfohlenen Schutzimpfungen rund 1,2 Milliarden Euro ausgegeben worden sein. Tatsächlich sind nur rund 0,68 Milliarden Euro ausgegeben worden, ein Differenzbetrag von rund 0,54 Milliarden
• Diabetes: Rund 10% der Bevölkerung leiden an einem Diabetes mellitus. Nicht alle Patienten sind bekannt und versorgt. Für 2001 werden Behandlungskosten in Höhe von 14,6 Milliarden angegeben. Es wird bei Versorgung aller Patienten mit Diabetes eine erhebliche Steigerung der Ausgaben für den Diabetes vorausgesagt
• Organtransplantation: Wenn erreicht werden könnte, dass jeder Patient, der eine Organtransplantation benötigt, auch ein neues Organ erhält, würde dies zu erheblichen Ausgabensteigerungen führen.
Weitere im Gutachten beschriebene Defizite betreffen etwa den Investitionsstau im Krankenhaus, Vergütungsdefizite bei Krankenhausärzten und die vertragsärztliche Versorgung.

Im Gutachten des Fritz Beske Instituts für Gesundheits-System-Forschung wird für den Zeitraum 2005-2050 von unterschiedlichen Szenarien ausgegangen, die allerdings auch zwei schwierig prognostizierbare Faktoren beinhalten, den "medizinischen Fortschritt" (und dessen Implikationen für den Leistungskatalog der GKV) sowie eine weitere Erhöhung der Lebenserwartung.

Im Bundesgesundheitsministerium meinte man lapidar: "Das Bundessozialministerium weist das Horrorszenario zurück. Der Gesetzgeber hat mit dem Gesundheitsmodernisierungsgesetz bewiesen, dass er in der Lage ist, im Bereich der Gesundheitsversorgung Einsparungen zu realisieren und gleichzeitig für mehr Qualität und Wettbewerb zu sorgen. Das wird fortgesetzt. Darüber hinaus wird Prävention in Zukunft eine größere Rolle spielen, ebenso wie die gezielte Behandlung von Krankheiten. Auch dies wird zu Kosteneinsparungen führen. Im Übrigen ist nicht alles, was als Fortschritt verkauft wird, auch wirklich ein Fortschritt. Die Beske-Studie hat daher einen ausgesprochen geringen Bezug zur Realität."

Das komplette Gutachten "Finanzierungsdefizite in der Gesetzlichen Krankenversicherung - Prognose 2005 - 2050" ist beim IGSF Kiel für 10,00 Euro bestellbar.

Eine Zusammenfassung der wichtigsten Ergebnis (5 Seiten) gibt es kostenlos als PDF-Datei: Krankenkassenbeiträge werden weiter steigen

Gerd Marstedt, 17.10.2005