Die zwei Geschlechter und die Logik des Quantenquarks

Es war hier peinlich lange sehr, sehr ruhig, ich weiß. Das lag zum Teil an der Entstehung meines vierten Buchs „Faktenimmun“, zum Thema Wissenschaftsleugnung, das Ihr über den Link rechts auf der Seite bestellen könnt. Es hat aber auch sehr viel mit der höchst problematischen Entwicklung der Skeptikerorganisation GWUP zu tun, einer Entwicklung gegen die ich ein Jahr lang als Vorsitzender angekämpft habe. Das hat ungeheuer viel Zeit und Kraft gekostet, aber es war den Versuch wert, eine wichtige, verdiente Organisation seriös zu halten – auch wenn es letztlich nur ein Jahr Aufschub gebracht hat. So findet sich inzwischen jemand im Vorstand der GWUP, der mir unter anderem vorgeworfen hat, ich hätte „Schwierigkeiten damit, gut belegte Thesen und Erkenntnisse einer bedeutenden Wissenschaftsdisziplin anzuerkennen“. Warum das? Weil ich darauf hingewiesen habe, dass „Geschlecht“ eben auch biologisch ein komplexes Thema ist, das nicht auf ein primitives „nur zwei“ reduziert werden kann – außer eben, man will sich in den Dienst höchst fragwürdiger und letztlich menschenfeindlicher Propaganda stellen und die wirklichen wissenschaftlichen Fragen unter den Tisch fallen lassen. Auch bei der Mitgliederversammlung gipfelte die Diskussion über den künftigen Vorsitz in der Frage eines Wissenschaftsratsmitglieds an die beiden Kandidaten: „Wie viele Geschlechter gibt es?“

Die Fragestellung kann einem bekannt vorkommen:

Zu den Aushängeschildern des Vereins gehört inzwischen jemand, der nebenbei im gut ausgestatteten Videostudio der ehemaligen RT-Deutsch-Moderatorin Jasmin Kosubek als „Ex-Woker“ freundlich lächelnd darüber fabuliert, wie gefährlich doch „Wokeness“, also die Rücksichtnahme auf Minderheiten, sei.

Wer die Tragödie der GWUP im Detail nachlesen möchte, kann das bei Florian Aigner tun, der alles mit viel mehr Geduld und Sachlichkeit zusammengefasst hat, als ich es könnte.

Eine schriftliche Übersicht dazu, wie komplex das Thema des Geschlechts in der Biologie ist, findet sich zum Beispiel in einem wunderbaren Leitartikel im Laborjournal, geschrieben von Prof. Dr. Diethard Tautz, dem kürzlich emeritierten Direktor der Abteilung „Evolutionsgenetik“ am Max-Planck-Institut für Evolutionsbiologie in Plön. Er war auch einer unserer Gäste in der Folge „XX oder XY – ist es so einfach?“ des WTF-Talks, in dem Annika Harrison, Bernd Harder und ich viele Fragen zu dem Thema stellen und spannenden Diskussionen der Experten lauschen konnten. Weitere Gäste waren der Bioethiker Prof. Dr. Christoph Rehmann-Sutter, Sprecher des Sonderforschungsbereichs sexdiversity der Universität Lübeck, die Wissenschaftshistorikerin Prof. Dr. Lisa Malich, ebenfalls in diesem Sonderforschungsbereich aktiv, sowie der Biologe Fabian Deister von der Zoologischen Staatssammlung München, der als „Fabiologe“ auf Youtube Wissenschaft erklärt. Seht Euch die Folge an – für mich gehört sie zu den besten, die wir im WTF-Talk bis jetzt hatten.

Ich will die Inhalte hier gar nicht wiederholen. Was mir aber im Kontext dieser Diskussionen aufgefallen ist, ist die frappierende Ähnlichkeit der Argumentation der „Es gibt nur zwei Geschlechter“-Ideologen mit der der Quantenschwurbler, die ich schon im Buch Relativer Quantenquark und seitdem in diversen Vorträgen dargelegt habe. Es handelt sich gewissermaßen um eine schrittweise Eskalation des Unsinns von der Wahrheit bis zu dem Bullshit (ja, das ist der korrekte Begriff aus der Philosophie), dem man Glaubwürdigkeit zuschreiben möchte.

1. Man beginnt mit einer (bei korrekter Formulierung) wahren Aussage.

Im Fall des Quantenquarks verwendet man dabei gerne eine Aussage aus der modernen Physik, die für Laien besonders erstaunlich wirkt. Man kann sich zum Beispiel aus der Relativitätstheorie bedienen mit: „E = mc². Energie und Masse sind äquivalent.“ Aus der Quantenmechanik eignet sich etwas wie: „Bei Messungen tritt ein Phänomen auf, das Beobachtereffekt genannt wird.“ Dass dieser Beobachtereffekt nichts, aber auch wirklich gar nichts mit einem menschlichen Beobachter zu tun hat, erwähnt man vorsichtshalber nicht. Alternativ kann man auch auf das Phänomen der Quantenverschränkung zwischen zwei gemeinsam entstandenen kleinsten Teilchen verweisen, das nur so lange existiert, wie diese Teilchen vollständig von der Außenwelt isoliert sind.

Bei der Argumentation der „nur zwei Geschlechter“-Ideologie lautet die entsprechende wahre Aussage: „Bei der zweigeschlechtlichen Fortpflanzung gibt es genau zwei Geschlechter von Fortpflanzungszellen.“ Ja, diese Aussage ist genau so banal und beinahe tautologisch, wie sie klingt. Es geht dabei nicht um Menschen. Es geht überhaupt nicht um ganze Organismen. Es geht ausschließlich um Fortpflanzungszellen. Diejenigen Fortpflanzungszellen, deren Mitochondrien auf die nächste Generation übergehen, bezeichnet man als weiblich.

Wenn man statt einzelner Zellen ganze Organismen betrachtet, die sich zweigeschlechtlich fortpflanzen können, dann findet man zum Beispiel Tiere oder Pflanzen, die gleichzeitig beide Geschlechter von Fortpflanzungszellen produzieren können. Andere produzieren im Laufe ihres Lebens erst das eine und dann das andere Geschlecht. Es gibt auch jede Menge Organismen solcher Arten, die gar keine Fortpflanzungszellen produzieren – am bekanntesten sicherlich die „Arbeiterinnen“ bei der Honigbiene. Dazu kommt, dass Zweigeschlechtlichkeit nicht die einzige Möglichkeit ist, sich fortzupflanzen. Die nichtgeschlechtliche Vermehrung unabhängig von spezifischen Fortpflanzungszellen ist in der Natur weit verbreitet (vor allem bei Einzellern, aber zum Beispiel auch bei Pflanzen durch Ableger). Bei diversen Reptilien, Knorpelfischen, Spinnentieren und Insekten gibt es auch eine eingeschlechtliche Vermehrung (Parthenogenese) über unbefruchtete Fortpflanzungszellen.

Biologisches Geschlecht ist also schon auf zellulärer Ebene bemerkenswert vielfältig, und wenn man dann ausgewachsene, vielzellige Organismen betrachtet, ist eine Zuordnung zu einem von genau zwei Geschlechtern letztlich immer eine Übervereinfachung mit zwangsläufigen Ungenauigkeiten. Auch ein Mensch hat niemals ausschließlich männliche oder ausschließlich weibliche „Geschlechtsmerkmale“ – und das ist natürlich ein Bestandteil (und auch ein Forschungsfeld) der Biologie.

2. Man formuliert bewusst ungenau, so dass man nicht lügt, aber bei Laien ein falscher Eindruck entsteht.

Dieser Zwischenschritt ist entscheidend für das Funktionieren der ganzen Scheinargumentation. Man verschiebt die Torpfosten und erweitert den wahrgenommenen Inhalt der Aussage, bleibt dabei aber noch so vage, dass man sich bei fundierter Kritik problemlos auf sicheres Terrain zurückziehen kann. Im Fall der Relativitätstheorie wird so aus der Äquivalenz von Masse und Energie die Behauptung, Materie sei ja „nur“ Energie, wobei unklar bleibt, ob damit überhaupt Energie im physikalischen Sinne gemeint ist. Aus dem irreführend benannten Beobachtereffekt der Quantenmechanik wird die Behauptung, der Beobachter beeinflusse das Ergebnis einer physikalischen Messung (in Wahrheit sorgt ein Beobachter, wenn überhaupt, höchstens dafür, dass eine Messung im quantenmechanischen Sinne überhaupt stattfindet). Zur Quantenverschränkung folgt an dieser Stelle in der Regel der Hinweis, dass dieser von Albert Einstein als „spukhafte Fernwirkung“ bezeichnete Effekt nach neuen Forschungsergebnissen auch in Größenordnungen des Alltags relevant sei. Alle diese Behauptungen haben gemeinsam, dass sie eindeutig falsch sind, man Kritik daran aber wegen der Ähnlichkeit zu wissenschaftlich korrekten Aussagen als bloße Wortklauberei abtun kann.

Die analoge Behauptung aus der Geschlechterdebatte ist, in der Biologie gäbe es genau zwei Geschlechter. Das ist noch spezifisch genug, um es oberflächlich von Fragen des sozialen Geschlechts abzugrenzen, dem man damit noch eine, wenngleich gegenüber der Biologie als „echter Wissenschaft“ minderwertige, Existenzberechtigung zuspricht. Dem könnte die kritische Frage begegnen, ob denn Forschung zur Vermehrung der in jedem Supermarkt zu findenden Cavendish-Banane (die sich, weil kernlos, nicht zweigeschlechtlich fortpflanzen kann) oder zur Vermehrung von Schnecken als Zwitter keine Biologie sei. Dann kann man sich immer darauf zurückziehen, man habe ja nur vom „biologischen Geschlecht“ gesprochen, das eben als das Geschlecht von Fortpflanzungszellen definiert sei. „Definiert“ ist dabei ein wichtiges Wort. Dass mit dem Geschlecht in einigen Feldern der Biologie ausschließlich das Geschlecht von Fortpflanzungszellen gemeint ist, ist nicht eine wissenschaftliche Erkenntnis (also ein Ergebnis von Wissenschaft), sondern schlicht eine Definition. Diese Definition ist deshalb praktisch, weil sie eben, ganz anders als eine Geschlechtsbestimmung nach Chromosomen oder sogenannten Geschlechtsmerkmalen, gerade zu den gewünschten genau zwei Geschlechtern führt.

Für einige Forschungsfragen ist das sicherlich eine hinreichende Definition – wenn man ein Geschlecht ganzer, mehrzelliger Organismen angeben will, ist es das aber nicht. Man kann sich darauf herausreden, der Organismus hätte dann eben das Geschlecht der Fortpflanzungszellen, die er produziert, und das sei ja bei Menschen, anders als zum Beispiel bei Schnecken, immer nur eines. Die Existenz von Menschen, die sich so eben nicht eindeutig einem Geschlecht zuordnen lassen, wischt man als seltene Ausnahmefälle vom Tisch. Dabei vergisst man dann gerne, dass nach dieser Zuordnung eben nicht nur ein Teil der intersexuellen und transsexuellen Menschen, sondern zum Beispiel auch viele Überlebende von Hodenkrebs und praktisch alle Frauen jenseits der Wechseljahre überhaupt kein Geschlecht hätten.

3. Man folgert daraus ungehemmt völlig unhaltbare Behauptungen.

Haben die Leser oder Zuhörer den zweiten Schritt kritiklos als wissenschaftliche Erkenntnis hingenommen, dann sind im Folgenden Tür und Tor offen für die hanebüchensten Behauptungen, ohne dass man noch viele kritische Nachfragen befürchten muss – zumindest solange man die jeweiligen Voreingenommenheiten des Publikums bedient.

So heißt es, die Energie, die angeblich nach der Relativitätstheorie dasselbe wie Materie sein soll, sei die Energie menschlicher Gedanken, die dementsprechend in der Lage seien, die Realität nach ihren Wünschen zu formen. Der Beobachtereffekt soll nicht nur die Messung beeinflussen, sondern ihr Ergebnis festlegen, und gleichzeitig werden allerlei Vorgänge zu quantenmechanischen Messungen erklärt, so dass man sich seine Zukunft mehr oder weniger beliebig „manifestieren“ kann. Aus der vermeintlichen spukhaften Fernwirkung wird „alles hängt mit allem zusammen“, so dass das esoterische Wunschkonzert nicht nur für einen selbst, sondern gleich für die ganze Welt gilt, man sich von Deutschland aus also bequemerweise auch gleich Frieden im Nahen Osten manifestieren kann – in der betreffenden Szene sicher gerne einen „Frieden“, in dem Israel nicht mehr vorkommt.

Bei den selbsternannten Rettern der Biologie fällt an dieser Stelle einfach unter den Tisch, dass es ja eigentlich nur um die Biologie ging, und aus der Ursprungsthese wird einfach: „Es gibt nur zwei Geschlechter!“ Dabei handelt es sich dann auch weder um eine Definition noch um eine vermeintliche wissenschaftliche Erkenntnis, sondern um die Forderung nach einer gesellschaftlichen Norm. Viele Leute, die vorgeben, für die Integrität der Biologie einzutreten, nutzen diesen Satz, um Menschen auszugrenzen und abzuwerten, die von ihrem Verhalten, ihren Bedürfnissen oder ihren körperlichen Voraussetzungen nicht dieser gewünschten Norm entsprechen. Die Wächter dieser Norm präsentieren Kiwi-Emojis (weil es zwei Geschlechter von Kiwipflanzen gibt) sowie diverse andere transfeindliche Codes in ihren Social-Media-Profilen und bezeichnen nach Belieben öffentlich Frauen, die nicht ihren Vorstellungen entsprechen, als Männer. Während der olympischen Spiele inszenierten sie eine beispiellose Hetzkampagne gegen die (als Frau geborene) Boxerin Imane Khelif – und die „neue“ GWUP beteiligte sich zu meinem Entsetzen, aber nicht zu meiner Überraschung an dem schmutzigen Spiel.

(9.9.2024: Ich füge an der Stelle mal den folgenden Absatz aus einer Facebook-Diskussion ein, weil er vielleicht nochmal etwas klarer macht, worum es mir eigentlich geht.)

Warum will jemand wissen, ob Geschlecht in der Biologie binär ist? Darf jemand nicht zur Vermehrung von Schnecken forschen, weil die nicht binär sind? Darf jemand in der Genetik nicht mit väterlicher und mütterlicher Linie modellieren, weil Geschlecht auf der Ebene von Einzelorganismen viel komplexer ist? Natürlich nicht. Es wird auch niemand seine Doktorarbeit schlechter bewertet bekommen, weil er sich darin Geschlecht so definiert, wie es auf seine Forschungsfrage passt. Für die seriöse Biologie ist das eine Diskussion über Kaisers Bart. Problematisch wird es erst, wenn Leute meinen, Jura oder Gesellschaftspolitik aus etwas herleiten zu müssen, was auch in der Biologie kein Forschungsergebnis, sondern einfach nur eine Definition ist.

Wieviel das Ganze mit Wissenschaftlichkeit zu tun hat, sieht man an den Xitterkanälen des Aushängeschilds der deutschen anti-Trans-Bewegung, der (seit inzwischen sechs Jahren) Biologiedoktorandin Marie-Luise Vollbrecht. Bekannt wurde sie 2022, als sich diverse rechte Gruppen empörten, weil die Humboldt-Uni einen Vortrag abgesagt hatte, in dem Vollbrecht angeblich nur erklären wolle, dass es in der Biologie genau zwei Geschlechter gibt. Auf dem Xitteraccount, auf dem sie zu ihrer Forschung und allgemein zur Arbeit junger Wissenschaftler schreibt, erschienen im gesamten August 2024 genau drei Posts. Auf ihrem parallel betriebenen transfeindlichen Hetzaccount waren es im selben Zeitraum mehr als 200.

Warum ich niemals von „Atomenergie“ spreche und Kernphysik wenig mit Kerntechnik zu tun hat

In letzter Zeit wurde der ehemalige Leiter der Henri-Nannen-Schule, die Journalistenikone Wolf Schneider, ja vor allem noch als (mit 97 Jahren tatsächlich) alter weißer Mann zur Kenntnis genommen, der sich dementsprechend zum Gendern äußert. Als ich in den 1990er Jahre in der Journalistischen Nachwuchsförderung der Adenauerstiftung war, gehörte Schneiders „Deutsch für Profis“ für Journalisten und solche, die es werden wollten, aber zur Pflichtlektüre. Ja, ich habe journalistisches Schreiben mal gelernt, auch wenn man es hier im Blog vielleicht nicht überall merkt. Die Freiheit nehme ich mir, lebt damit, ich mache das schließlich unbezahlt in meiner Freizeit. Aber, ja, ich kann sogar Schachtelsätze vermeiden, wenn es sein muss, und gelernt habe ich das nicht zuletzt aus Schneiders Buch.

Was allerdings schon damals meinen Kragen deutlich überdehnt hat, war das Kapitel „Das treffende Wort“. Einiges davon hat sich heutzutage glücklicherweise weitgehend erledigt. So schrieb er über den kindischen Begriff „Geisterfahrer“, er sei ein treffendes Wort, denn „Jeder versteht es,“ was in der Realität allenfalls für die „Jeders“ zutrifft, die mit der deutschen Sprache aufgewachsen sind. In Radiowarnungen hat sich inzwischen glücklicherweise die unmissverständliche Formulierung „kommt Ihnen ein Falschfahrer entgegen“ durchgesetzt.

Nun ist mir, wenn es nicht gerade um lebenswichtige Warnungen geht, die Wortwahl von anderen Menschen in den allermeisten Fällen ziemlich egal. Wer Verschwörungsmythen, Verschwörungsideologien und andere Verschwörungserzählungen oder gar das ganze Phänomen des Verschwörungsglaubens heute immer noch als Verschwörungstheorien bezeichnen will, weil er meint, mit dem Begriff klarzukommen, kann das von mir aus tun. Ich ziehe es vor, genauer auszudrücken, worum es mir geht, seit ich erfolglos versucht habe, für das Buch mit dem späteren Titel „Verschwörungsmythen“ sinnvoll abzugrenzen, was eine Verschwörungstheorie eigentlich sein soll. Wer seine Texte durchgendern mag, kann das von mir aus gerne tun; wenn jemand das lieber lässt, stört es mich auch nicht. Ich war dem Verlag dankbar, dass das bei meinen Teilen von „Fakt und Vorurteil“ das Lektorat für mich übernommen hat.

Problematisch wird es aber, wenn, unter Umständen sogar bewusst, ein falsches Verständnis der Sache vermittelt wird – und das gilt natürlich im besonderen Maß für den Journalismus.

In dieser Hinsicht haben sich einige von Schneider propagierte Problembegriffe leider als langlebiger und schädlicher erwiesen: „Atomwaffen, Atombomben, Atomraketen und Atomkraftwerke: Das ist die deutsche Sprache, und nichts sonst.“ Das Problem dabei ist nicht, dass Schneider von dem Sachverhalt, um den es bei diesen Begriffen geht, offensichtlich keine Ahnung hat und, wie sich das Buch liest, auch keine haben will. Das Problem ist, dass er und viele Andere in Deutschland aus ideologischen Gründen an schlicht und einfach falschen Worten festhalten, weil diese sich über die Jahrzehnte als politische Kampfbegriffe etabliert haben: „Wer sollte etwas gegen Kerne haben! Ein Grund mehr, von ‚Atomkraftwerken‘ zu sprechen und nur von ihnen.“ Wer Journalist werden will, sollte laut Schneider also etwas gegen Kernkraftwerke haben – ein höchst bedenkliches Selbstverständnis für den Leiter einer Journalistenschule.

Was ist nun aber am „Atomkraftwerk“ eigentlich falsch? Atomare Prozesse, die von der Atomphysik erforscht werden und bei denen man meinen sollte, dass dort „Atomenergie“ frei wird, die in einem „Atomkraftwerk“ genutzt wird, laufen innerhalb eines Atoms zwischen dessen Bestandteilen ab – also zwischen dem Atomkern und den ihn umgebenden Elektronen. Bei diesen Prozessen wirken praktisch ausschließlich elektromagnetische Kräfte. Im Prinzip gehört auch die Erzeugung von relativ energiereicher Röntgenstrahlung durch das Herausschießen sehr stark an den Kern gebundener Elektronen zu den atomaren Prozessen, aber das passiert in der Natur nur sehr selten. Die allermeisten atomaren Prozesse in der Natur setzen Energien in der Größenordnung weniger Elektronenvolt frei. Ein Elektronenvolt ist die Energie, die ein einzelnes Elektron hat, wenn man es mit einer Spannung von einem Volt beschleunigt – das ist also sehr, sehr wenig. Die Strahlung, die bei solchen Prozessen entsteht, umfasst im Wesentlichen sichtbares Licht und Infrarot.

Was in einem Kernreaktor oder bei der Explosion einer Kernwaffe passiert, ist die Spaltung von Atomkernen in Form einer Kettenreaktion – auf die Unterschiede der beiden Fälle und warum es viel, viel einfacher ist, einen Reaktor als eine Kernwaffe zu bauen, will ich an dieser Stelle nicht eingehen. Das Prinzip ist aber jeweils, dass die bei der Spaltung eines Kerns freigesetzten Neutronen in der Folge den nächsten Kern spalten. Auch nach der Spaltung kommt es zu radioaktiven Zerfällen, also zur Umwandlung instabiler Kerne in stabilere unter Aussenden von Strahlung.  Diese Prozesse laufen also innerhalb von Atomkernen zwischen deren Bestandteilen, den Protonen und Neutronen ab. Dabei treten auch sehr starke elektromagnetische Kräfte auf, aber entscheidend für diese Prozesse sind vor allem die starke und die schwache Kernkraft, die ansonsten überhaupt keine Rolle spielen. Bei radioaktiven Zerfällen werden typischerweise Energien in der Größenordnung von einer Million Elektronenvolt frei, bei einer Kernspaltung sind es 200 Millionen Elektronenvolt. Entsprechend mehr Energie hat auch die entstehende Strahlung, deren elektromagnetischer Anteil als Gammastrahlung bezeichnet wird. Zudem können hoch beschleunigte Teilchen (Alpha- und Betastrahlung) freigesetzt werden. Über diese Arten von Strahlung habe ich hier schon des Öfteren geschrieben. Bei nuklearen Wechselwirkungen handelt es sich also um völlig andere Prozesse als bei atomaren, und die freigesetzten Energien sind in gar nicht vergleichbaren Größenordnungen. Natürlich wird sich nach einer solchen Kernumwandlung, wenn sich die Ladung des Kerns geändert hat, auch die Elektronenhülle entsprechend anpassen und neu ordnen. Dem nuklearen Prozess folgt dann also ein atomarer, der aber für die Gesamtbilanz in der Regel vollkommen unbedeutend ist.

Was Radioaktivität eigentlich ist und wo sie außerhalb der Kernenergie noch eine Rolle spielt, habe ich kürzlich in einem Vortrag gemeinsam mit der Geowissenschaftlerin Catharina Heckel erklärt.

Mit nuklearen Prozessen beschäftigt sich die Kernphysik, die dadurch vor allem Berührungspunkte zur Teilchenphysik hat, weil die Protonen und Neutronen, die im Kern interagieren, eben subatomare Teilchen sind – auch wenn sie aus heutiger Sicht nicht mehr wirklich als elementar gelten. Die Atomphysik, die sich mit atomaren Vorgängen, also vor allem der Elektronenhülle des Atoms, beschäftigt und den Kern nur als ein weitgehend unveränderliches Objekt betrachtet, ist dagegen eng verwandt mit der Molekülphysik, bei der es um Elektronenhüllen mit mehreren Kernen darin geht. Außerdem hängt sie stark zusammen mit der Festkörperphysik, die sich mit Strukturen beschäftigt, in denen sich die Elektronenhülle vieler Atome überlagert. Daneben hat die Atomphysik aber vor allem große Überschneidungen mit der Chemie. So wie man bei meinem früheren Forschungsgebiet nur schwer abgrenzen kann, ob es sich um Kernphysik oder Teilchenphysik handelt, ist es bei der Atom- und Molekülphysik manchmal schwer abgrenzbar, wo die Grenze zur physikalischen Chemie verläuft.

Streng genommen wäre ein Beispiel für korrekt so bezeichnete Atomenergie die Energie, die frei wird, wenn in einem Kohlekraftwerk die im Kristallgitter der Kohle lose aneinander gebundenen Kohlenstoffatome mit Sauerstoff zu Kohlendioxid reagieren. Eigentlich ist also das Kohlekraftwerk ein Atomkraftwerk. Ein Kernkraftwerk als Atomkraftwerk zu bezeichnen, ist hingegen schlicht und einfach falsch. Es ist auch nicht einfach nur harmlos falsch: Die falschen Begriffe gehen einher mit weitgehendem Unwissen über die Vorgänge und einem daraus resultierenden diffusen Grusel und irrationaler Panik, die von Journalisten wie Schneider lange Zeit systematisch befeuert wurde. Natürlich ist es sinnvoll, sich bei einer Technik, die mit Gefahren verbunden ist (das ist so ziemlich alles in unserem Leben) der Risiken bewusst zu sein – sich Risiken bewusst zu sein, ist aber so ziemlich das Gegenteil von irrationaler Panik. Und natürlich kann man diesen Risiken auch unterschiedliche Wertigkeiten zuschreiben – aber zumindest sollte man das nicht auf der Basis systematisch verzerrter Vorstellungen tun.

Wenn Begriffe wie Atomenergie oder Atomkraftwerk also falsch sind, warum werden sie dann eigentlich benutzt? Das hat ganz wesentlich historische Gründe, und es hängt stark mit der „Atombombe“ zusammen. Die ist in gewisser Weise gleich in doppelter Hinsicht falsch bezeichnet, weil es sich beim größten Teil der einsetzbaren Kernwaffen nicht um Bomben handelt. Strategische Kernwaffen sind heute vor allem ballistische Flugkörper, die mit Raketen nach oben geschossen werden, die dichteren Atmosphärenschichten verlassen und durch die Erdanziehung auf ihr Ziel fallen; oder es sind Marschflugkörper, die eine Flugbahn ähnlich eines Flugzeugs haben und am Ziel einschlagen. Von den rund 1500 strategischen Sprengköpfen der USA sind nur noch 100 tatsächlich Bomben. Bei taktischen Kernwaffen kommen noch Artilleriegranaten, Wasserbomben, Torpedos und nukleare Landminen hinzu.

Als 1945 der Angriff auf Hiroshima die Möglichkeiten der Kernspaltung erstmals ins Bewusstsein breiterer Bevölkerungskreise brachte, gab es an Kernwaffen aber nur Bomben. Die Kernreaktoren, die es zu diesem Zeitpunkt gab, konnten noch keinen Strom erzeugen, sondern dienten vor allem der Forschung und der Produktion von waffentauglichem Plutonium. Einen etablierten Forschungszweig namens Kernphysik gab es 1945 auch noch nicht, weil man vor der Entdeckung der Kernspaltung 1938 noch kaum Möglichkeiten gehabt hatte, viel zur inneren Struktur von Kernen zu forschen. Die entsprechenden Wissenschaftler wie Lise Meitner, Enrico Fermi oder Edward Teller wurden daher einfach der Atomphysik zugerechnet, die viele ähnliche experimentelle und theoretische Methoden benutzte und selbst noch eine junge Disziplin war. Schließlich war gerade mal seit einer Generation halbwegs unumstritten, dass es Atome überhaupt gab.

Als das Phänomen Kernspaltung erstmals für ein Laienpublikum benannt werden musste, war der Unterschied zwischen atomaren und nuklearen Prozessen also für die allermeisten Menschen völlig unverständlich und dem Rest noch ziemlich egal. Als Relikt aus dieser Zeit gibt es bei der UN bis heute die International Atomic Energy Agency (IAEA). Dass sich im Englischen, Französischen und Spanischen später der zutreffende Begriff nuclear (oder heißt es vielleicht doch nucular…) durchgesetzt hat, im Deutschen und Russischen aber Atom-, kann man für Zufall halten. Dass aber gerade in Deutschland die „Anti-Atom-Bewegung“ immer versucht hat, die Kernenergienutzung mit der „Atombombe“ und den Schrecken von Hiroshima in Verbindung zu bringen (warum das Eine in Wirklichkeit wenig mit dem Anderen zu tun hat, wäre hier auch mal einen Artikel wert), hat zweifellos die Wortbildung beeinflusst, wie sich in dem 1986 erschienenen Buch von Wolf Schneider widerspiegelt.

„Das Atom“ war seit den 1960er Jahren ein Kampfbegriff.

Eigentlich wollte ich an dieser Stelle fertig sein, aber wie es mir hier so oft ergeht, drängt sich gerade ein weiteres Missverständnis auf, mit dem ich noch schnell aufräumen möchte. Wer sich nur für den ersten Teil der Überschrift interessiert hat, darf hier also gerne aussteigen.

Wenn nämlich nun die Kernenergie auf kernphysikalischen Prozessen beruht, heißt das dann, dass man als Kernphysiker nur (oder wenigstens überwiegend) in der Nuklearindustrie tätig sein kann und dementsprechend schon aus Karriereinteresse der Kernenergie positiv gegenüberstehen muss? Oder, wenn man umgekehrt als junger Mensch einen Beitrag zu einer besonders sicheren, rückstandsarmen Kernenergie der Zukunft leisten will, sollte man dann unbedingt Physik studieren und sich in Kernphysik spezialisieren? Letzteres muss nicht unbedingt unter diesem Namen stattfinden, weil in Deutschland Institute oder Studiengänge für Kernphysik (oder eben auch für Atomphysik) zum Teil anders benannt wurden, um nicht mit der Kernenergie in Verbindung gebracht zu werden. So heißt das bedeutendste Forschungszentrum für Kernphysik in Deutschland „Helmholtzzentrum für Schwerionenforschung“ – und ist auch sonst kaum jemandem außerhalb der Physik bekannt. Die Forschung dort, die vor allem die Bestandteile und Kräfte innerhalb von Atomkernen bei unterschiedlichen mehr oder weniger extremen Energien untersucht, hat auch wenig bis nichts mit Kernenergienutzung zu tun. Dasselbe gilt für das Max-Planck-Institut für Kernphysik in Heidelberg sowie für die allermeisten Institute für Kernpyhsik an Universitäten – ob sie nun noch so heißen oder nicht.

Das ist nicht nur jetzt und in Deutschland so, wo das Interesse an Kernenergie mangels politischer Durchsetzbarkeit ohnehin nachgelassen hat. Ich konnte in den 1990er Jahren in Frankfurt noch eine Vorlesung zur „Physik und Technologie der nichtkonventionellen Energiegewinnung“ hören, die der Dozent, im Hauptberuf bei den Siemens Nuklearbetrieben in Hanau beschäftigt, durch sein offensichtliches Sendungsbewusstsein für die Kernenergie innerhalb weniger Wochen von 15 auf zwei Teilnehmer dezimiert hatte. Von den Inhalten hatten allenfalls die absoluten Grundlagen ganz am Anfang etwas mit Kernphysik zu tun. Die eigentlich kernphysikalischen Fragen für die Kernenergie, nämlich was mit welcher Wahrscheinlichkeit passiert, wenn ein Teilchen, vor allem ein Neutron, mit welcher Energie auf welchen Kern trifft (falls Ihr mal den Begriff Wirkungsquerschnitt lest, genau das ist das), wurden zu einem großen Teil schon während des zweiten Weltkriegs im Manhattan Project beantwortet. Natürlich gab es dazu auch noch später Forschung und vieles wurde noch einmal viel genauer, anderes auch wirklich zum ersten Mal gemessen, aber das sind nicht mehr die Fragen, die für die Weiterentwicklung der Kernenergie (und für den Umgang mit den Reststoffen) heute interessant sind und sich zum Beispiel in Studiengängen zur Kerntechnik wiederfinden. Dazu sind Fragen der Materialforschung, des ganz klassischen Anlagenbaus, der Schwermetallchemie, der Verfahrenstechnik oder, wenn man über den Bereich der Kernspaltung hinaus zur Kernfusion blickt, der Plasmaphysik, viel, viel interessanter. Zum Strahlenschutz müssten Onkologen, Zellbiologen oder Epidemiologen viel mehr sagen können als Kernphysiker – wenn wir uns mit dem Thema beschäftigen, dann eher zum Eigenschutz, weil man sich im Labor bei der Forschung an ganz anderen Themen eben auch vor Strahlung schützen muss. Die kernphysikalische Frage, hinter wie vielen Millimetern Blei, Wasser oder Beton man nun wie gut vor der Strahlung geschützt ist, ist aber schon sehr lange bekannt und eher ein Thema für ein Laborpraktikum im sechsten oder siebten Studiensemester.

Dass ich mich auch für Kernenergie interessiere und gelegentlich darüber schreibe, hat also wenig damit zu tun, dass ich meine Diplomarbeit am Frankfurter Institut für Kernphysik geschrieben habe. Was ich hier so beschreibe, sollte jeder andere Physiker auch wissen. Es machen sich nur relativ wenige die Mühe, es allgemeinverständlich zu erklären, und das finde ich schade.

 

 

 

Mein Problem mit (bestimmten Vertretern) der „evidenzbasierten Medizin“ – zum Beispiel der heutigen STIKO

Regelmäßige Leser meines Blogs wissen ja, dass ich eine Tendenz zu einer gewissen, äh, Ausführlichkeit habe… Wer also direkt zu meiner Meinung zum aktuellen Problem der Covid-Impfung für Kinder und Jugendliche kommen möchte, kann einfach zur entsprechenden (nämlich der letzten) Zwischenüberschrift vorspringen. Wer wissen möchte, warum ich die aktuelle, fragwürdige Haltung der Ständigen Impfkommission (STIKO) dazu nicht für einen Zufall, sondern für den Ausdruck eines grundsätzlich problematischen Wissenschaftsverständnisses halte, sollte sich Zeit für den ganzen Text nehmen.

Von einem engagierten Skeptiker und gelegentlichen Unterstützer des Informationsnetzwerks Homöopathie sollte man eigentlich eine Eloge auf die „evidenzbasierte Medizin“ erwarten. Und natürlich lege ich tatsächlich großen Wert darauf, dass die Methoden der Medizin auf soliden wissenschaftlichen Ergebnissen beruhen. Ärzte oder Apotheker, die mir unter Berufung auf ihre subjektive Erfahrung Homöopathie, Anthroposophische „Medizin“, Akupunktur oder ähnliche überteuerte Placebos als wirksame Medizin verkaufen wollen, dürfen sich gerne andere Kunden suchen.

Mein Problem mit der „evidenzbasierten Medizin“ hat auch nicht wirklich etwas mit den Anführungszeichen zu tun, die dem einen oder anderen aufgefallen sein dürften. Die benutze ich einfach nur deshalb, weil es sich bei dem Begriff ganz vorsichtig ausgedrückt um eine ziemlich unglückliche Übersetzung des englischen evidence-based medicine (EBM – ich kann es mir immer noch nicht verkneifen, bei dem Kürzel erst mal an electronic body music zu denken) handelt, basierend auf dem, was man in der Sprachwissenschaft einen falschen Freund nennt. Auch wenn es dasselbe Wort zu sein scheint, Evidenz (also die Offensichtlichkeit eines Sachverhalts) bedeutet etwas anderes als evidence (Beweise). Wenn evidence in der medizinischen Wissenschaft evident wäre, könnte man sich einen großen Teil der Literatur zur EBM sparen.

Ich möchte der EBM auch nicht die Serie von haarsträubenden Stellungnahmen zur Pandemiepolitik ankreiden, die das „Netzwerk evidenzbasierte Medizin“ auf Betreiben seines inzwischen endlich zurückgetretenen damaligen Vorsitzenden Andreas Sönnichsen abgegeben hat. Darin hat sich kein grundsätzliches Problem der EBM gezeigt, sondern schlichtweg die Tatsache, dass auch wissenschaftliche Vereinigungen nicht davor gefeit sind, sich faktenresistente Querulanten in den Vorstand zu holen – und dann mitunter überraschend lange brauchen, um sie wieder loszuwerden. Letzteres dürfte in vielen Fällen damit zu tun haben, dass man dann wieder einen neuen Dummen (m/w/d) finden muss, der bereit ist, den in der Regel unbezahlten Vorstandsposten zu übernehmen.

Um auch das noch vorwegzuschicken: Ich weiß natürlich, dass ich mich als Nichtmediziner mit diesem Artikel auf relativ dünnes Eis begebe. Es ist immer problematisch, als fachfremde Person einen zumindest scheinbaren Konsens der Experten eines Themas hinsichtlich Methoden oder Inhalten ihres Fachgebiets zu kritisieren. Nachher kommt noch jemand auf die Idee, mich mit Clemens Arvay zu vergleichen, was ich wirklich gruselig fände. Ganz so gewagt, wie sie auf den ersten Blick scheint, ist meine Kritik allerdings nicht: Vom Grundsätzlichen her geht es nämlich nicht um originär medizinische Themen, sondern um allgemeine Fragen der Wissenschaftlichkeit und des Umgangs mit Wissenslücken, und in den konkreten Einzelfragen gibt es eine ganze Reihe von Medizinern, medizinischen Fachwissenschaftlern und sogar engagierte Verfechter der EBM, die dieselben Kritikpunkte vorbringen.

Was mich stört, ist, dass es unter Vertretern der EBM eine Tendenz gibt, Patientenstudien zum Maß aller Dinge zu machen und andere Informationen schlicht zu ignorieren. Beispiele dafür kommen gleich – einen Moment Geduld bitte noch. Rein menschlich ist das völlig verständlich. Gerade bei vielen Medizinern in der medizinischen Wissenschaft (in der zum Beispiel auch Physiker, Chemiker, Biologen und Mathematiker tätig sind) besteht ihre Forschungstätigkeit fast ausschließlich aus Patientenstudien. Ein großer Teil der wissenschaftlichen Diskussionen in der EBM beschäftigt sich mit den Fragen, wie eine gute Patientenstudie aussehen sollte und wie man aus einer Vielzahl in der Regel nicht übereinstimmender Patientenstudien die richtigen Schlüsse zieht. Wenn man sich den ganzen Tag damit beschäftigt, die perfekten Klebstoffe zu entwickeln, kann man leicht den Blick dafür verlieren, dass man manche Dinge doch besser einfach festschraubt.

Die perfekten Klebstoffe der EBM sind nach heutigem Stand randomisierte, doppelblinde, placebokontrollierte Studien (randomized controlled trial, RCT) sowie nach klar festgelegten Regeln durchgeführte Metaanalysen aus vielen einzelnen Patientenstudien. Beides sind in langjährigen wissenschaftlichen Diskussionsprozessen ausgefeilte, trickreiche Methoden, um bekannte Fehlerquellen beim Experimentieren mit Menschen zu minimieren.

Wer die Methodik solcher Studien und die dadurch berücksichtigten Fehlerquellen schon gut kennt und auf den Punkt kommen möchte, kann gerne bis zur folgenden Zwischenüberschrift („Wo ist also das Problem?“) vorspringen. Da diese Methoden der EBM aber tatsächlich ziemlich genial sind und immer noch viel zu oft ignoriert werden, möchte ich sie an dieser Stelle doch noch einmal kurz rekapitulieren. Zunächst einmal, welche Probleme kann man bei der Durchführung einer einzelnen Patientenstudie durch eine RCT vermeiden?

  • Gesundheitliche Parameter eines Menschen ändern sich im Zeitverlauf von ganz allein; vor allem viele Krankheiten bessern sich zumindest zeitweilig. Um die Wirkung einer bestimmten Maßnahme erkennen zu können, taugt ein vorher-nachher-Vergleich also nicht. Man muss eine behandelte mit einer unbehandelten Patientengruppe vergleichen (kontrollierte Studie).
  • Begleitumstände einer Maßnahme wie die Aufmerksamkeit und Zeit behandelnder Personen, der Weg zur Behandlung oder die Einnahme eines Mittels können nicht nur die wahrgenommene Gesundheit, sondern auch objektiv messbare Parameter beeinflussen. Die Begleitumstände sollten also zwischen behandelter Gruppe und Kontrollgruppe möglichst identisch sein (Placebokontrolle).
  • Das Wissen, ob man zur behandelten oder zur Kontrollgruppe gehört, beeinflusst nicht nur die Wahrnehmung, sondern auch das Verhalten und letztlich messbare Parameter wie Blutdruck oder Hormonspiegel. Die Probanden dürfen das also während der Studie nicht wissen (Verblindung).
  • Wenn Mitarbeiter der Studie, die Probanden behandeln oder die Ergebnisse erheben, wissen, wer zu welcher Gruppe gehört, können sie, auch unbewusst, unterschiedlich mit den Probanden umgehen oder die Ergebnisse verzerren. Wer mit den Probanden oder mit den Daten einzelner Probanden zu tun hat, sollte die Gruppenzuordnung also ebenfalls nicht kennen (Doppelverblindung).
  • Jede systematische Zuordnung der Probanden zur behandelten oder der Kontrollgruppe (Ort, Zeit, Krankenhausstation…) kann zu einem ungewollten Einfluss auf die Ergebnisse führen. Man muss diese Zuordnung also auslosen (Randomisierung).

Diese Maßnahmen definieren den Standard bei den erwähnten RCTs, die nach heutigem Stand die  verlässlichste Form sogenannter Interventionsstudien (also Studien, bei denen man den Effekt einer kontrollierbar einzusetzenden Maßnahme untersucht) sind. Wenn man den zu untersuchenden Einfluss zum Zeitpunkt der Studie nicht (mehr) kontrollieren kann, dann ist man auf Beobachtungsstudien angewiesen. Diese sind zwangsläufig fehleranfälliger als RCTs. Auch hier hat die EBM allerdings Handwerkszeug, um die unvermeidlichen Fehler wenigstens einigermaßen im Griff zu halten. So kann ein case matching, also eine 1:1-Zuordnung von Probanden mit gleichen Eigenschaften den Effekt der Randomisierung in Teilen ersetzen. Will man also zum Beispiel den Krankheitsverlauf bei trotz Impfung erkrankten Covid-Patienten mit dem bei Ungeimpften vergleichen, dann würde man jeweils Patienten gleichen Alters und Geschlechts gegenüberstellen. Da das matching zwangsläufig unvollständig ist (man kann in der Regel nicht auch noch sämtliche einzelnen Vorerkrankungen, Rauchverhalten, sozialen Status und Freizeitgestaltung gegenüberstellen), hat aber auch dieses Verfahren Grenzen.

Schließlich versucht die EBM in aller Regel, ihre Schlussfolgerungen nicht nur aus einer einzelnen Studie zu ziehen. Da unterschiedliche Studien zur selben Fragestellung sich in der Regel in ihrer Methodik und in ihren Ergebnissen unterscheiden, nutzt man systematische Reviews um ein Gesamtbild der relevanten Datenlage zu bekommen. Als verlässlichste Form eines solchen Gesamtbilds gelten Metaanalysen, in denen die Daten aus vielen Patientenstudien statistisch zusammengeführt werden. Hierzu gibt es Regeln, nach denen die Qualität unterschiedlicher Studien bewertet und unzureichende Studien ausgeschlossen werden. RCTs haben danach einen höheren Wert als kontrollierte Studien ohne Verblindung, Beobachtungsstudien oder Einzelfallbeschreibungen, große RCTs einen höheren Wert als solche mit nur wenigen Probanden. Bei Metaanalysen gibt es sogar statistische Methoden, die berücksichtigen und in Teilen kompensieren können, dass Studien mit negativem oder uneindeutigem Ergebnis häufig nicht publiziert werden. Gründe für diesen sogenannten publication bias können darin liegen, dass Forschende eine Bestätigung für ihre eigenen Überzeugungen erhoffen und Studien ohne solches Ergebnis eher selbst für fehlerhaft halten – sie erhalten aber auch als Forschungsleistung allgemein weniger Anerkennung und werden mitunter auch als Doktorarbeit oder ähnliche Qualifikationsleistung nicht angenommen. Effektiv verhindert wird ein solcher publication bias aber nur bei den Zulassungsstudien für neue Arzneimittel. Dafür muss eine Studienbeschreibung mit Umfang, Methoden und Zielgrößen vor Studienbeginn öffentlich einsehbar registriert werden, so dass es nicht möglich ist, eine ganze Studie oder einzelne Auswertungen darin unbemerkt verschwinden zu lassen.

Wo ist also das Problem?

Angesichts dieses umfangreichen Instrumentariums, um Fehler bei Patientenstudien zu eliminieren, wo ist dann das Problem damit, sich bei medizinischen Fragen ganz an Patientenstudien orientieren zu wollen? Schließlich geht es in der Medizin immer darum, was Patienten hilft.

Im Spätsommer des Jahres 2000, in den letzten Wochen vor der Stillegung des damals leistungsstärksten Beschleunigers am CERN, des Large Electron Positron Collider (LEP), wurde die Strahlenergie über die normale Leistungsgrenze der Beschleunigerelemente hinaus gesteigert. Das Ziel war, ohne Rücksicht auf mögliche Schäden an der bereits ausgereizten Anlage doch noch einen Blick zu wenigstens etwas höheren Energien zu erhaschen und dort möglicherweise neue Teilchen zu entdecken. Tatsächlich meldeten im September 2000 mehrere Detektoren an dem Beschleuniger ungewöhnliche Ereignisse, entsprechend der Entdeckung eines neuen Teilchens der Masse 113 GeV und mit Eigenschaften passend zum lange gesuchten Higgs-Teilchen. Insgesamt wurden mehr als dreimal so viele dieser Ereignisse entdeckt als aufgrund der Streubreite des Untergrundrauschens durch Zufälle zu erwarten gewesen wäre – ein sogenannter 3-Sigma-Effekt. Die Messungen hätten damit ohne ein neues Teilchen nur mit einer Wahrscheinlichkeit von weniger als 1:300 zufällig zustande kommen können.  Die Leitung des CERN verlängerte auf Bitten der Experimente den Betrieb des Beschleunigers noch um wenige Wochen. Als die Daten dann noch nicht genauer waren, wurde die Anlage stillgelegt, um Platz für den 2010 in Betrieb genommenen Large Hadron Collider (LHC) zu schaffen. Ein 3-Sigma-Effekt lockt in der Teilchenphysik niemanden hinter dem Ofen hervor. Damit man von der Entdeckung eines neuen Teilchens ausgeht, braucht man mindestens einen 5-Sigma-Effekt, wie er nur mit einer Wahrscheinlichkeit von 1:3,5 Millionen zufällig zustande kommt. Und die Zweifler hatten Recht: Als am 4. Juli 2012 das CERN erklärte, am LHC sei endlich das Higgs-Boson gefunden worden, lag seine Masse bei 125 GeV und damit weit außerhalb der Reichweite des LEP. Das mysteriöse Teilchen bei 113 GeV, das in den letzten Wochen des LEP beobachtet worden war, existiert nicht.

Was hat diese kleine Geschichte aus der jüngeren Historie der Teilchenphysik mit Patientenstudien zu tun? In der Medizin, aber auch in der Psychologie gilt ein 2-Sigma-Effekt, der immerhin mit einer Häufigkeit von 1:20 einfach durch Zufall auftreten kann, als „statistisch signifikant“ und als akzeptierter Beleg für die Existenz eines Effekts, also zum Beispiel für die Wirksamkeit eines Arzneimittels. Heute wissen wir auch aus der Praxis sehr sicher, dass alle gegen Covid-19 zugelassenen Impfstoffe extrem wirksam sind, aber bei der Zulassungsstudie für den Impfstoff von AstraZeneca gab es eine Gewissheit, dass der Schutz durch den Impfstoff besser als 50% ist, auch nur auf dem Niveau eines 2-Sigma-Effekts. Dieses schnelle Akzeptieren eigentlich noch recht unsicherer Ergebnisse ist kein Zeichen schlechten wissenschaftlichen Arbeitens, sondern ergibt sich mit einer gewissen Zwangsläufigkeit aus dem Untersuchungsgegenstand. Echte, lebende Menschen sind so ungefähr der beschissenste Untersuchungsgegenstand, mit dem Wissenschaftler zu tun haben können. Sie sind nicht nur komplexe biologische Systeme; sie wissen auch, dass sie Teil einer Untersuchung sind und beeinflussen absichtlich und unabsichtlich das Ergebnis. Man kann auch nicht wie in der Teilchenphysik einfach die Zahl der Versuche erhöhen, um statistisch belastbarere Aussagen zu bekommen. Selbst wenn man im Prinzip genug Patienten hätte – wenn eine Therapie in einer Studie „statistisch signifikant“ gezeigt hat, dass sie für kranke Menschen erhebliche Vorteile bietet und vielleicht lebensrettend ist, wird kaum eine Ethikkommission erlauben, dass man einer Placebogruppe diese Therapie noch vorenthält, nur um noch einmal zu überprüfen, ob die Ergebnisse dieser ersten Studie auch wirklich stimmen. Natürlich gibt es auch bei Untersuchungen an Patienten immer wieder Ergebnisse, die auch statistisch sehr, sehr eindeutig sind. So war vom BioNTech/Pfizer-Impfstoff schon bei der Zulassung klar, dass seine Wirksamkeit gegen symptomatische Erkrankungen mit sehr hoher Wahrscheinlichkeit über 90% und mit absoluter Sicherheit über 80% liegt. Auch dass die Infektionssterblichkeit von Covid (der ursprünglichen Variante, aktuelle sind gefährlicher) bei der in Deutschland vorliegenden Altersstruktur der Bevölkerung nicht wie von Querdenkern gerne behauptet bei 0,3%, sondern bei fast 1% liegt, ist mit einer Wahrscheinlichkeit von eins zu Milliarden sicher. So eindeutige Ergebnisse sind aber in Patientenstudien nicht unbedingt die Regel. Das liegt zum Teil auch einfach daran, dass Forschung an menschlichen Probanden sehr teuer ist und es gerade bei selteneren Krankheiten nicht einfach ist, viele geeignete Patienten zu finden, die auch noch bereit sind, an einer Studie teilzunehmen.

Zu diesen statistischen Problemen, die sich wenigstens halbwegs solide beziffern lassen, kommt eine ganze Reihe von systematischen Verzerrungen, die sich aus der Arbeit mit Menschen ergeben. Die offensichtlichsten Probleme werden durch gute Randomisierung zu statistischer Streuung umgewandelt – das schützt aber nicht vor absichtlicher Manipulation durch Beteiligte der Studie. Bei Interessenkonflikten, die Anlass zu solchen Manipulationen bieten können, denken die meisten Menschen zuerst an finanzielle Faktoren, zum Beispiel wenn Studien von Pharmaunternehmen finanziert werden. Diese sind jedoch veröffentlichungspflichtig und leicht nachvollziehbar. In Gesundheitsfragen, gerade bei der Forschung an Patienten, gibt es jedoch noch ganz andere Interessenkonflikte. So kann Ärzten, die an einer Patientenstudie beteiligt sind, unter Umständen das Wohlergehen ihrer eigenen Patienten näher liegen als ein wissenschaftlich sauberes Ergebnis der Studie insgesamt. Auch Querdenkerprofessoren wie John Ioannidis oder Luc Montagnier dürften bei ihren haarsträubenden Pseudostudien zur Pandemie oder ihrer Desinformation über Impfungen zumindest in einigen Fällen der Überzeugung gewesen sein, das Beste für die Menschheit zu bezwecken, auch wenn ihnen eigentlich klar gewesen sein muss, dass ihre Aussagen wissenschaftlich lächerlich sind.

Ein besonderes Problem in Patientenstudien ist der richtige Umgang mit Probanden, die ihre Beteiligung an der Studie vorzeitig abbrechen. Da eine solche Entscheidung neben externen Faktoren auch von fehlender Wirkung oder auftretenden Nebenwirkungen beeinflusst sein kann, lässt sich dieses Problem nicht durch Randomisierung und Verblindung in den Griff bekommen. Die korrekte Berücksichtigung solcher Studienaussteiger hängt daher von der exakten Fragestellung ab und ist entsprechend umstritten. Weitere Probleme, darunter eins, das in der Pandemie auftauchte, eine unüberschaubare Zahl viel zu kleiner, unkoordinierter und dadurch auch in der Summe wenig aussagekräftiger Studien zu sich überlagernden Themen, wurden im Mai in einem Artikel in Nature thematisiert.

Die Methoden, die im Rahmen der EBM für Patientenstudien entwickelt wurden, sind also nicht etwa das Nonplusultra der Wissenschaftlichkeit, sondern eher eine Krücke, die es ermöglichen soll, unter ausnehmend schwierigen Bedingungen wenigstens halbwegs belastbare Ergebnisse zu liefern. Letztlich können Patientenstudien selbst bei sorgfältigster Durchführung nicht die Verlässlichkeit guter Labordaten erreichen. Sie bleiben aber unverzichtbar, weil in der Medizin bei rein laborbasierten Studien immer die Frage der Übertragbarkeit auf das Gesamtsystem Mensch bleibt. In der Zulassung neuer Arzneimittel ist das kein Widerspruch: Bei neuen Substanzen, die heute als Arzneimittel zugelassen werden, sind die zugrundeliegenden chemischen Reaktionen verstanden, die Wirkung in der einzelnen Zelle ist im Labor mit höchster Genauigkeit geprüft, und die Übertragbarkeit auf einen Gesamtorganismus ist Tierversuchen nachgewiesen worden, bevor überhaupt die erste Patientenstudie genehmigt werden kann. In den klinischen Studien der Phasen II und III, in denen die Wirksamkeit nachzuweisen ist, geht es also nur noch darum, zu zeigen, dass das, was im Reagenzglas, in der einzelnen Zelle und im Tiermodell funktioniert, im Menschen auch noch funktioniert. Das ist nicht selbstverständlich, und auch hier müssen immer wieder Wirkstoffkandidaten aufgegeben werden, aber der verbleibende Schritt ist relativ klein. Nur deshalb ist es vertretbar, ein Arzneimittel schon nach zwei „statistisch signifikanten“ Patientenstudien (die unter Umständen auch in eine große Studie zusammengefasst werden können) für wirksam zu erklären.

Ganz anders sieht es aus, wenn Sachaussagen mit wissenschaftlichem Anspruch ausschließlich mit Studien am Menschen begründet werden, wie das neben der Medizin auch in der Psychologie oft unvermeidbar ist. Man kann und muss das mitunter tun, nur darf man dabei eben nicht das wackelige Fundament einer solchen Methodik vergessen. Genau das liest man aber immer wieder auch bei Vertretern der EBM, womit ich jetzt endlich bei meinen Beispielen bin.

Die sogenannte Alternativmedizin

2013 forderte Christian Weymayr unter dem Begriff der Scientabilität und damals konkret mit Bezug auf die Homöopathie, Patientenstudien nur dann durchzuführen, wenn die zu prüfende Wirkung nicht im Widerspruch zu sicheren wissenschaftlichen Erkenntnissen steht. Eine ähnliche Stoßrichtung hatte die Forderung nach einer science based medicine anstelle der heutigen evidence based medicine, die 2014 von den amerikanischen Medizinern David Gorski und Steven Novella erhoben wurde. Kritik an diesen eigentlich selbstverständlichen Forderungen hagelte es nicht nur von Vertretern antiwissenschaftlicher Positionen wie Harald Walach, sondern auch von namhaften Vertretern der EBM wie Heiner Raspe und Jutta Hübner, bizarrerweise sogar aus der Skeptikerszene. Eine Zusammenfassung der Diskussion um die Scientabilität findet sich in der Homöopedia. Selbst gestandene Naturwissenschaftler sind immer wieder bereit, sich auf Patientenstudien als einzigen Beleg einer Wirkung einzulassen. So betonte der von mir sehr geschätzte 2020 verstorbene Physikprofessor Martin Lambeck immer wieder, wie viele Nobelpreise nicht nur für Medizin, sondern auch für Physik und Chemie fällig wären, wenn diverse alternativmedizinische Verfahren wirksam sein sollten. In seinem Buch „Irrt die Physik?“ schlug er, um diese zu testen, jedoch ausgerechnet Patientenstudien vor. Ich bezweifle allerdings, dass Martin Lambeck es tatsächlich für sinnvoll gehalten hätte, einen Nobelpreis für Physik auf der Basis von Patientenstudien zu vergeben.

Selbstverständlich macht es für die Aussagekraft einer Patientenstudie einen erheblichen Unterschied, ob sie nur die Anwendbarkeit gesicherter Laborergebnisse im Menschen bestätigt (wie bei der Arzneimittelzulassung), ob sie Thesen prüft, die naturwissenschaftlich unbelegt, aber im Prinzip möglich sind (das gilt für viele Naturheilverfahren), ob das zu prüfende Verfahren an sich wirken könnte, aber auf einer komplett unsinnigen Theorie fußt (wie Ayurveda oder die „traditionelle chinesische Medizin“ samt der Akupunktur) oder ob schon die Wirkung selbst durch Naturgesetze ausgeschlossen ist, wie bei homöopathischen Hochpotenzen oder der Geistheilung. Keine Ansammlung noch so vieler Patientenstudien kann Naturgesetze widerlegen. Natürlich können wir auch Naturgesetze falsch verstanden haben. Natürlich können Physik und Chemie falsch oder grob unvollständig sein. Dafür müsste aber sehr, sehr, sehr vieles in der Natur ganz zufällig gerade so herauskommen, als wären unsere Naturgesetze eben doch fast immer richtig. Um das zu überprüfen, wären Studien am Menschen aber ein vollkommen untaugliches Mittel.

Eine Wirksamkeit der Homöopathie und damit die Ungültigkeit von Naturgesetzen aus Patientenstudien belegen zu wollen, ist ungefähr so sinnvoll, als wolle man die Bahn des Mondes aus Messungen der Gezeiten am Meer berechnen: Man kann das irgendwie machen, aber es ist so ziemlich das untauglichste Mittel, das man sich vorstellen kann, wenn das Ergebnis wesentlich verlässlicheren Methoden widerspricht. Das absurd klingende Beispiel ist übrigens nicht ganz willkürlich gewählt: 1692 berechnete Edmond Halley basierend auf Gezeitenmessungen an der englischen Küste, Newtons Mechanik und seinen eigenen Messungen von Mondbahn und Monddurchmesser die Dichte der Erde im Verhältnis zu der des Mondes und kam zum Ergebnis, dass die Erde innen hohl sein müsse.

Die HPV-Impfung

2008 forderte eine Gruppe angesehener Medizinprofessoren eine Rücknahme der Empfehlung der Ständigen Impfkommission (STIKO), Mädchen gegen menschliche Papillomaviren (HPV) zu impfen, „und ein Ende der irreführenden Information“. Zu den Unterzeichnern des Aufrufs gehörten mit Norbert Schmacke und dem heutigen Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) Jürgen Windeler auch prägende Vertreter der EBM in Deutschland. HPV verursachen Genitalwarzen und ähnliche Zellveränderungen auf Schleimhäuten und sind in der Folge für einen großen Teil der oft tödlich verlaufenden Erkrankungen mit Gebärmutterhalskrebs verantwortlich. Zwei Impfstoffe (Gardasil und Cervarix) verhindern eine Infektion mit den HPV-Untertypen, die am häufigsten für Gebärmutterhalskrebs verantwortlich sind (und wie man inzwischen weiß auch recht gut mit anderen Untertypen). Die Argumentation des Aufrufs basierte darauf, dass zu diesem Zeitpunkt die Wirksamkeit der Impfung nur gegen Krebsvorstufen nachgewiesen war. Ein direkter statistischer Nachweis, dass geimpfte Frauen weniger Tumore bekommen, war noch nicht erbracht. Das lag aber nicht an den Impfstoffen, sondern einfach an der Natur der Sache: Geimpft wurden damals weibliche Jugendliche von 12 bis 17 Jahren (sinnvollerweise vor dem ersten Geschlechtsverkehr, weil die Viren sexuell übertragen werden), und das mittlere Erkrankungsalter für Gebärmutterhalskrebs liegt bei 52 Jahren. Für den direkten Nachweis hätte man also einfach nur sehr lange warten müssen, während mehr junge Frauen ungeimpft geblieben, mit HPV infiziert worden und später an Krebs gestorben wären. Was die Zulassungsbehörden in allen entwickelten Ländern und eben auch die STIKO stattdessen getan haben, war, die Informationen aus Patientenstudien zur Wirkung der Impfstoffe mit anderen Patientenstudien und Laborforschung über die Entwicklung der Krebszellen zusammenzufassen und entsprechende Schlüsse zu ziehen.

Ich bin kein Mediziner. Ich war damals tatsächlich neugierig und hätte gerne von jemandem vom Fach eine Erklärung gehabt, wie denn nach Meinung der Unterzeichner des Aufrufs die Tumore plötzlich trotzdem entstehen sollten, wenn die Viren, von denen sie ausgelöst werden, und die Krebsvorstufen, aus denen sie entstehen, nicht mehr da sind. Auf diese Frage konnte mir Professor Windeler in einem E-Mail-Wechsel keine nachvollziehbare Antwort geben. Stattdessen kam von ihm ein Beharren darauf, dass nach den Regeln der EBM ein direkter Wirksamkeitsnachweis in Patientenstudien erforderlich sei, um die Impfung empfehlen zu können.

Ich weiß, hinterher ist man immer klüger. Ich weiß, es hätte irgendeine (zwangsläufig extrem seltene, weil weder in den Zulassungsstudien noch in den ersten zwei Jahren der Anwendung entdeckte) schwere Nebenwirkung der Impfungen geben können. Ich weiß, die Tumore hätten durch irgendeinen verrückten Mechanismus auch ohne die Viren und die Krebsvorstufen entstehen können. Ich weiß nur bis heute nicht, wie man das damals für wahrscheinlich oder für entscheidungsrelevant halten konnte. Inzwischen, da wir klüger sind, wird die Impfung nicht nur für Mädchen schon im Alter von 9 bis 14 Jahren empfohlen, sondern auch für Jungen – weil die Impfstoffe so gut vertragen werden, weil dadurch auch ungeimpfte Frauen geschützt werden können, weil auch Peniskrebs und sogar der häufige Prostatakrebs mit HPV in Verbindung gebracht werden und weil eben auch Genitalwarzen bei Männern nicht toll sind.

Die Forderung nach dem „Ende der irreführenden Information“ schlug damals hohe Wellen durch die deutschen Publikumsmedien. Sie verunsicherte Eltern, die eine Impfentscheidung für ihre Töchter und später auch für ihre Söhne hätten treffen müssen. Sie verunsicherte aber auch die Politik, die sich nie zu systematischen Impfkampagnen in den Schulen, wie ich sie aus meiner Kindheit gegen Polio kenne, aufraffen konnte. 2018 lag die Impfquote gegen HPV unter 15jährigen Mädchen in Deutschland bei erbärmlichen 31%. An unverbesserlichen Impfgegnern lag das nicht: Die agitieren viel stärker gegen die Masernimpfung, und dort hatten wir bei der Einschulung schon vor der Einführung der Impfpflicht 2020 Impfquoten um 95% mit zwei Impfungen und über 98% Erstimpfungen.

Inzwischen kommen immer mehr Daten aus der realen Anwendung, die zeigen, wie wichtig es gewesen wäre, schon vor 12 Jahren weitaus konsequenter gegen HPV zu impfen, aus Australien, aus Finnland (wo inzwischen auch eine direkte Wirkung der Impfung gegen Tumore nachgewiesen ist), aus Schweden…  Und während es in den USA, Großbritannien, Kanada, Australien und Skandinavien längst völlig normal ist, dass Jugendliche unabhängig vom Geschlecht gegen HPV geimpft werden, werden in Deutschland in 20 oder 30 Jahren Frauen mittleren Alters an Tumoren sterben, die sie nicht haben müssten.

AstraZeneca für Senioren

Die Absurditäten, die unter Berufung auf die EBM verbreitet wurden, haben in der Pandemie einen neuen Höhepunkt erreicht; wieder geht es um Impfstoffe, nur anders als 2008 ist es dieses Mal die STIKO selbst mit ihrem jetzigen Vorsitzenden Thomas Mertens, die einseitig den Patientenstudien verfallen ist.

Der Covid-Impfstoff von AstraZeneca (Vaxzevria/ChAdOx1/AZD1222) wurde am 29.1.2021 in der EU zugelassen. Schon einen Tag vorher hatte die STIKO die Empfehlung abgegeben, den neuen Impfstoff nur für die Altersgruppe unter 65 und damit nicht für die am meisten gefährdete Risikogruppe über 80 einzusetzen. Der Grund für die kuriose Empfehlung waren nicht etwa konkrete Bedenken. Die Begründung war schlichtweg die hier schon bekannte: Zur Wirksamkeit in dieser Altersgruppe gäbe es in den Zulassungsstudien keine hinreichenden Daten für einen direkten Nachweis. Der STIKO waren schlicht zu wenige Senioren in den Studien. Etwas zugespitzt hätte man mit derselben Begründung empfehlen können, den Impfstoff nicht für Rothaarige, für Linkshänder oder für Beamte zu verwenden.

Es ist natürlich bekannt, dass ein Immunsystem im hohen Alter nicht mehr so gut lernt, sich an neue Bedrohungen anzupassen, was auch den Effekt von Impfungen reduziert. Man wusste aber aus Laboruntersuchungen in den frühen klinischen Studienphasen, dass durch alle drei zu diesem Zeitpunkt zugelassenen Impfstoffe eine robuste Immunreaktion auch bei alten Probanden erzeugt wurde, und von den beiden anderen Impfstoffen wusste man auch aus dem direkten Nachweis an Probanden, dass diese Immunreaktion auch alte Menschen vor einer Erkrankung schützt. Es gab keinen vernünftigen Grund für die Annahme, dass die Altersabhängigkeit der Wirkung bei dem AZ-Impfstoff anders sein sollte. Die Empfehlung basierte ausdrücklich nur auf dem Fehlen eines direkten Nachweises durch zu wenige alte Probanden in den Studien.

Die STIKO-Empfehlung trug auch dazu bei, dass das durch Verzögerungen und die (nach der Papierform) etwas geringere Wirksamkeit bereits beschädigte Image des AZ-Impfstoffs weiter geschwächt wurde. Einer der wichtigsten Erfolgsfaktoren für eine Impfkampagne, das Vertrauen der Bevölkerung in die Sicherheit und Wirksamkeit der eingesetzten Impfstoffe, wurde leichtfertig aufs Spiel gesetzt. Die fragwürdige Stellungnahme von Deutschlands wichtigstem Expertengremium zu diesem Thema befeuerte auch die haltlosen Gerüchte, der AZ-Impfstoff sei bei älteren nur zu 8% wirksam (tatsächlich stammte die absurde Zahl daher, dass in den Zulassungsstudien nur 8% der Probanden über 65 war).

Ich weiß, hinterher ist man immer klüger. Niemand konnte zu diesem Zeitpunkt wissen, dass der psychologische Schaden noch viel größer werden würde. Niemand konnte wissen, dass gerade der AZ-Impfstoff möglicherweise in sehr seltenen Fällen zu ernsten Nebenwirkungen in Form von Sinusvenenthrombosen führen könnte, die, wie es aktuell aussieht, vor allem junge Menschen betreffen könnten – ausgerechnet die jungen Menschen, die gerade in Deutschland ganz überwiegend mit AZ geimpft wurden, weil die STIKO sich gegen eine Anwendung bei alten Menschen ausgesprochen hatte. Das konnte niemand wissen.

Was man aber wissen konnte: Zu diesem Zeitpunkt hatten in Deutschland weniger als zwei Millionen Menschen eine Erstimpfung gegen Covid erhalten, erst rund 500.000 waren voll geimpft. Der weit überwiegende Teil der über 80jährigen hatte noch nicht einmal einen Impftermin. In Hessen waren viele Impfzentren noch gar nicht eröffnet. Die Intensivstationen waren noch voll von der zweiten Welle; in Großbritannien wütete die Alpha-Variante, und jeder (außer vielleicht den Ministerpräsidenten der Bundesländer) konnte wissen, dass uns durch Alpha eine üble dritte Welle bevorstand. Die Nutzung der AZ-Impfung für Jüngere mag dazu geführt haben, dass die eine oder andere Pflegekraft früher geschützt war – für die (nach der eigenen Analyse der STIKO) am dringendsten zu schützenden Personen hat die STIKO die Aussicht auf einen Impftermin aber weiter nach hinten geschoben. So sind unnötig viele alte Menschen ungeschützt in die dritte Welle geraten, und auch wenn sich das nach den strengen Regeln der EBM nicht wird beziffern lassen – es müssen unnötig viele dadurch gestorben sein.

Covid-Impfung für Jugendliche

Am 31.5. genehmigte die Europäische Kommission auf Empfehlung der europäischen Arzneimittelagentur (EMA) den Einsatz des ersten Covid-Impfstoffs (Comirnaty von BioNTech/Pfizer) für Jugendliche ab 12 Jahren. Zu diesem Zeitpunkt war der Impfstoff in den USA bereits seit drei Wochen bei Jugendlichen im Einsatz, mit dem erklärten Ziel, die entsprechende Altersgruppe bis zum Ende der Sommerferien möglichst flächendeckend geimpft zu haben. Schon in den ersten Medienberichten über die Zulassung tauchten jedoch Gerüchte auf, in Deutschland werde die STIKO den tatsächlichen Einsatz der Impfung für Jugendliche nicht empfehlen.

Einen Tag später erschien die bislang wohl skurrilste Folge des NDR-Podcasts Coronavirus Update. Die Frankfurter Virologin Sandra Ciesek und die aus diversen Folgen mit Ciesek und Christian Drosten erfahrene NDR-Journalistin korinna Hennig versuchten mit mäßigem Erfolg, ihre Fassungslosigkeit zu überspielen, als der als Gast zugeschaltete STIKO-Vorsitzende Thomas Mertens die zu diesem Zeitpunkt noch nicht einmal offiziell beschlossene Entscheidung seines Gremiums verteidigte. Auch wenn das sicherlich nicht Mertens‘ Absicht war – seine Argumentation wäre auf der Bühne einer Querdenker-Demo nicht sonderlich aufgefallen.

5.7.21: Angesichts Mertens‘ aktueller Äußerungen zum Testen von Schülern würde ich meine Einschätzung „Auch wenn das sicherlich nicht Mertens‘ Absicht war“ in Frage stellen. Das lässt auch Mertens‘ bizarre Äußerungen im NDR-Podcast, dass er die noch völlig ungetesteten Lebendimpfungen gegen Covid für sicherer hält als die inzwischen hunderte-millionenfach erfolgreich eingesetzten modernen Impfstoffe, in einem anderen Licht erscheinen. Letztlich muss man wohl einfach konstatieren, dass wir in der STIKO ein Personalproblem haben

4.7.21: Inzwischen beruft sich, wenig überraschend, die AfD genüsslich auf diese Glanzleistung der STIKO:

So erklärte Mertens, sachlich nicht falsch, die in den Studien geimpften 1100 Jugendlichen seien zu wenig, um seltene Nebenwirkungen ausschließen zu können, blieb aber jede Antwort dazu schuldig, wie man einen solchen Nachweis denn erbringen könne, wenn nicht dadurch, dass man eben mehr Jugendliche impft. In der Praxis wird das dazu führen, dass dann eben amerikanische, israelische und britische Jugendliche das Versuchskaninchen für Mertens‘ Sicherheitsanforderungen sein werden, weil in diesen Ländern die wissenschaftlichen Berater realistischer sind. Weitaus schlimmer war aber Mertens‘ folgende Aussage: „So […] wissen wir natürlich, dass bestimmte Spätfolgen einer Impfung schon auch nach Monaten sehr selten natürlich, aber möglich sind.“ Praktisch alle Fachwissenschaftler und seriösen Wissenschaftskommunikatoren, die sich öffentlich zu Covid äußern, reden sich seit einem halben Jahr den Mund fusselig, dass es solche „Spätfolgen“ bei Impfungen noch nie gegeben hat und dass auch kein halbwegs plausibler Mechanismus vorstellbar ist, wie ein im Körper längst abgebauter Impfstoff solche Folgen haben könnte. Dass ausgerechnet der Vorsitzende der STIKO diesen Gerüchte-Zombie wieder aus der Impfgegner-Gruft wanken lässt, ist, gelinde gesagt, enttäuschend.

Während sich Mertens zu vollkommen hypothetischen (und zumindest zum Teil vollkommen unrealistischen) Nebenwirkungen also – sachlich nicht falsch – auf die unzureichende Datenlage beruft, stuft er die aus den USA  berichteten, sehr seltenen Fälle von Myocarditis in zeitlicher Nähe zu einer Impfung als entscheidungsrelevant ein, obwohl ihm selbst klar ist, dass die Datenlage ebenfalls unzureichend ist, um zu beweisen, dass es da überhaupt einen kausalen Zusammenhang gibt. Erst mit den nach dem Podcast zusätzlich eingetroffenen Daten sprechen die amerikanischen Centers for Disease Control (CDC) inzwischen von einem „wahrscheinlichen Zusammenhang“, verweisen aber gleichzeitig auf die sehr kleine Zahl überwiegend harmloser Fälle. Am 11. Juni waren von 1226 Fällen von Myocarditis, die bei 300 Millionen Impfungen aufgetreten waren, fast alle schon wieder gesund. Nur neun waren noch im Krankenhaus, zwei auf Intensivstationen. Kurz gesagt präsentiert Mertens, unter Berufung auf die EBM, jede Wissenslücke und jede Unsicherheit als Argument fürs Nichtstun und vergrößert diese Wissenslücken noch, indem er, wie wir es hier jetzt schon mehrfach hatten, jede Überlegung beiseite wischt, die sich nicht unmittelbar aus Patientenstudien ergibt. Und, nochmal, ich kritisiere hier nicht als medizinischer Laie einen Konsens von Fachwissenschaftlern. Vielmehr ist es, wie zuvor bei der Altersempfehlung für den AZ-Impfstoff, die STIKO, die gegenüber internationalen Fachkreisen eine Außenseitermeinung vertritt. Die Experten der CDC kommen auch aufgrund der heutigen Datenlage zur exakt gegensätzlichen Einschätzung wie die STIKO. 5.7.21: Ebenso eindeutig ist die Einschätzung des Nationalen Impfgremiums, des Gegenstücks der STIKO in Österreich:

Auch in Frankreich werden nach einem entsprechenden Votum des wissenschaftlichen Beratergremiums seit dem 15.6. alle Jugendlichen ab 12 geimpft. In Israel läuft die Impfkampagne für Jugendliche ab 12 seit dem 6.6., in den Niederlanden seit dem 2.7.. Neben Deutschland zögert in Europa ausgerechnet UK, wo die Inzidenz von 257 (am 5.7.) nicht unbedingt eine Empfehlung für die dortige Seuchenpolitik abgibt.

So wie Mertens die Risiken der Impfung durchgängig zur Obergrenze des gerade noch Denkbaren abschätzt, erklärt er sämtliche Risiken der Krankheit, die nicht durch Patientenstudien an Jugendlichen eindeutig statistisch belegt sind, für nicht existent. Während ein aktueller britischer Artikel in The Lancet zur multisystemischen Entzündungserkrankung bei Kindern und Jugendlichen (PIMS) auf 26 Todesopfer in den USA sowie die noch ungeklärten Spätfolgen verweist und betont, wie wichtig es ist, die Infektionszahlen in diesen Altersgruppen niedrig zu halten, weiß Mertens: „Das Risiko für PIMS ist gering. Die Prognose ist gut.“ Seine Begründung ist einmal mehr, wie jetzt schon des Öfteren bei EBM-Vertretern aufgezeigt, der klassische Denkfehler des Argumentum ad Ignorantiam: Das Gegenteil lässt sich (noch) nicht beweisen. Dem gleichen Muster folgt er zu Long Covid, also den, für Erwachsene klar belegt, teilweise sehr hartnäckigen Spätfolgen einer Covid-Infektion: Die Datenlage bei Jugendlichen ist unzureichend, und damit ist das Thema abgehakt. Er schiebt dann noch das Scheinargument nach, dass ja nur wenige Kinder wegen Covid intensivmedizinisch behandelt werden müssten, obwohl er mit Sicherheit weiß, dass Long Covid bei Erwachsenen auch bei milden und sogar asymptomatischen Verläufen belegt ist. Dass die Datenlage bei Jugendlichen schlecht ist, überrascht nicht, wenn man bedenkt, dass typische, bei Erwachsenen gut verfolgbare, Long-Covid-Symptome wie Erschöpfung, Kopf- und Gliederschmerzen, Schlaf- und Konzentrationsstörungen bei Jugendlichen gerne auf Wachstum oder Pubertät geschoben werden. Man kann sich leicht vorstellen, dass dieselben Symptome, wenn sie zu alterstypischen Problem noch zusätzlich auftreten, auch für die weitere Entwicklung von Jugendlichen problematisch sein können. Wenn man über „die Datenlage ist unzureichend“ hinausschaut und versucht, das Beste aus den vorhandenen Daten herauszuholen, stellt man fest, dass das britische Statistikamt bei fast 10% der infizierten (nicht etwa nur der ernsthaft erkrankten) Kinder und Jugendlichen Langzeitfolgen meldet. Ob es, wie eine italienische Studie ausweist, sogar über 40% sind, kann man natürlich kritisch hinterfragen, aber eine unzureichende Datenlage heißt eben nicht 0%.

20.8.21: Inzwischen hat die STIKO viel zu spät ihre katastrophale Fehlentscheidung korrigiert und begründet das mit „neuen Erkenntnissen“. Wie neu die tatsächlich sind und was die Begründung der STIKO über Mertens‘ Medienauftritte in den letzten Monaten aussagt, habe ich mir in einem Kommentar unten in der Diskussion angesehen.

Ganz abgesehen von problematischen Auslegungen der EBM ist Mertens‘ Haltung, dass man Kinder und Jugendliche nur impfen dürfe, wenn für sie selbst der unmittelbare medizinische Nutzen eventuelle, hypothetische Risiken überwiegt, auch grundsätzlich problematisch. Bei sehr vielen (nicht allen) Impfungen liegt ein erheblicher Teil des Nutzens darin, durch Herdenschutz auch (noch) nicht impfbare oder trotz Impfung nicht geschützte Personen vor einer Infektion abzuschirmen. Warum dieser gesamtgesellschaftliche Nutzen nur innerhalb der eigenen Altersgruppe berücksichtigt werden soll, erschließt sich mir nicht, zumal natürlich auch mild erkrankte Kinder mitbetroffen sind, wenn ihre Eltern auf der Intensivstation oder ihre Großeltern auf dem Friedhof landen. Das ist auch eine ganz normale gesellschaftliche Praxis: Während der gesamten Pandemie wurde auch das Leben von Kindern eingeschränkt, um primär hochgradig gefährdete Ältere vor Covid zu schützen. Warum sollte dieses gesamtgesellschaftliche Handeln ausgerechnet bei einer Impfung enden, die letztlich alle schützt? Die nichtpharmazeutischen Maßnahmen, auch und gerade in Schulen, werden auch nicht mit den Sommerferien enden. Der Nachwuchs hat also durchaus auch ein über das rein Medizinische hinausgehendes Interesse an der Impfung: Indem wir Jugendliche und möglichst bald auch Kinder impfen, ersparen wir es ihnen, zweimal wöchentlich Unterrichtszeit für Antigentests zu verlieren und (wie die aktuellen Entwicklungen in schon stärker von der Delta-Variante betroffenen Ländern erwarten lassen) wahrscheinlich mehrfach pro Halbjahr wegen erkrankter Mitschüler unter Quarantäne gestellt zu werden.

Im Podcast hat Sandra Ciesek noch versucht, die Situation zu retten, indem sie betont hat, dass die Impfung von Kindern eine private Entscheidung ist und Eltern ihre Kinder natürlich auch ohne entsprechende Empfehlung der STIKO impfen lassen können. Zudem hat sich auch Mertens im Podcast die Hintertür offen gehalten, dass die STIKO ihre Empfehlungen anpassen kann, wird und das auch schon getan hat, wenn sich wissenschaftliche Erkenntnisse (oder vielmehr das, was er als wissenschaftliche Erkenntnisse akzeptiert) ändern. Insofern ist vorauszusehen, was passieren wird: Mit immer mehr Daten aus der Anwendungsbeobachtung in den USA, Israel und Großbritannien wird die STIKO wahrscheinlich eher früher als später umschwenken und doch eine Covid-Impfung für Jugendliche ohne Vorerkrankung und nach der entsprechenden Zulassung wahrscheinlich wieder mit einer unnötig langen Verzögerung auch für Kinder im Grundschulalter empfehlen. Der (einmal mehr) von der STIKO verursachte Vertrauensschaden wird sich aber auch hier nicht wiedergutmachen lassen. Verunsicherte Eltern sind das Schlimmste, was einer Impfkampagne passieren kann.

Tatsächlich hatte die STIKO zum aktuellen Zeitpunkt noch nicht einmal die geringste Notwendigkeit, diesen Flurschaden anzurichten. Sie hätte sich, wie es eigentlich ihre Aufgabe ist, überhaupt nicht öffentlich äußern müssen. Sie hätte die Frage der Impfung von Jugendlichen auch zurückstellen und sich problemlos noch mindestens sechs bis acht Wochen Zeit erkaufen können, wenn sie einfach nur gefordert hätte, den Impfstoff vor den gesunden Jugendlichen für alle impfbereiten Erwachsenen zu reservieren. Das wäre so oder so ohne jeden Zweifel die richtige Priorisierung gewesen. Damit hätte man noch bis irgendwann im August Zeit gehabt, eine Empfehlung abzugeben und hätte in vielen Bundesländern trotzdem noch vor Ende der Sommerferien mit einer Impfkampagne für Jugendliche starten können. Wahrscheinlich werden wir das so oder so tun, wenn die STIKO ihre Entscheidung ändert, was durchaus auch schon im August passieren kann – nur eben jetzt mit (zu Recht) völlig verunsicherten Eltern.

5.7.21: In dem Punkt muss ich meine Aussage revidieren. Anscheinend sind wir schon im Juli an dem Punkt, dass mRNA-Impfstoff nicht mehr knapp ist, weil die Impfbereitschaft sich insgesamt langsam ausschöpft. In dem Punkt freut mich die überraschend schnelle Bereitschaft der STIKO, für die AZ-Erstgeimpften eine Zweitimpfung mit einem mRNA-Impfstoff zu empfehlen. Interessanterweise ist auch hier der Wirksamkeitsvorteil nur in Labordaten zu erkennen, und direkte Informationen über die Sicherheit einer solchen heterologen Impfung sind kaum deutlicher als vor ein paar Wochen, als die STIKO das noch mit eben dieser Begründung abgelehnt hat. Das Argument der fehlenden Datenlage scheint bei der STIKO also recht selektiv zu greifen…
Ich persönlich hätte allerdings ohne mich zu beschweren die paar Wochen bis zum geplanten Zweittermin mit AZ (oder eben gegebenenfalls bis zur hinreichenden Verfügbarkeit von mRNA-Impfstoff) gewartet, wenn das notwendig gewesen wäre, um die Jugendlichen zu impfen. Da ganz offiziell genug da sein soll, habe ich die Gelegenheit aber auch genutzt und werde in Kürze heterolog geimpft sein. Da ist der lange Abstand nicht unbedingt erforderlich, weil man keine Gefahr einer Vektorimmunität hat.  

Gesamtgesellschaftlich ist das aber ohnehin erst der zweite Schritt. Das nächste, was die Wissenschaftskommunikation in Deutschland zu leisten hat, ist vollkommen unabhängig von der Frage, wann und mit welcher Durchschlagskraft wir die Impfkampagne bei Jugendlichen starten, weil sie dafür ohnehin zu spät greift: Wir müssen den Schulpolitikern (schnellstmöglich) den Zahn ziehen, dass man nach den Sommerferien an den Schulen einfach zum Regelbetrieb zurückkehren kann, damit wir nicht wieder völlig unvorbereitet in ein Schuljahr voller Einschränkungen, Tests und Quarantänen rutschen.

9.12.21: Ich muss meine beim Entstehen des Artikels noch eher differenzierte Sicht zu Thomas Mertens revidieren. Man erfährt doch immer wieder neues. Wer sich vor den Karren eines anthroposophischen Impfgegnervereins spannen lässt und auf einem Kongress mit Leuten wie Angelika Müller, Martin Hirte und Harald Walach auftritt, wie Mertens und sein Kollege Martin Terhardt, war als STIKO-Mitglied schon lange vor der Pandemie nicht mehr tragbar. Mit dem Wissen muss ich ganz nüchtern feststellen, dass das BMG bei der Ernennung mindestens dieser beiden wirklich den Bock zum Gärtner gemacht hat. 

Der Screenshot stammt aus diesem (an seiner ursprünglichen Stelle nach dem Tweet von Jan Hartmann ganz plötzlich gelöschten) Dokument. Eine Übersicht von Rednern auf dem Impfgegnerkongress mit Verweis auf eine DVD mit Aufzeichnungen findet sich hier.

Kurzes Impfstoff-Update: Keine gute Nachricht aus Tübingen

Die aktuelle Wasserstandsmeldung zur Phase-III-Studie für den mRNA-Impfstoff von CureVac ist auf jeden Fall keine gute Nachricht. Es gibt noch immer kein vollständiges Ergebnis, aber eine geschätzte Wirksamkeit von 47% ist ganz sicher nicht konkurrenzfähig mit den Impfstoffen, die wir heute in Deutschland einsetzen. Das Unternehmen verweist mit einer gewissen Berechtigung darauf, dass die Studie (die zum Teil in Lateinamerika durchgeführt wurde) mit anderen, aggressiveren Virusvarianten zu tun hatte als die Zulassungsstudien früherer Impfstoffe. Ich habe auch immer betont, dass Zahlen zur Wirksamkeit aus unterschiedlichen Studien kaum vergleichbar sind und zwischen BioNTech, Moderna, Janssen und AstraZeneca (AZ) in den Medien gerne Äpfel und Birnen gegenübergestellt werden. Gleichzeitig gilt aber, dass jeder ganz neue Impfstoff gegenüber denen, die schon zigmillionenfach eingesetzt wurden, immer ein zusätzliches Risiko unentdeckter seltener Nebenwirkungen hat. Wer mit einem Arzneimittel für denselben Bedarf später kommt, muss in der Regel in irgendeiner Hinsicht einen deutlichen Zusatznutzen mitbringen, um noch eine Zulassung zu bekommen, und da sind solche Zwischenergebnisse vor allem gegenüber den amerikanischen und europäischen Behörden sicher nicht hilfreich. 
Schlecht ist das vor allem im globalen Maßstab, weil viele Länder außerhalb Europas und Nordamerikas immer noch einen riesigen Bedarf an Impfstoff haben. Bei aller Schwierigkeit, Daten aus unterschiedlichen Studien zu vergleichen: Eine Wirksamkeit von 47% gegen Erkrankungen durch das aktuelle Variantenumfeld in Europa und Lateinamerika ist ähnlich gut, möglicherweise sogar besser als das, was die in vielen Ländern eingesetzten chinesischen Totimpfstoffe bieten. Die lagen schon gegen den ursprünglichen Wildtyp nur in dieser Größenordnung der Wirksamkeit. Ich denke aber nicht, dass CureVac sich ernsthaft mit dem Ruf eines drittklassigen Impfstoffs um eine Zulassung in diesen Ländern bemühen würde, wenn sich die Daten so erhärten und eine Zulassung bei EMA und FDA aussichtslos bleiben dürfte.
Gleichzeitig ist dieser Zwischenstand auch nicht so katastrophal, dass CureVac-Partner wie Bayer jetzt sehr kurzfristig aufgeben und ihre vorgehaltenen Produktionskapazitäten an Pfizer vermieten würden. Das wird uns also global einfach deutlich Zeit kosten.
Für Deutschland sehe ich den Effekt nicht so wahnsinnig dramatisch. Es war schon seit ein paar Wochen absehbar, dass CureVac durch den Rückgang bei den Fallzahlen gerade in Europa nicht genug Erkrankungen in der Studie haben würde, um noch im Juni eine Wirksamkeit belegen und im Juli zu unserer Versorgung beitragen zu können. Damit man zeigen kann, dass Geimpfte weniger erkranken als Placeboteilnehmer, braucht man ja Infektionen – ein Problem, das schon AstraZeneca letzten Sommer in Großbritannien hatte. 
Um mit dem ersten Durchimpfen der impfbereiten Erwachsenen bis September fertig zu sein, brauchen wir die ursprünglich eingeplanten Dosen von CureVac aber auch nicht. Dafür war es eben gut, dass Deutschland und die EU von vornherein auf diverse Hersteller verteilt viel mehr bestellt haben als nötig. Die aktuelle Impfkampagne läuft mit vier Impfstoffen parallel auf Hochtouren, und sie dürfte in der zweiten Junihälfte nochmal an Fahrt aufnehmen.
Eine kleine Delle bei den Lieferungen erwartet uns nochmal im Juli. Bislang wird die Kampagne mit mehr als 70% der insgesamt gelieferten Dosen ganz massiv durch den mRNA-Impfstoff von BioNTech/Pfizer getragen, auch durch die zusätzlichen Kontingente, die Deutschland als Gegenleistung für die Anschubfinanzierung der Bundesregierung bei BioNTech erhält. Diese Sonderkontingente laufen aber aus – nach 50 Millionen Dosen allein im zweiten Quartal sind von BioNTech/Pfizer nur noch 57 Millionen für den gesamten Rest des Jahres in der Planung. Bis September sollten das die anderen Hersteller aber ausgeglichen haben. Vor allem Moderna hat mit seinem mRNA-Impfstoff zunächst seinen eigenen Geldgeber USA priorisiert. Deutschland hat bislang erst 6 Millionen Dosen von Moderna erhalten, aber bis zum Jahresende sollen noch weitere 72 Millionen Dosen kommen, also deutlich mehr als von BioNTech. Bei diesem relativ teuren Impfstoff dürfte auch der Andrang von Drittländern, die deutschen Kontingente zu übernehmen, überschaubar sein. Bei Janssen mit seiner amerikanischen Muttergesellschaft Johnson & Johnson ergibt sich ein sehr ähnliches Bild. Die Zahlen sind insgesamt nur etwa halb so groß, aber dieser Impfstoff wird ja aktuell als Einzeldosis eingesetzt (wobei ich vermuten würde, dass das die ersten Kandidaten für eine Auffrischung im Herbst sein werden, weil der Impfschutz nach aktueller Datenlage wirklich nicht gleich gut ist wie zwei Dosen der Wettbewerber). Bei AstraZeneca sind die zukünftigen Mengen am unsichersten, weil noch nicht klar ist, wie der Rechtsstreit mit der EU wegen der bisherigen Lieferverzögerungen beigelegt wird. Eigentlich hat Deutschland noch über 40 Millionen Dosen Vaxzevria zu bekommen – aber nach schlechter Presse hält sich das Interesse der deutschen Bevölkerung an diesen Dosen ja bekanntlich sehr in Grenzen, und ein großer Teil davon wird als Hilfe in anderen Ländern dankbar aufgenommen werden. Moderna, Janssen und AZ sind jedenfalls dabei, ihre Lieferungen deutlich zu steigern, werden aber wohl Anfang Juli den Rückgang bei BioNTech/Pfizer noch nicht ganz auffangen können.
So oder so – in zwei bis drei Monaten wird es bei den Erwachsenen nur noch darum gehen, wer sich impfen lassen will. Es bleibt nur zu hoffen, dass dann, mit mehr Daten aus den USA, auch die STIKO bereit ist, ihre Haltung (was man nicht direkt aus Patientendaten ablesen kann, wird immer in Richtung Harmlosigkeit der Krankheit und Gefährlichkeit der Impfung interpretiert) zur Impfung von Jugendlichen zu überdenken, damit wir nicht im Winter eine massive Durchseuchung der Schulen erleben und wieder ständig Schulklassen in Quarantäne haben müssen. Von den Kultusministern darf man hinsichtlich Vorsichtsmaßnahmen ja bekanntlich kein Verantwortungsbewusstsein erwarten.

Von Teilchenschauern zu alten Tüchern

Bevor ich mich hier wahrscheinlich doch bald wieder mit dem bräunlichen Schimmer irgendwelcher Impfgegner und Querdenkschwurbler beschäftigen muss, will ich auf keinen Fall versäumen, mein Versprechen aus dem letzten Post einzulösen und mir die Radiocarbondatierung (oder C14-Methode) näher anzusehen. Dabei fangen wir tatsächlich mit etwas an, das vom Himmel gekommen ist und enden mit einem, der zum Himmel gefahren sein soll, nachdem er seine Abdrücke auf einem Tuch hinterlassen hat…

Was ist eigentlich Kohlenstoff-14?

Die Kerne unserer Atome setzen sich aus Protonen und Neutronen zusammen. Die positiv geladenen Protonen bestimmen die Ladung des Kerns – und damit auch, wie viele Elektronen zur Hülle des Atoms gehören müssen, damit es elektrisch neutral ist. Praktisch die gesamten chemischen Eigenschaften des Atoms sind also durch die Zahl seiner Protonen bestimmt. Die Neutronen, mit einer Masse praktisch gleich der von Protonen, aber elektrisch neutral, tragen zu den Eigenschaften des Atoms nur eben diese Masse bei. Kernphysikalisch machen es die Neutronen möglich, dass die Protonen, deren positive Ladungen sich ja abstoßen, im Kern einen gewissen Abstand wahren, aber trotzdem miteinander verbunden bleiben können. Die starke Kernkraft, die Atomkerne zusammenhält, reicht ja nur von einem Teilchen zum nächsten. Man hat die Neutronen daher in den Anfängen der Kernphysik mit einer Art Kleber verglichen. Da die Masse der Elektronenhülle vernachlässigbar ist, wird die Masse eines Atoms durch die Zahl der Protonen plus Neutronen im Kern bestimmt, die chemischen Eigenschaften, wie schon erwähnt, nur durch die Protonen. Die Gesamtzahl von Protonen und Neutronen im Kern bezeichnet man als die Massenzahl, und genau das ist die 14 im Kohlenstoff-14, geschrieben auch als 14C (normalerweise mit hochgestellter 14).

Kerne mit gleich vielen Protonen gehören daher zum selben chemischen Element, und die Zahl der Protonen im Kern ist nichts weiter als die Ordnungszahl des Elements im Periodensystem. Wenn Kerne sich nur in ihrer Neutronenzahl unterscheiden, spricht man von unterschiedlichen Isotopen eines Elements. Es gibt bestimmte Verhältnisse von Protonen zu Neutronen, in denen Isotope langfristig stabil sind. Bei relativ kleinen Kernen findet man oft nur ein oder zwei solcher stabilen Isotope pro Element, und die Zahlen der Protonen und Neutronen sind sich dann meist sehr ähnlich. Beim Kohlenstoff mit seinen sechs Protonen gibt es stabile Isotope mit sechs oder sieben Neutronen, also mit den Massenzahlen 12 und 13. Hat ein Kern ein von der Stabilität abweichendes Verhältnis von Protonen zu Neutronen, dann wird er sich früher oder später (wobei später je nach Kern auch Milliarden von Jahren bedeuten kann) umwandeln, typischerweise indem ein Proton zu einem Neutron wird oder umgekehrt. Beide Formen dieser Umwandlung kamen schon im letzten Artikel beim Kalium-40 vor.

Beim Kohlenstoff ist das bedeutendste instabile Isotop der Kohlenstoff-14, bei dem zu den sechs Protonen, die es zum Kohlenstoff machen, acht Neutronen hinzukommen. Das Isotop ist relativ langlebig: Erst nach 5730 Jahren ist die Hälfte der Kohlenstoff-14-Kerne zerfallen. Anders als beim Kalium-40 gibt es hier auch nur einen Umwandlungsprozess, durch den der Kohlenstoff-14 wieder abgebaut wird, und der ist relativ naheliegend: Eins der Neutronen wandelt sich in ein Proton um, wodurch ein stabiler Kern mit je sieben Protonen und Neutronen entsteht, Stickstoff-14. An dieser Stelle kommt wieder die im letzten Artikel schon erwähnte Erhaltung der Quantenzahlen ins Spiel: Da die positive Ladung des Protons nicht einfach aus dem Nichts kommen kann, muss gleichzeitig noch eine negative Ladung freigesetzt werden, und das leichteste Teilchen mit negativer Ladung ist ein Elektron. Die Zahl der leichten Teilchen ist aber ebenfalls erhalten, so dass als Ausgleich für das Elektron noch ein ungeladenes leichtes Antiteilchen, ein Antineutrino, abgegeben werden muss, das aber in der Regel nicht direkt gemessen werden kann. Diese Art der Kernumwandlung, Neutron wird zu Proton, Elektron und Antineutrino, bezeichnet man als Betazerfall (β-, um genau zu sein), das beschleunigte Elektron, das dabei wegfliegt, als Betastrahlung.

Wie entsteht Kohlenstoff-14?

Wenn von einer Menge Kohlenstoff-14 nach 5700 Jahren schon die Hälfte in Stickstoff umgewandelt ist, sollte klar sein, dass der Kohlenstoff-14, den wir heute finden, nicht wie Kalium-40 ein Überbleibsel von der Entstehung der Erde sein kann. Das Isotop muss also irgendwie ständig neu entstehen. Der Prozess, in dem Kohlenstoff-14 produziert wird, sieht auf den ersten Blick aus wie die direkte Umkehrung des Zerfalls: Kohlenstoff-14 entsteht nämlich aus Stickstoff-14. Das kann aber natürlich nicht von allein passieren, denn ein Zerfall führt ja immer zum energetisch günstigeren, in der Regel stabileren, Zustand. Wenn sich so ein Prozess (im Ergebnis) umkehrt, muss das durch irgendetwas angetrieben werden, und das sind in dem Fall Neutronen.

Freie, also nicht in einem Atomkern gebundene Neutronen sind ebenfalls instabil. Sie zerfallen schon mit einer Halbwertszeit von 15 Minuten zu einem Proton (und natürlich auch wieder einem Elektron und einem Antineutrino) – außer sie treffen vorher auf einen Atomkern, in den sie sich einbauen und so in einen energetisch stabileren Zustand geraten können. Neutronen gehören somit auch zum gefährlicheren, weil schwer abzuschirmenden, Teil der radioaktiven Strahlung. Für technische Zwecke erzeugt man Neutronen in größerer Anzahl am einfachsten durch Kernspaltung in einem Reaktor. Wenn nur kleinere Neutronenzahlen benötigt werden oder ein Reaktor aus politischen Gründen unerwünscht ist, kann man Neutronen auch aus Atomkernen abspalten, indem man diese mit hochenergetischen geladenen Teilchen aus einem Beschleuniger beschießt. Das gleiche passiert in der hohen Atmosphäre, wenn energiereiche Strahlung aus den Tiefen des Alls auf die Atomkerne der Atmosphäre trifft und diese zum Teil einfach zertrümmert. Teilweise können die entstandenen Kernfragmente in Folgekollisionen wieder weitere Kerne zerstören, so dass neben vielen geladenen Teilchen auch Neutronen aus den Atomkernen freigesetzt werden.

Da die Atmosphäre unterhalb einer gewissen Höhe zum größten Teil aus Stickstoff besteht, ist die Wahrscheinlichkeit groß, dass der erste Atomkern, mit dem ein solches freies Neutron reagieren kann, ein Stickstoffkern ist. Stickstoffkerne bestehen aus sieben Protonen und fast immer sieben Neutronen. Naiverweise könnte man erwarten, dass ein solcher Stickstoff-14-Kern das Neutron einfach schluckt und zu einem ebenfalls stabilen Stickstoff-15-Kern wird. Auch hier führen aber wieder Erhaltungssätze für Impuls und Drehimpuls in Verbindung mit der bei der Aufnahme des Neutrons frei werdenden Energie dazu, dass wieder ein Teilchen abgegeben wird, und das ist in diesem Fall eins der Protonen aus dem Kern. Effektiv wird im Kern also einfach ein Proton durch das Neutron ersetzt (eine sogenannte n-p-Reaktion), und der resultierende Kern – Kohlenstoff-14 – mit sechs Protonen und acht Neutronen ist zwar nicht stabil, aber energetisch schon günstiger als der Anfangszustand mit dem freien Neutron.

Kohlenstoff-14 entsteht in gewissen Höhen (ganz grob da, wo auch Flugzeuge fliegen) also ständig, einfach durch Prozesse, die von der kosmischen Strahlung ausgelöst werden. Aufgrund seiner langen Halbwertszeit hat das Isotop dann viel Zeit, sich zu verteilen, bevor ein nennenswerter Teil davon sich wieder zu Stickstoff-14 umgewandelt hat. Gleichzeitig unterscheidet es sich in fast allen chemischen Reaktionen nicht von sonstigem Kohlenstoff (warum „fast“ wäre mal ein Thema für einen anderen Artikel). Es reagiert in der Regel zu Kohlendioxid, wird mit dem anderen Kohlendioxid von Pflanzen und Bakterien in Biomasse eingebaut und in der Folge auch von Tieren gefressen. Ganz grob kann man sagen, dass alles, was lebt oder kürzlich noch gelebt hat, aufgrund seines Stoffwechsels den gleichen Anteil von Kohlenstoff-14 an seinem enthaltenen Kohlenstoff hat. Das gilt auch für unsere Nahrung und für unseren Körper.

Gehört das auch zur natürlichen Strahlenbelastung?

Wie wir schon im mehrfach erwähnten letzten Artikel gesehen haben, hat Betastrahlung in festem oder flüssigem Material eine so geringe Reichweite, dass sie für Menschen nicht relevant ist, wenn sie außerhalb des Körpers entsteht. Interessant sind also nur die Zerfälle von Kohlenstoff-14, die im Körper selbst passieren. Die Zahl dieser Zerfälle (gemessen in Becquerel, also Zerfällen pro Sekunde) ist interessanterweise sehr ähnlich der, die man auch beim Kalium-40 hat. Die biologisch relevante Strahlendosis durch Kohlenstoff-14 ist allerdings viel kleiner als durch Kalium-40, weil pro Zerfall nur etwas mehr als ein Zehntel an Energie frei wird. Dementsprechend richten die herumfliegenden Elektronen auch viel weniger Schaden an. Kohlenstoff-14 ist also ein Teil der natürlichen Strahlenbelastung, macht davon aber nur einen winzigen Anteil aus.

Wie kann man das zur Altersbestimmung nutzen?

Für eine Altersbestimmung muss die Uhr ja irgendwann anfangen zu ticken. Es muss einen Zeitpunkt geben, wenn für ein Material der Anteil eines Isotops oder das Verhältnis von zwei Isotopen eingefroren werden, so dass man anschließend messen kann, wieviel seitdem zerfallen ist. Im Fall der Kalium-40-Methode war das das Zerfallsprodukt Argon-40, das beim Auskristallisieren eines Gesteins noch einen Anteil von null hat. Beim Kohlenstoff-14 nutzt man die Tatsache, dass in lebenden Organismen der Kohlenstoff über den Stoffwechsel mit der Außenwelt ausgetauscht wird und dadurch der Kohlenstoff-14-Anteil am Kohlenstoff im Organismus dem der Außenwelt entspricht. Wenn der Kohlenstoff nicht mehr ausgetauscht wird, weil der ganze Organismus gestorben oder der Kohlenstoff fest im Holz einer Pflanze eingebaut ist, dann kann kein neuer Kohlenstoff-14 aus der hohen Atmosphäre mehr hineinkommen. Der enthaltene Kohlenstoff-14 wird dann langsam zu Stickstoff zerfallen und aufgrund der abweichenden chemischen Eigenschaften von Stickstoff in der Regel entweichen. Der Anteil von Kohlenstoff-14 am Gesamt-Kohlenstoff im Material wird sich nach 5730 Jahren halbiert haben, der Rest nach weiteren 5730 Jahren noch einmal halbiert… und so weiter.

Wenn man den Anteil des Kohlenstoff-14 am Gesamtkohlenstoff bestimmt und ins Verhältnis zum ursprünglichen Anteil setzt, wird es also recht einfach, das Alter von biologischem Material zu bestimmen. Das funktioniert wieder am besten, wenn der Zeitraum ungefähr die Größenordnung der Halbwertszeit von 5730 Jahren hat – in der Praxis von einigen hundert bis einigen zehntausend Jahren.

Wie misst man das eigentlich?

Bis hierhin findet man das alles noch relativ häufig erklärt. Die meisten Beschreibungen der Methode gehen dann aber recht flott über die Frage hinweg, wie man den Kohlenstoff-14-Gehalt eines Materials denn tatsächlich misst. Für mich als experimentellen Kern-/Teilchenphysiker (das weiß bei meinem damaligen Forschungsfeld keiner so genau, wozu wir eigentlich gehören) ist aber gerade das spannend.

Die trickreiche und technisch eher einfache Methode ist, die Zerfälle von Kohlenstoff-14 zu messen. Da immer derselbe Anteil der noch vorhandenen Kerne zerfällt, kann man aus der Häufigkeit von Zerfällen die Menge des vorhandenen Kohlenstoff-14 errechnen. Die Zerfälle machen sich ja durch das abgegebene Elektron, also die Beta-Strahlung kenntlich, die sich recht einfach mit einem Halbleiterdetektor oder altmodischer mit einem Proportionalzählrohr nachweisen lassen. In beiden Messgeräten nutzt man den Effekt, dass die schnell bewegten Elektronen aus den Zerfällen weitere Elektronen aus den Atomen des Gases (beim Zählrohr) oder des Halbleiters (beim Halbleiterdetektor) herausreißen können. Diese werden dann mit einer Hochspannung beschleunigt, bis wiederum sie weitere Elektronen aus den Atomen auf ihrem Weg herausreißen können, die wieder beschleunigt werden, und so weiter, bis genügend Elektronen zusammengekommen sind, dass man sie als kleines elektrisches Signal mit einem Verstärker messen kann. Solche Messungen funktionieren für den Nachweis vieler radioaktiver Stoffe sehr gut – beim Kohlenstoff-14 gibt es aber zwei Problemchen. Erstens macht Kohlenstoff-14 eben nur diese Beta-Zerfälle, bei denen sich die Energie des Zerfalls ja auf das messbare Elektron und das nicht messbare Antineutrino verteilt – und zwar in zufällig wechselnden Anteilen. Man kann dadurch nicht sagen, dass ein Elektron einer bestimmten Energie genau aus einem Zerfall von Kohlenstoff-14 kommen muss und nicht vielleicht von irgendeinem anderen Betastrahler. Man muss also sicherstellen, dass die Probe mit keinem anderen radioaktiven Material (zum Beispiel mit Kalium-40) kontaminiert ist. Das zweite Problem ist, dass Kohlenstoff-14 so langsam zerfällt. Der gesamte Kohlenstoff im Körper eines durchschnittlichen Erwachsenen (und die Eiweiße und Fette unseres Gewebes bestehen ja zu einem großen Teil aus Kohlenstoff) verursacht weniger als 4000 Zerfälle von Kohlenstoff-14 pro Sekunde, und zwar solange der Körper noch lebt und der Kohlenstoff frisch ist. In 23.000 Jahre alten Knochen ist die Aktivität nur noch  1/16 davon, und man will ja oft nur eine Probe von ein paar Milligramm Material für die Messung verwenden. Da muss man unter Umständen ziemlich lange messen, bis man eine Häufigkeit von Kohlenstoff-14-Zerfällen angeben kann. Zudem muss man den Gesamtkohlenstoffgehalt des Materials dann noch zusätzlich mit einer anderen Methode bestimmen. Das sorgt für eine Menge Ungenauigkeiten.

Wenn man es genau wissen will, bleibt einem also nichts anderes übrig, als die Atome der unterschiedlichen Isotope einzeln auszuzählen. Das geht zum Glück automatisch in einem Massenspektrometer, ist aber trotzdem im Vergleich zur Messung der Strahlung aus den Zerfällen richtig aufwendig und teuer. Die zu analysierende Materialprobe wird dabei zunächst einmal verbrannt und das entstandene Kohlendioxid dann wieder elektrisch aufgespalten, so dass sich der Kohlenstoff auf einer Metallscheibe absetzt. Beschießt man diese Metallscheibe mit beschleunigten, elektrisch geladenen Teilchen, dann kann man einzelne Kohlenstoffatome wieder von der Metalloberfläche wegreißen. Dabei werden sie in vielen Fällen ein Elektron zu viel oder zu wenig mitbekommen haben, also elektrisch geladen sein (man bezeichnet sie dann als Ionen), so dass man sie jetzt selbst in einem elektrischen Feld beschleunigen kann. In diesem elektrischen Feld wirkt jetzt auf alle gleich geladenen Ionen (und die meisten haben eben nur die Ladung von einem Elektron zu viel oder zu wenig) die gleiche Kraft. Diese gleiche Kraft wird aber die schwereren Kohlenstoff-14-Ionen weniger stark beschleunigen als die „normalen“ Kohlenstoff-12-Ionen oder den selteneren, aber ebenfalls stabilen Kohlenstoff-13. Jetzt kann man auf unterschiedliche Arten etwas tricksen, um die Ionen noch mehr zu beschleunigen – aber immer mit elektrischen Feldern. Die leichteren Ionen werden dadurch immer schneller sein als die schweren. Dann lenkt man die Ionen um die Kurve. Das geht bei beschleunigten, geladenen Teilchen recht einfach mit einem Magnetfeld, und es passiert genau das, was man naiv erwarten würde: Die schwereren Ionen werden, obwohl sie etwas langsamer sind, ein bisschen weiter aus der Kurve getragen. Die Flugbahn ist also ein Maß für die Masse der Ionen, und wenn man einfach nur zählt (das geht wieder zum Beispiel mit Halbleiterzählern oder Zählrohren), wie viele Kohlenstoffionen wo ankommen, dann weiß man, wie hoch der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff in der Probe war. Das ist dann sehr eindeutig und genau, weil man alle Anteile mit derselben Apparatur misst und Störfaktoren sehr gut ausschließen kann, aber so ein Massenspektrometer nebst Material und Personal muss man erst einmal haben.

Welche Grenzen und Probleme gibt es?

Mit dem Massenspektrometer kann man den Anteil des Kohlenstoff-14 also sehr genau bestimmen. Neben der reinen Messgenauigkeit gibt es aber noch ein paar andere Problemchen, die die Präzision der Datierung begrenzen und die leider auch in der Presse gerne benutzt werden, um die Methode insgesamt zu diskreditieren, obwohl sie in Wirklichkeit einfach nur bedeuten, dass man eben auch bei der Radiocarbondatierung wissen muss, was man tut.

Eine vielleicht etwas überraschende Quelle von Ungenauigkeiten, weil es sich um eine tausendfach benutzte physikalische Eigenschaft eines Kerns handelt, ist die Halbwertszeit von Kohlenstoff-14. Diese wird in kernphysikalischen Datenbanken angegeben als 5730 +/- 40 Jahre. Anders gesagt, man geht nach heutigem Wissen davon aus, dass die Halbwertszeit mit einer Wahrscheinlichkeit von knapp 70 % zwischen 5690 und 5770 Jahren liegen sollte. Sie kann aber auch noch ein Stück niedriger oder höher sein. Die Ursache für die auf den ersten Blick überraschende Ungenauigkeit von knapp einem Prozent bei einer so grundlegenden Größe liegt darin, dass es nicht so ganz einfach ist, die Halbwertszeit eines seltenen, langlebigen Isotops zu bestimmen. Eine Möglichkeit, Halbwertszeiten zu messen, ist, dass man die Strahlung einer Probe über einen langen Zeitraum beobachtet, um zu messen, wie sie sich verändert. Das ist offensichtlich wenig praktikabel, wenn eine richtig deutliche Veränderung erst über Jahrhunderte zu erwarten ist, zumal auch kernphysikalische Messgeräte bei Dauerbetrieb dummerweise spürbar altern. Andererseits kann man Halbwertszeiten auch bestimmen, wenn man die Menge des zu untersuchenden Isotops und die momentane Anzahl der Zerfälle sehr genau kennt. Das geht am besten, wenn die Halbwertszeiten extrem lang sind und die emittierte Strahlung sehr charakteristisch und einfach zu messen ist, wie zum Beispiel beim Zerfall von Kalium-40 zu Argon, der immer Gammastrahlung einer genau festgelegten Energie emittiert. Kohlenstoff-14 erzeugt aber nur Betastrahlung, bei der sich, wie schon erwähnt, die für einen radioaktiven Zerfall ohnehin schon kleine Energie auch noch irgendwie zwischen Elektron und Antineutrino aufteilt. Kurz gesagt, mit sehr großem Aufwand kann man solche Messungen natürlich immer irgendwie verbessern, aber das ist in diesem Fall nicht einfach. Es ist auch die Frage, wieviel Aufwand sich da lohnt, zumal die Halbwertszeit hier ja nicht die einzige Fehlerquelle ist.

Der zweite unsichere Wert bei der Radiocarbondatierung ist der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff zum Beginn des zu messenden Zeitraums, als das biologische Material gestorben ist. Oben hatte ich sehr zuversichtlich geschrieben, dieser Anteil entspricht dem der Außenwelt – nur dummerweise ist der Kohlenstoff-14-Gehalt in der Außenwelt über die Jahrhunderte nicht konstant. Seit Beginn der Industrialisierung ist das offensichtlich, weil wir ständig zusätzliches Kohlendioxid aus fossilen Energieträgern in die Umwelt emittieren, und in diesen fossilen Stoffen hatte der Kohlenstoff-14 schon sehr viel Zeit, um zu zerfallen. Die Produktion von Kohlenstoff-14 in der Atmosphäre schwankt aber auch. Sie wird ja von der kosmischen Strahlung verursacht, die ursprünglich zu einem großen Teil aus geladenen Teilchen besteht (die Neutronen entstehen dann ja erst in Kollisionen mit den Atomkernen der Atmosphäre). Wie die beschleunigten Ionen im Massenspektrometer werden aber auch die geladenen Teilchen aus dem All durch Magnetfelder abgelenkt, und da eben vor allem durch das Erdmagnetfeld. Das Erdmagnetfeld schwankt in seiner Intensität aber ständig und hat in der Erdgeschichte auch schon des Öfteren ganz ausgesetzt. Die einfachste Möglichkeit, mit dieser Form von Ungenauigkeit umzugehen, ist, die Ergebnisse der Radiocarbondatierung zu kalibrieren, indem man sie mit Materialproben abgleicht, deren Alter man über Jahrtausende bis auf das Jahr genau kennst. Damit kommt dann plötzlich eine sehr alte und ziemlich handwerkliche Methode der Altersbestimmung zu neuer Wertschätzung, nämlich die schon mindestens seit dem 18. Jahrhundert eingesetzte Dendrochronologie, auf gut Deutsch das Auszählen der regional charakteristischen Muster dickerer und dünnerer Baumringe. Dabei wird vor allem die sehr langlebige amerikanische Borstenzapfenkiefer genutzt, aber man kann sich anhand der Muster mit erhaltenem Totholz noch weiter in die Vergangenheit hangeln. Das funktioniert über ungefähr die letzten 10.000 Jahre ganz ordentlich, aber davor, vor allem in der spannenden Zeit um die Besiedelung Europas durch den Homo sapiens und das Verschwinden der Neandertaler vor rund 40.000 Jahren herum, sind die Unsicherheiten noch relativ groß.

Die dritte Unsicherheit bei der Radiocarbondatierung bezieht sich auf die Frage, inwieweit der in der jeweiligen Probe untersuchte Kohlenstoff-14 tatsächlich ein repräsentatives Überbleibsel des Objekts ist, dessen Alter man wissen will. Dass das nicht immer stimmen kann, stellt man zum Beispiel fest, wenn man den Kohlenstoff-14-Anteil in Millionen Jahre alten Kohlevorkommen bestimmt. Darin dürfte eigentlich überhaupt kein Kohlenstoff-14 mehr übrig sein. Dennoch finden sich immer wieder Spuren des Isotops in solchen Lagerstätten, meist hart an der Nachweisgrenze der eingesetzten Verfahren, aber eben nicht null. Zum Teil kann man aus diesen Spuren ein rechnerisches Alter in der Größenordnung einiger zehntausend Jahre ermitteln. Von Kreationisten wird das regelmäßig als Nachweis präsentiert, dass  wissenschaftliche Angaben über das Alter der Erde nicht stimmen könnten und dass Kohlelagerstätten vor relativ kurzer Zeit als Folge der Sintflut entstanden seien. Dazu passt natürlich nicht, dass die gemessenen Mengen des Isotops sich zwischen Lagerstätten deutlich unterscheiden.  Tatsächlich entsteht Kohlenstoff-14  zwar überwiegend, aber eben nicht ausschließlich durch kosmische Strahlung in der Atmosphäre. Wissenschaftler, die für ihre Experimente gezielt nach besonders Kohlenstoff-14-armer Kohle suchen, berichten, dass der Gehalt des Isotops stark mit der sonstigen Radioaktivität der Lagerstätten, vor allem durch Uran, korreliert. Offensichtlich können Spuren von Kohlenstoff-14 also auch durch die Strahlung aus dem Uran erzeugt werden. Hinzu kommen gegebenenfalls auch Verunreinigungen durch Kohlenstoff in Mikroorganismen, die von außen eingetretenes Kohlendioxid aus der Luft, gegebenenfalls auch noch während oder nach der Förderung, verarbeitet und auf der Kohle hinterlassen haben. Das National Center for Science Education verweist zudem darauf, dass bei den extrem geringen nachgewiesenen Mengen unter Umständen nicht einmal klar sei, ob die gemessene Strahlung überhaupt von Kohlenstoff-14 stammt. Wie schon erwähnt, kann man aus Betastrahlung nicht eindeutig ablesen, von welchem Isotop sie emittiert wurde. Unter Umständen wird also mitunter auch Strahlung aus in den Kohlelagerstätten vorkommendem Kalium-40 oder den Zerfallsprodukten von Uran und Thorium fälschlich dem Kohlenstoff-14 zugeordnet. Das kann aber eigentlich nur passieren, wenn die Messungen nicht mit dem teureren Massenspektrometer gemacht sind, weil dort ja wirklich die Kerne und nicht ihre Betastrahlung gemessen werden.

Eine Kontamination der Proben mit neuerem Material, zum Beispiel durch eine Besiedelung mit Mikroorganismen, ist aber auch bei echten Datierungen von Fundstücken immer eine Gefahr, die bedacht und minimiert werden muss. Wichtig ist dabei, dass eine unkorrigierte Verunreinigung mit Kohlenstoff-14 aus neuem Material immer dazu führt, dass eine Probe zu jung eingeschätzt wird.

Welche Grenzen haben diese Probleme?

Alle die Unsicherheiten bei Radiocarbondatierungen, die gerade erwähnt wurden, haben ein paar Gemeinsamkeiten: Sie sind messbar, sie sind (mit Ausnahme der offenbar uneinheitlichen Ursachen der winzigen 14C-Spuren in Kohle) gut verstanden und nachvollziehbar, und sie sind vor allem insgesamt ziemlich klein. Relevant sind sie trotzdem, weil eine Fehldatierung von 50 Jahren im Mittelalter oder der Antike oder von einigen Jahrhunderten in der Zeit der Neandertaler natürlich einen erheblichen Unterschied für die Wissenschaft ausmachen können.

Leider werden auch immer wieder ganz andere Größenordnungen von Fehldatierung behauptet, und ähnlich wie bei bei den Behauptungen zu Kohlenstoff-14-Spuren in Kohlevorkommen ist das Ziel, religiösen Glaubenssätzen einen pseudo-wissenschaftlichen Anstrich zu geben. Es geht dabei vor allem um das sogenannte Turiner Grabtuch, in dem nach einer nicht einmal von der katholischen Kirche selbst anerkannten Vorstellung Jesus begraben gewesen sein soll. Ein hochauflösendes Bild findet sich hier. An sich ist dazu gar nicht viel zu sagen. Kunsthistorisch handelt es sich um ein typisches Produkt der mittelalterlichen Reliquienfertigung, die ihren Höhepunkt im 13. Jahrhundert hatte und Kirchen quer durch Europa mit zentnerweise Stücken des heiligen Kreuzes, mehreren Schweißtüchern Jesu und heiligen Lanzen sowie den Gebeinen von diversen Petrussen und Paulussen versorgt hat. Die ältesten nachgewiesenen Erwähnungen des Turiner Tuchs stammen aus der Mitte des 14. Jahrhunderts, und drei voneinander unabhängige Radiokohlenstoffdatierungen geben ein Herstelldatum im 13. Jahrhundert an. Dennoch gibt es eine treue Fangemeinde von überwiegend fachfremden Personen, die sich wissenschaftlich berufen fühlen, die Entstehung des Tuchs aufgrund von (für eine Datierung völlig ungeeigneten) chemischen Methoden, fragwürdigen Pollenanalysen oder purem Anschein ins Vorderasien vor rund 2000 Jahren  zu verlegen.

Lustig wird es bei den Versuchen, die den vorgefassten Glaubenssätzen widersprechenden Radiocarbondatierungen wegzudiskutieren, beziehungsweise ihnen lächerlich große Fehler anzudichten. Ja, aus den schon erwähnten Gründen sind Unsicherheiten von 50 oder in einigen Fällen auch 100 Jahren bei Proben aus dem Mittelalter immer denkbar, wie diese aufgrund wissenschaftlicher Daten auf Wikipedia veröffentlichte (Urheber dort nachlesbar) Kalibrationskurve zeigt:

Um angeblich 2000 Jahre alte Proben um satte 1200 Jahre falsch zu datieren, müssten allerdings schon sehr seltsame Dinge passiert sein. Wenn man von einem Wunder (wie der intensiven Strahlung der Auferstehung) mal absieht, landet man letztlich immer wieder bei Verunreinigungen durch Staub, Ruß, Mikroorganismen oder Reparaturfäden, die irgendwann zwischen dem 14. und dem 16. Jahrhundert in das Tuch gelangt sein müssten.

Abgesehen davon, dass es ziemlich absurd ist, dass das Tuch am Rand, wo die Proben entnommen wurden, unsichtbar per Kunststopfen repariert worden sein soll, während man auf die großen Löcher mittendrin einfach plumpe Flicken gesetzt hat: Überschlagen wir mal, wie plausibel ein solcher Effekt von Verunreinigungen ist, und weil es bei der Überlegung auf 50 Jahre mehr oder weniger nicht ankommt, vernachlässigen wir einfach die Kalibration und tun so, als sei der Kohlenstoff-14-Gehalt in der Atmosphäre und damit auch in frisch getrocknetem Flachs, aus dem man ein Leintuch herstellt, konstant. Diesen vereinfacht konstant angenommenen Kohlenstoff-14-Anteil setzen wir auf 100 % und betrachten, wie das Isotop über die nächsten 2000 Jahre zerfällt. Dann kommen wir auf die folgende Kurve:

Eine Radiocarbondatierung auf ein Alter von 750 Jahren bedeutet also, dass ein Kohlenstoff-14-Gehalt von rund 91,5 % des ursprünglichen Wertes gemessen wurde. Bei einer 2000 Jahre alten Probe dürfte der Restgehalt aber nur noch 78,5 % betragen. Bei den unterstellten Verunreinigungen oder Reparaturfäden wird in der Regel geschrieben, dass diese mindestens vor 500 Jahren auf das Tuch geraten sein müssten, entsprechend einem Kohlenstoff-14-Restgehalt von 94 %. Wenn man sich jetzt fragt, wieviel Verunreinigung mit 94 % Restgehalt man mit Originalmaterial von 78,5 % Restgehalt vermischen muss, um auf einen Restgehalt von 91,5 % zu kommen, stellt man fest, dass die untersuchten Proben zu 84 % aus Verunreinigungen bestanden haben müssten und nur zu einem kleinen Rest aus dem eigentlichen Tuch. Selbst wenn die Verunreinigungen vollkommen neu wären, was man ausschließen kann, müssten sie immer noch mehr als 60 % der untersuchten Proben ausmachen, um die gemessenen Werte zu erklären (eigentlich noch mehr, weil in neuen Verunreinigungen ja der Kohlenstoff-14-Gehalt duch die Verbrennung fossiler Energieträger reduziert ist). Verunreinigungen in dieser Größenordnung müsste man auf jeden Fall mit bloßem Auge erkennen können, egal, ob sie aus Ruß, Mikroorganismen oder später eingezogenen Reparaturfäden bestehen.

Von alten Steinen und radioaktiven Bananen

Neulich sollte ich für Tommy Krappweis im Ferngespräch die Radiocarbondatierung (auch bekannt als C-14-Methode) erklären. Ich habe vor, das hier auch noch einmal detaillierter anzusehen, weil diese Datierungsmethode immer wieder in die Auseinandersetzungen um allerlei Pseudowissenschaft hineingezogen wird.

Beim Auffrischen meiner Erinnerung bin ich aber über eine andere Methode zur Altersbestimmung gestolpert, die ebenfalls auf Kernphysik beruht und weitaus weniger bekannt, aber ebenso spannend ist. Auch hier wird ein Zerfallsprozess aus der natürlichen Radioaktivität genutzt, um das Alter von Materialien zu bestimmen. Aufgrund der deutlich längeren Halbwertszeit blickt man dabei aber viel weiter in die Vergangenheit. Die Kalium-Argon-Datierung hilft also nicht der Geschichte und Archäologie, sondern eher der Geologie und der Paläontologie. Interessanterweise treffen wir dabei auf ein Radioisotop, das schon im Artikel über den Wodka aus Tschernobyl vorkam.

Kalium-40 wird im Gegensatz zu anderen Bestandteilen der natürlichen Radioaktivität, wie dem bereits erwähnten Kohlenstoff C-14, nicht laufend nachproduziert. Sämtliches Kalium-40, das wir auf der Erde finden, stammt aus Explosionen längst vergangener Sterne und ist Teil der Erde, seit sie sich aus einer Staubansammlung um die Sonne gebildet hat. Dennoch handelt es sich um einen instabilen Kern: Kalium-40, bestehend aus 19 Protonen und 21 Neutronen, kann sich (in den meisten Fällen) umwandeln in Calcium-40. Der Begriff Umwandlung beschreibt das besser als der gebräuchlichere, radioaktiver Zerfall. Im Detail betrachtet emittiert dabei eins der Neutronen ein negativ geladenes, hoch beschleunigtes Elektron und bleibt als positiv geladenes Proton zurück im neuen Kern, der jetzt je 20 Protonen und Neutronen hat, also ein Calciumkern geworden ist. Als Ausgleich für das sozusagen aus dem Nichts entstandene Elektron muss noch ein Antiteilchen entstehen, ein ungeladenes Antineutrino, das aber weder direkt nachweisbar ist noch Schaden anrichtet. Verantwortlich dafür, dass das Antineutrino entstehen muss, ist die Erhaltung von Quantenzahlen – ein zentraler Grundsatz der Quantenphysik, der von Quantenesoterikern fast nie erwähnt wird, weil sich damit offensichtlich nicht gut schwurbeln lässt. Problematisch ist das emittierte Elektron, das eine (natürlich mikroskopisch kleine) Spur der Verwüstung durch lebendes Gewebe ziehen und auf dem Weg diverse Moleküle zerstören kann. Wenn davon das Erbgut einer Zelle betroffen ist, kann das zum Zelltod oder, seltener aber schlimmer, zu unkontrolliertem Wachstum als Tumor führen. Daraus, dass überhaupt noch Kalium-40 da ist, ist offensichtlich, dass diese Zerfälle (besser: Umwandlungen) sehr langsam – oder vielmehr, bezogen auf einzelne Kerne, sehr selten – ablaufen: Die Halbwertszeit von Kalium-40 liegt bei 1,25 Milliarden Jahren.

Viel ist dennoch nicht mehr übrig: Nur etwas über 0,01 Prozent des auf der Erde vorkommenden Kaliums ist Kalium-40. Chemisch ist es aber vom sonstigen Kalium nicht zu unterscheiden, weshalb es sich auch sehr gleichmäßig verteilt hat. Wo immer uns auf der Erde Kalium begegnet, enthält es ziemlich genau denselben Anteil von radioaktivem Kalium-40. Kalium begegnet uns nun aber vor allem in uns selbst: Im Körper eines durchschnittlichen Erwachsenen finden sich rund 140 Gramm Kalium, also auch etwa 16 Milligramm radioaktives Kalium-40. Davon zerfallen pro Sekunde über 4000 Atomkerne (man spricht von 4000 Becquerel Aktivität), wovon die meisten die erwähnten zerstörerischen Elektronen emittieren. Das Kalium in uns macht damit rund ein Zehntel der Strahlungsdosis aus, der wir natürlicherweise ausgesetzt sind.

Da sie immer auch Kalium-40 enthalten, haben logischerweise kaliumreiche Lebensmittel eine auffällig hohe natürliche Radioaktivität. Bekannt ist das vor allem bei Bananen. Ein Kilogramm durchschnittlicher Bananen hat eine Kalium-40-Aktivität von 130 Becquerel, entsprechend etwa der Aktivität von einer halben Tasse des gefürchteten Wassers, das in Fukushima in den Pazifik abgelassen werden soll, oder von sechs Kilogramm des Getreides aus Tschernobyl, das wegen dieser Strahlenbelastung nicht mehr gegessen werden darf. Heimisches Obst oder Gemüse mit der Radioaktivität einer normalen Banane dürfte in Japan nicht als Lebensmittel verkauft werden.

Nun könnte man auf die Idee kommen, seine Strahlenbelastung senken zu wollen, indem man auf Bananen, Kartoffeln, Fisch und andere kaliumreiche Nahrungsmittel verzichtet. Das wäre aber keine gute Idee, denn wir brauchen Kalium. Unter anderem nutzt unser Körper in Wasser gelöstes Kalium als Gegenpart zum im Kochsalz vorkommenden Natrium, um den Flüssigkeitshaushalt von Zellen und den Blutdruck zu steuern. Die richtige Kaliummenge im Körper wird dabei durch die Nieren reguliert. Wenn wir mal zum Beispiel bei scharfem Bananensalat (kann ich sehr empfehlen, allerdings natürlich mit Kreuzkümmel/Cumin und nicht wie in diesem Rezept mit Kümmel) richtig zuschlagen, dann landet hinterher einfach mehr Kalium in der Toilette. Das ist also etwas ganz anderes, als wenn wir radioaktive Spurenstoffe aufnehmen, deren Konzentration im Körper, vor allem in einzelnen Organen, sich durch zusätzliche Aufnahme mit der Nahrung möglicherweise sogar sehr langfristig verändern kann.

Was können uns nun aber Kernumwandlungen von Kalium-40 über das Alter von Gesteinen erzählen? Die schon beschriebenen Umwandlungen zu Calcium nutzen da tatsächlich nicht viel, weil sowohl Kalium als auch Calcium in allen möglichen Gesteinen und in ihren Ausgangsstoffen vorkommen. Wenn man etwas über einen radioaktiven Zerfall datieren will, müssen die enthaltenen Mengen oder Mengenverhältnisse ja beim Entstehen der zu datierenden Sache irgendwie festgelegt werden.

Für die Datierung nützt uns aber ein anderer Zerfall, denn mit einer Wahrscheinlichkeit von 10,7 Prozent wandelt sich ein Kalium-40-Kern nicht zu Calcium-40, sondern zu Argon-40 um. Dabei passiert genau der umgekehrte Prozess wie beim Zerfall zu Calcium: Es ist nicht ein Neutron, das ein (negativ geladenes) Elektron abgibt, sondern ein positiv geladenes Proton fängt ein Elektron ein und wird damit elektrisch neutral, also zu einem Neutron. Wegen der Erhaltungssätze wird dabei noch ein Neutrino abgegeben (sozusagen der ladungslose Quantenzahlen-Rest des Elektrons), das aber wieder nicht weiter interessiert. Biologisch problematisch ist hierbei lediglich die freiwerdende Energie, die als ein Quant einer energiereichen elektromagnetischen Welle, sogenannter Gammastrahlung, abgegeben wird. Anders als das Elektron beim Zerfall zu Calcium zieht Gammastrahlung keine Spur der Zerstörung durch lebendes Gewebe, hat dafür aber eine größere Reichweite, bis sie in der Regel ein einzelnes getroffenes Molekül zerstört. Deswegen ist diese Art der Umwandlung von Kalium-40 für die Strahlenbelastung des Menschen eher unbedeutend.

Dass sich in demselben Kern sowohl ein Proton in ein Neutron als auch ein Neutron in ein Proton umwandeln kann und dass in beiden Fällen Energie freigesetzt wird, ist kernphysikalisch ein Sonderfall. Das liegt daran, dass im Kalium-40 die ungerade Zahl von 19 Protonen und 21 Neutronen quantenphysikalisch doppelt ungünstig ist und sowohl 18:22 (Argon-40) als auch 20:20 (Calcium-40) stabilere Zustände darstellen. Materieteilchen (sogenannte Fermionen) bilden eben gerne Pärchen.

Warum ist dieser Zerfall nun aber für die Datierung von Gesteinen interessanter als der andere? Das liegt daran, dass, während sich das Alkalimetall Kalium und das Erdalkalimetall Calcium chemisch einigermaßen ähnlich verhalten, das Edelgas Argon chemisch völlig anders reagiert (nämlich eigentlich gar nicht). Kalium und Calcium sind sehr reaktiv und kommen in der Natur fast nie als Metall vor, sondern entweder in Form von Kristallen als Gestein oder gelöst in Wasser. Ein Argonatom ist dagegen allein am stabilsten, weshalb wir den allergrößten Teil des Argons auf der Erde als Atome frei herumfliegend in der Atmosphäre finden. Gleichzeitig hat Argon weniger als das leichtere Edelgas Helium die Tendenz, durch feste Materialien einfach hindurchzudiffundieren (jetzt wissen Sie auch, warum Heliumballons auf dem Jahrmarkt in der Regel aus Metallfolie anstatt aus Gummi bestehen und trotzdem schneller Druck verlieren als luftgefüllte Ballons). Wenn nun ein Kalium-40-Atomkern in Wasser gelöst ist oder in flüssigem Magma schwimmt und sich in einen Argon-40-Kern umwandelt, dann kann das entstehende Argonatom schnell in die Atmosphäre entweichen. Passiert dasselbe aber in bestimmten Mineralen unter der Erde, dann bleibt das Argon dort im Gitter der einzelnen Kristalle eingeschlossen. Umgekehrt gilt: Findet man Argon-40 in diesen Mineralen, dann kann es eigentlich nur durch den Zerfall von Kalium-40 dorthin gelangt sein – und zwar nachdem sie in ihrer jetzigen Form ausgehärtet sind. Wenn man also feststellt, wieviel Kalium in einem Gestein vorhanden ist und wieviel vom enthaltenen Kalium-40 schon zu Argon-40 zerfallen ist, kann man ausrechnen, wie lange das Gestein schon ausgehärtet ist. Das funktioniert gut, wenn das Material nicht in der Zwischenzeit durch geologische Vorgänge wie starke Erhitzung noch einmal verändert worden ist und wenn die betrachteten Zeiträume ganz grob der Größenordnung der Halbwertszeit ähneln, also mit einigen hundert Millionen Jahren gerade in geologisch interessanten Zeiträumen. Will man hingegen wissen, aus welchem der Ausbrüche des Kilauea in den letzten 500 Jahren eine Lavaschicht stammt, dann ist dafür in der Regel einfach noch nicht genug Argon entstanden. Wenn man genau genug misst, soll es aber schon für den Ausbruch des Vesuv vor knapp 2000 Jahren reichen, was ich ziemlich beeindruckend finde.

Dieses Verfahren begegnet einem mal unter der Bezeichnung Kalium-Argon-Methode und mal als Argon-39-Argon-40-Methode, aber der Unterschied liegt eigentlich nur darin, wie man den Kaliumgehalt (zu dem man das Argon-40 ins Verhältnis setzt) genau bestimmt. Das ist dann natürlich für einen experimentellen Kernphysiker wie mich noch spannend, aber nicht mehr unbedingt für diesen Artikel…

Der selbstgebastelte „Impfstoff“ aus Lübeck

Eigentlich würde ich vom Thema Impfstoffe hier gerne etwas wegkommen, wenn ich endlich wieder mehr Zeit zum Schreiben habe, aber irgendwas ist dann doch immer. Ich hatte ja schon vor einem Dreivierteljahr damit gerechnet, dass Leute sich etwa jetzt darüber aufregen würden, wer wann geimpft wird und warum wir nicht schon viiiiieeeeeelllll mehr Impfstoff haben. Ich hatte auch schon damit gerechnet, dass die üblichen Verschwörungsschwurbler Schauermärchen über erfundene Impfschäden erzählen. Ich hatte damit gerechnet, dass Pseudoexperten, deren einzige jemals vollbrachte wissenschaftliche Leistung eine soziologische Masterarbeit ist, mit Tatsachenverdrehungen über moderne Impfstoffe auf der Spiegel-Bestsellerliste landen. Mir war auch von Anfang an klar, dass Altenaivmediziner anfangen würden, homöopathische oder „geistige“ Impfungen zu verhökern. Hätte mir allerdings jemand erzählt, dass sich, noch nach der Zulassung seriöser Impfstoffe, Menschen dafür begeistern würden, Amateure mit ungetesteten Impfstoffkandidaten an ihrem Immunsystem herumpfuschen zu lassen, und dass etablierte Medien das noch anstacheln würden, dann hätte ich der betreffenden Person unterstellt, sie hätte zu viel Breaking Bad gesehen.

Im Moment werde ich aber von diversen Seite mit Anfragen, gerne garniert mit zynischen Bemerkungen gegen die Pharmaindustrie, zum angeblichen Wunderimpfstoff bombardiert, den ein Herr Stöcker aus Lübeck im Labor seiner Medizintechnikfirma entwickelt haben will. Aktuell kocht das Ganze total über, weil der Spiegel sich darüber ausgelassen hat, Stöcker habe „statt Lob und Anerkennung“ eine Strafanzeige bekommen – und um das vorwegzunehmen, ich frage mich, ob sich beim Spiegel irgendjemand zur Sach- und Rechtslage kundig gemacht hat, bevor man hier auf die Idee gekommen ist, Lob und Anerkennung könnten überhaupt zu Diskussion stehen. Oder, um die international renommierte Impfstoffgutachterin Petra Falb zu zitieren: Er hat sich definitiv massiv strafbar gemacht.“ Das Zitat habe ich hier nachträglich eingefügt – ich hatte mich in dem Punkt erst mal zurückgehalten, weil diesbezügliche Rechtsfragen nicht mein Thema sind. Ich empfehle ihren Kommentar generell zum Lesen. Inzwischen (7.3.) hat sie auch einen eigenen Blogartikel zum Thema online. Das ist unglaublich wertvoll, weil sie von der eigentlichen Problematik (ich kenne das ja nur von der Marktseite, von der grundsätzlichen Frage der Wissenschaftlichkeit her und von dem, was ich mir im Verlauf der Pandemie angelesen habe) wirklich tiefgreifende Ahnung hat. Die wichtigste Passage: „[…] es ist völlig unverständlich, wie sich hier jemand, der das Gesetz und auch die Arzneimittelsicherheit derart mit Füßen tritt, auch noch als Opfer darstellen kann. Leider muss man auch den betreffenden Journalisten, die diesen Bericht zu verantworten haben, schlechte Recherche vorwerfen – was hier zu sehen ist und vor allem wie dieses Thema aufbereitet wurde ist alles andere als objektiv und fachlich korrekt und trägt extrem zu Verwirrung und Verbreitung falscher Informationen bei.“ Lesenswert ist auch der Twitterthread des promovierten Neurobiologen Lars Dittrich, der inzwischen der MaiLab-Redaktion angehört.

Was mich ein bisschen verwundert hat, war zunächst, wer Stöcker zu diesem Hype verholfen hat, aber nach einem Hinweis aus der Twitter-Community dämmert mir langsam, aus welcher Ecke solch treue Gefolgschaft kommt. In seinem Blog wettert er gegen „Klimahysterie“ und geschlechtsneutrale Formulierungen, erklärt, die AfD habe „heute in vielen Sachfragen die besten Argumente“ und ruft wegen der Aufnahme von Flüchtlingen zum „Sturz der Kanzlerin Merkel“ und zu einem „Aufstand der Anständigen“ auf.

Was hat er aber jetzt bei seinem „Impfstoff“ gemacht: Er hat einen Bestandteil des SARS-CoV-2 Virus im Labor nachgebaut. Seine Idee ist, man spritzt diesen Bestandteil in einen Patienten, das Immunsystem reagiert auf dieses fremde Antigen, baut eine Immunreaktion auf, und die schützt dann auch gegen das ganze Virus. Das ist vom Prinzip her nicht viel anders, als praktisch alle westlichen Impfstoffkandidaten gegen Covid-19 funktionieren. Stöckers „Impfstoff“ wäre, falls er denn wirkte, ein Protein-Subunit-Impfstoff (die unterschiedlichen Impfstofftypen gegen Covid-19 habe ich schon im August erklärt) – sowas gibt es im Prinzip schon länger gegen Grippe, und es sind auch mehrere seriöse Kandidaten in der Entwicklung gegen Covid-19.

Warum ist aber nun bei den Impfstoffen und Impfstoffkandidaten der seriösen Labore und Hersteller alles doch ein bisschen komplizierter? Nun, die Erfahrung hat über viele Jahre gezeigt, dass, wenn man einfach nur ein fremdes, wirkungsloses Protein in hinreichender Menge in einem Muskel spritzt, das Immunsystem zwar reagiert und auch Antikörper produziert, die Wirkung aber weder stark noch andauernd genug ist, um einen längerfristigen Schutz zu erzeugen. Damit das Immunsystem dennoch einen entsprechenden Schutz aufbaut, verwendet man in der Regel einen der folgenden Tricks:

  • Man präsentiert dem Immunsystem das Antigen über einen längeren Zeitraum immer wieder, indem man z.B. Körperzellen dazu bringt, es nachzuproduzieren. Das tun die in meinem Artikel genannten RNA-, DNA- und Vektorvirusimpfstoffe.
  • Man bindet das Antigen in eine Struktur ein, die irgendwie virusähnlich aussieht (virus like particle, VLP), um dem Immunsystem etwas Gefährliches vorzutäuschen. Solche Impfstoffe sind gegen Covid-19 noch nicht in fortgeschrittenen Entwicklungsphasen. Falls zugelassen, wäre auch die Produktion nicht einfach.
  • Man sorgt dafür, dass durch eine lokale Entzündung am Ort der Injektion das Immunsystem wild auf alles losgeht, was gerade dort auftritt, also vor allem auf das dort injizierte Antigen. Das erreicht man mit sogenannten Impfadjuvantien (das historisch bekannteste davon sind übrigens die von Verschwörungsgläubigen gerne verteufelten und heute eher selten verwendeten Aluminiumsalze). So funktionieren praktisch alle seriösen Protein-Subunit-Impfstoffe, die gegen Covid-19 in der fortgeschrittenen Entwicklung sind. Das sind nach aktuellem Stand allein schon 24 Impfstoffkandidaten – ein weiterer wurde im Lauf der Patientenstudien schon aufgegeben.

Könnte es theoretisch sein, dass aus irgendeinem ominösen Grund ein solo gespritztes Protein trotzdem zu einer schützenden Immunreaktion führt, wenn es nicht von einem seriösen Hersteller, sondern von Stöcker kommt? Denkbar ist vieles. Zum Beispiel könnte eine bei ihm produktionsbedingte Verunreinigung zufällig als noch unbekanntes Impfadjuvans wirken. Das ist eben nur sehr, sehr, sehr unwahrscheinlich. Wesentlich wahrscheinlicher wäre, dass eine solche Verunreinigung zufällig gesundheitsschädlich ist. Wie es mit systematischer Adjuvierung von Stöckers Impfstoff aussieht, ist vollkommen unklar. Auf seiner Homepage erklärt er tatsächlich, der Impfstoff sei mit Alhydrogel (ja, dem angeblich doch so bösen, bösen Aluminium!!!) adjuviert, während er in Interviews wie dem verlinkten Spiegel-Video regelmäßig behauptet, es handele sich nur um ein Antigen. Eine dieser Behauptungen kann offensichtlich nicht stimmen.

9.3.21: So langsam trudeln von ein paar gutinformierten Lesern neue Hinweise ein, und ich kann mir über diesen Kerl einfach nur immer mehr an den Kopf fassen. Auf seiner Homepage schreibt er ausdrücklich, dass er in dem Zeug, das er seinen Angestellten injiziert hat und das er als „Impfstoff“ in Verkehr bringen will, Alhydrogel vom Lieferanten InvivoGen verwendet. Na gut, werfen wir mal einen Blick auf die Produktbeschreibung auf der Homepage des Herstellers, und was lesen wir da?InvivoGen products are for research purposes only; they are not for use in humans. Wie verantwortungslos kann man eigentlich sein?

Nun behauptet Stöcker aber, sein „Impfstoff“ schütze trotzdem. Ob das stimmt, weiß ich nicht. Was ich aber weiß, ist, dass er es auch nicht weiß. Und Christian Drosten und Hendrik Streeck, von denen er behauptet, sie hätten die Wirksamkeit bestätigt (die das aber offenbar öffentlich nicht bestätigen wollen), können das ebenfalls nicht wissen. Dazu müsste man nämlich sehen, dass die damit Geimpften signifikant weniger häufig erkranken als Ungeimpfte. Genau das ist es, was die Entwicklung eines seriösen Impfstoffs so teuer und bei den meisten anderen Erkrankungen auch langwierig macht. Genau dieser Nachweis macht den Unterschied aus zwischen einem Impfstoff und irgendwas, was sich irgendwer in irgendeinem Labor zusammengebraut hat – und von dem in diesem Fall wie schon erwähnt auch sehr, sehr, sehr unwahrscheinlich ist, dass es schützt.

Wenn man nicht ausschließen kann, dass Stöckers Protein auch ohne ein gezielt eingesetztes Adjuvans wirkt, könnte man ja zumindest sagen, vielleicht hat er keinen Impfstoff, aber möglicherweise einen Kandidaten für die Impfstoffentwicklung? Im Prinzip schon. Das ist der erste und banalste Schritt in der Entwicklung eines Arzneimittels – man baut sich ein Molekül zusammen, von dem man hofft, dass es eine Wirkung hat und niemanden umbringt. Das hat auch gegen Covid-19 nach exakt dem gleichen Prinzip eine ganze Reihe von Pharmaherstellern schon vor einem Jahr getan. Die haben einen Bestandteil des SARS-CoV-2-Virus (in der Regel das Spike-Protein oder ein Teil davon mit irgendwas drangehängt) genommen und im Labor nachgebaut und mit unterschiedlichen Adjuvantien in Zellkultur- und Tierversuchen getestet, wie sie die beste Immunreaktion bekommen. Genau auf dem Stand ist er jetzt. Es ist allerdings auffällig, dass von dieser Art Impfstoffe noch keiner zugelassen ist. Offenbar ist es selbst mit sorgfältig ausgewählten und in ihrer Dosierung optimierten Adjuvantien nicht ganz trivial, aus einem Protein-Impfstoff eine gute, verträgliche Schutzwirkung gegen Covid-19 zu bekommen. Der fortgeschrittenste derartige Kandidat, von Novavax, steht aber inzwischen in mehreren Ländern kurz vor der Zulassung.

Dass viele Moleküle (mehr als 99,9%) den Schritt vom vielversprechenden Laborkandidaten zum zugelassenen Arzneimittel nie schaffen, ist ganz normal. Die meisten derartigen Entwicklungen, die in einzelnen Zellen noch gut gewirkt haben, müssen schon nach Tierversuchen aufgegeben werden. Diesen vor allem für die Sicherheit der Testpersonen wichtigen Zwischenschritt hat der gute Mann ganz offensichtlich einfach ausgelassen und gleich mal Menschen als Versuchskaninchen benutzt. Nun gut, es scheinen zufällig alle überlebt zu haben. Also, hoffentlich. So genau weiß er das ja nur selbst. Wer so etwas seriös betreibt, muss seine Patientenversuche vorher öffentlich nachvollziehbar registrieren, damit man unliebsame Daten nicht verschwinden lassen kann.

Wenn Tierversuche gut laufen, macht man Verträglichkeitstests (Phase I) an Freiwilligen, in denen man bei einem Impfstoff auch erkennt, ob das Immunsystem wenigstens kurzfristig Antikörper und eine T-Zell-Reaktion produziert. Entsprechende Daten hat Stöcker nicht veröffentlicht (und ich habe große Zweifel, ob die meisten dafür erforderlichen Informationen jemals erhoben wurden), aber er würde wahrscheinlich behaupten, eine Phase-I-Studie hätte er mit seinem illegalen Verspritzen gemacht – eine angebliche Phase-I-Studie ohne die zum Schutz der Versuchspersonen erforderliche Genehmigung, ohne Ethikkommission, ohne medizinische Überwachung der Versuchspersonen und ohne sachgerechte Dokumentation der Ergebnisse. Dafür behauptet Stöcker, die Gespritzten hätten danach Antikörper gegen SARS-CoV-2 gehabt. Wie erwähnt, irgendeine Immunreaktion bekommt man eigentlich immer, aber ein dauerhafter Schutz wäre sehr, sehr, sehr unwahrscheinlich. Und er müsste, wenn er denn existierte, erst mal bewiesen werden. Genau dazu gibt es die folgenden Erprobungsphasen, die Stöcker mal eben als „bagatellartige Immunisierung“ abtut, die aber die einzige Möglichkeit sind, eine Schutzwirkung zu erkennen.

Nach erfolgreicher Phase I kann man die Ergebnisse also mal einer Ethikkommission und dem Paul-Ehrlich-Institut vorlegen, ob der zu erwartende Nutzen das Risiko rechtfertigt, das Zeug einer größeren Probandenzahl (so 500 bis 2000) in der Phase II zu verabreichen, in der man dann schon systematischere Aussagen zur Sicherheit bekommt. Bei anderen Arzneimitteln sieht man in der Phase II auch meist schon eine Wirkung – dafür hat man aber bei einem Impfstoff, gerade bei der Häufigkeit von SARS-CoV-2-Infektionen in den meisten Ländern, noch viel zu wenig Probanden.

In der Phase III braucht man dann so zwischen 30.000 und 50.000 Probanden in Gebieten mit relativ hoher Infektionstätigkeit, um nachweisen zu können, dass die Immunreaktion tatsächlich vor einer Erkrankung schützt. Wenn man das geschafft hat, und alle zugelassenen Impfstoffe haben das geschafft, dann kann man eine Zulassung beantragen.

Insofern, ja, mit einem zwei- bis dreistelligen Millionenbetrag für Patientenstudien könnte Stöcker in sechs bis neun Monaten soweit sein, dass das Zeug zugelassen wird – falls es denn tatsächlich irgendwie schützt und sicher ist. Nur sind da eben schon 24 Andere mit dem identischen Ansatz besser umgesetzt (nämlich mit Adjuvans) und nochmal 52 Andere mit anderen Impfstoffansätzen, die alle auf genau diesem Weg schon viel, viel weiter sind.

Es gibt aber noch ganz andere Erfahrungen mit der Entwicklung von Covid-Impfstoffen nach Stöckers Muster. CSL-Sequirus, einer der weltgrößten Hersteller von Grippeimpfstoffen, hat sein Projekt für die Entwicklung eines Protein-Subunit-Impfstoffs gegen Covid-19 aufgegeben, offensichtlich weil sich in Patientenstudien ergeben hat, dass der Impfstoff nicht gleichzeitig sicher und wirksam einsetzbar hinzubekommen war. Sanofi und GSK, zwei Pharmariesen mit breiter Impfstofferfahrung, hängen in ihrer Entwicklung eines solchen Impfstoffs seit vielen Monaten in frühen Patientenstudien fest und peilen jetzt eine Markteinführung frühestens zum Jahresende an. Ein weiterer der weltgrößten Impfstoffhersteller, MSD, hat seine Entwicklung eines Vektorvirusimpfstoffs aufgeben müssen und wird seine Produktionskapazität jetzt wohl an andere Hersteller vermieten. Es gibt also wesentlich kompetentere Leute mit wesentlich mehr Geld, die vor einem Jahr auch da waren, wo Stöcker jetzt ist, und die in der Zwischenzeit einsehen mussten, es funktioniert nicht. Es ist in der Arzneimittelentwicklung vollkommen normal, dass Substanzen, die vor und noch in Phase I extrem vielversprechend aussehen und unter Umständen schon mehrere hundert Millionen Euro verschlungen haben, sich dann in den großen Patientenstudien als unbrauchbar herausstellen. Stöcker möchte seinen „Impfstoff“ praktischerweise ohne diese kritischen Studien auf die Menschheit loslassen: „Denn eine Zulassung würde zu viel Zeit beanspruchen, in Deutschland bestimmt Jahre. Aber man bedarf in der aktuellen katastrophalen Situation keiner langwierigen Doppelblindversuche…“ Komischerweise haben die seriösen Covid-Impfstoffe, von denen wir aus Patientenstudien wissen, dass sie tatsächlich wirken und sicher sind, für eine Zulassung in Deutschland aber eben keine Jahre gebraucht. Die sind ja schon im Einsatz.

Und wenn man bis dahin das Stöcker-Zeugs außerhalb einer genehmigten, medizinisch überwachten Studie irgendwem spritzt, dann ist das keine Impfung, sondern schlicht Quacksalberei und Körperverletzung.

Und was mich an der ganzen Sache besonders ärgert, ist, dass sich deutsche Medien, nach ersten Meldungen schon im vergangenen Jahr, in den letzten Monaten alle paar Wochen wieder von diesem Selbstdarsteller an der Nase herumführen lassen.

Noch ein Impfstoff-Update: Nachrichten von AstraZeneca und ein paar Fragezeichen

So, das packe ich jetzt mal in ein neues Update, denn die heutige (naja, jetzt ist es schon nach Mitternacht…) Meldung von AstraZeneca (AZ) enthält ein paar interessante Informationen, bietet Anlass für ein paar wichtige Erklärungen und wirft gleichzeitig ein paar neue Fragen auf.

Ich hatte in mehreren Artikeln erwähnt, dass ich etwas ungeduldig auf erste Ergebnisse aus den Phase-III-Studien von AstraZeneca warte. Der Grund, warum ich diesen Impfstoff so wichtig finde, ist, dass er sehr helfen kann, möglichst schnell möglichst viele Menschen geimpft zu bekommen. Das hat mehrere Gründe, die jeweils für unterschiedliche Gruppen wichtig sind:

  • Der Vektorvirusimpfstoff (zu den Impfstofftypen siehe hier) von AZ ist als fertiges Produkt einem normalen Impfstoff chemisch relativ ähnlich und wesentlich einfacher transport- und lagerfähig als die RNA-Impfstoffe von Pfizer und Moderna, auf die ich hier schon eingegangen war. Je weiter wir uns aus den Hauptmärkten Europa/USA/Japan herausbewegen, desto wichtiger wird das. Der Impfstoff könnte aber auch hierzulande außerhalb von Impfzentren durch die Hausärzte verimpft werden.
  • Da die Art, wie das Immunsystem angeregt wird, eine andere ist (über ein tatsächliches Virus anstatt durch eine größere Menge im Körper aus RNA erzeugter Virusteile) könnte dieser Impfstoff ein anders Wirk- und Nebenwirkungsprofil haben und bei anderen Zielgruppen einsetzbar sein als die einander sehr ähnlichen Impfstoffe von Pfizer und Moderna.
  • AZ hat von allen Herstellern die größte und kurzfristigste Lieferzusage an die EU – und hatte schon vorher im Juni einen Vertrag mit Deutschland, Frankreich, Italien und den Niederlanden abgeschlossen, von dem nie richtig öffentlich klargestellt wurde, ob der durch den Vertrag mit der EU erloschen ist. Da könnte nach einer Zulassung also relativ schnell eine große Menge Impfstoff in Deutschland bereit stehen. Dass AZ in der Pressemeldung mehrfach darauf verweist, zum Selbstkostenpreis zu liefern, klingt gut, macht aber zu den ebenfalls sehr zurückhaltenden Preisen der anderen Hersteller wenig Unterschied. Niemand, auch nicht die in der Branche als sehr am Ergebnis orientiert bekannte Pfizer, hat ein Interesse, sich aus einer kurzfristigen Machtposition heraus die Taschen voll zu machen, um dann in den nächsten Jahren bei Preisverhandlungen über die ganzen anderen Produkte von der Politik an die Wand genagelt zu werden.
  • Vor allem ist AZ aber wichtig für den Rest der Welt, denn die Masse macht’s: AZ hat seit dem späten Frühjahr ein Netzwerk von Partnern aufgebaut, das schon im August von allen Entwicklungen die größte Produktionskapazität umfasst hat und seitdem auf drei Milliarden Impfdosen (ausreichend je nach Dosierung für 1,5 bis 2 Milliarden Patienten) bis Ende 2021 angewachsen ist. Die AZ-Partner hätten natürlich bei einem Scheitern der Entwicklung auf andere Impfstoffe umstellen können, aber das hätte Zeit gekostet, und das AZ-Bündnis hat offenbar auch schon in relativ großem Umfang vorproduziert.

Es ist also wichtig, dass gerade dieser Impfstoff auch hilft, und jetzt kommt die erste Bestätigung einer tatsächlichen Schutzwirkung am Probanden. Die Zahlen wirken auf den ersten Blick nicht so spektakulär wie bei den Wettbewerbern: Im Durchschnitt 70 Prozent Schutzwirkung sind zwar okay, liegen aber deutlich unter dem Traumwert von 95 Prozent, den wir zuletzt gehört hatten. Außerdem beruhen die Ergebnisse nur auf Daten aus Großbritannien und Brasilien – der US-Teil der Studie fehlt wegen der in meinen vorherigen Artikeln schon erwähnten Verzögerungen noch. Gleichzeitig hatte Europa während eines großen Teils der bisherigen Studiendauer wenig Fälle. Die Ergebnisse beruhen also wohl zu einem großen Teil auf den gerade mal 10.300 Probanden in Brasilien (offenbar alle aus Sao Paulo), von denen, und das ist hier ausnahmsweise mal deutlich nachzulesen, die Hälfte zur Placebogruppe gehört. Auch die Suche nach seltenen Nebenwirkungen ruht bislang nur auf 11.636 Probanden, die über beide Länder den tatsächlichen Impfstoff bekommen haben.  Dass da keine schweren Nebenwirkungen aufgetreten sind, ist aber trotzdem schon mal sehr gut. Zur Erinnerung: Von den 11.636 würden sich ohne Impfstoff fast 9.000 früher oder später infizieren, und geschätzt 50 bis 100 würden daran sterben.

Was mir ein bisschen seltsam vorkommt – wobei man immer sagen muss, ich bin kein Immunologe – ist der in der Pressemitteilung auch dargestellte Vergleich zwischen zwei Teilgruppen der Stichprobe. Der größte Teil der Impfstoff-Probanden hat zwei volle Impfdosen im Abstand von einem Monat bekommen. Eine kleinere Teilstichprobe von 2.741 Probanden hat jedoch bei der ersten Impfung nur eine halbe Dosis bekommen, und bei denen errechnet sich ein Impfschutz von 90 Prozent im Vergleich zu nur 62 Prozent beim Rest der Geimpften (im Durchschnitt ergibt das dann die 70 Prozent). Laut Pressemitteilung ist das alles statistisch signifikant auf einem sehr hohen Niveau – was sich aber vermutlich auf den Vergleich mit der Nullhypothese (Impfung wirkt gar nicht) bezieht. Was mich interessieren würde, ist, wie signifikant der Unterschied zwischen den beiden Teilstichproben ist. Ganz naiv würde man schließlich erwarten, dass unterschiedliche Dosierungen entweder gleich gut wirken oder viel auch viel hilft – eventuell um den Preis von mehr Nebenwirkungen. Ein sich umdrehender Dosis-Wirkungs-Zusammenhang erscheint mir… naja, zumindest klärungsbedürftig. Wenn sich das in den Laborwerten der Probanden bei den früheren Phasen auch schon so abgezeichnet hätte, dann würde das die These, dass das ein echter Effekt ist, natürlich stützen. Noch deutlicher wäre, wenn das im amerikanischen Teil der Phase III auch herauskäme. Bis der da ist, hilft wohl nur Abwarten.

Worauf man wohl ebenfalls noch warten muss, was die AZ-Studien aber mittelfristig liefern sollten, ist eine Antwort auf die elendigliche Frage, ob der Impfstoff jetzt nur vor der Krankheit oder vollständig vor der Infektion (und damit auch der Ansteckung anderer) schützt. Wie ich schon geschrieben hatte, sind 95 Prozent weniger erkannte Infektionen eigentlich nicht dadurch zu erklären, dass ein Impfstoff nur den Ausbruch von Krankheitssymptomen verhindert, aber hier wird man es auch direkt herausfinden. Beim britischen Teil der Phase III werden tatsächlich alle 12.390 dortigen Probanden wöchentlich per Abstich und PCR nachgetestet, um auch symtomlose Infektionen erkennen zu können. Mit der im Lockdown zwar sinkenden, aber immer noch hohen Zahl von Infektionen im Königreich sollten da irgendwann Ergebnisse kommen. Die zweite Möglichkeit, das zu klären, besteht nach dem Abschluss des US-Teils der Phase III: Dort sollen die Probanden nach Studienende auf Antikörper gegen Bestandteile des SARS-CoV-2-Virus getestet werden, die nicht Teil des Impfstoffs sind – eine Möglichkeit, die ich schon einmal erwähnt hatte. Werden die gefunden, muss der Proband infiziert gewesen sein, ob das Virus dabei nachgewiesen wurde oder nicht. AZ geht das Thema also gleich auf zwei Wegen an, wovon der erste auch richtig Geld kosten dürfte. Die Phase-III-Studie von AZ (genau genommen sind es mehrere Einzelstudien) gefällt mir richtig gut – die bisherigen Ergebnisse sind halt eher dünn, weil noch zwei Drittel der geplanten Probanden (die aus den USA) fehlen.

Was mir hier auch gut gefällt, ist die trickreiche Placebokontrolle: Die Patienten bekamen in Großbritannien und Brasilien nicht einfach eine Salzlösung als Placebo, sondern einen schon zugelassenen Impfstoff gegen die von Zecken übertragenen Meningokokken. Der sollte natürlich gegen SARS-CoV-2 genauso wenig nutzen wie Salzlösung, aber er erzeugt die typischen Nebenwirkungen, die man eben von einem Impfstoff erwartet: Rötung, dicken Arm, Müdigkeit, eventuell etwas Fieber. Die Probanden können also nicht an fehlenden Nebenwirkungen erraten, dass sie zur Placebogruppe gehören, was die Verblindung deutlich verbessert. Falls Impfgegner wieder sagen, das sei kein richtiges Placebo – der US-Teil der Phase III nutzt ein klassisches Salzlösungs-Placebo, wie bei Pfizer und Moderna auch.

Was ist also mein Zwischenfazit? Wenn ich mich auf Basis der heute vorliegenden Informationen entscheiden müsste, ob ich mich impfen lasse, würde ich es mit jedem der drei Impfstoffe sofort tun. Wenn ich mir aussuchen dürfte, mit welchem, würde ich nach heutigem Wissen den von Pfizer nehmen – wegen der vielleicht (vielleicht aber auch nicht) tatsächlich besseren Wirksamkeit, wegen der momentan größeren Datenbasis zur Sicherheit und weil ich RNA-Impfstoffe (die im Körper relativ direkt zur Produktion einzelner Virusproteine führen) inhärent minimal sicherer finde als Vektorvirusimpfstoffe (bei denen diese Proteinproduktion durch ein echtes Virus ausgelöst wird, auch wenn das für Menschen völlig ungefährlich sein sollte).

Einstweilen hoffe ich aber, dass wir bei den aktuellen Wirksamkeitsdaten einen brasilianischen Sondereffekt sehen und sich die Wirksamkeiten zwischen den Impfstoffen noch angleichen – und dass wir nicht am Ende darüber diskutieren müssen, wer den guten RNA-Impfstoff bekommt, während sich die Masse mit einem eventuell etwas weniger wirksamen Volksimpfstoff begnügen muss.

Kurzes Impfstoff-Update: Der zweite Kandidat mit guten Zwischenergebnissen

Zuletzt aktualisiert am 20.11.20

Da die Berichterstattung in den gängigen Medien zu den aktuellen Impfstoffentwicklungen mir in vielen Punkten immer noch nicht so richtig gefällt (manches ist sehr lang und schwer verständlich, manches voller Fehler), fasse ich kurz zusammen, was ich an den heutigen Meldungen für wichtig halte:

  • Mit Moderna hat jetzt ein zweites US-Unternehmen Zwischenergebnisse aus einer Phase-III-Studie zu einem SARS-CoV-2-Impfstoff vorgestellt, und auch die zeigen einen Schutz vor Infektionen von irgendwo oberhalb von 90% (die errechnete Zahl von 94,5% aus ganzen 95 Fällen sagt wenig Genaueres aus). Auch hier gibt es natürlich bislang nur eine Pressemitteilung, keine wissenschaftliche Publikation.
  • Es handelt sich ebenfalls um einen RNA-Impfstoff, also sehr ähnlich zu dem von BioNTech und Pfizer. Der Moderna-Impfstoff soll aber länger bei Kühlschranktemperatur lagerfähig sein, was vor allem für weniger entwickelte Länder wichtig sein könnte, und bei uns später, wenn die Impfungen sich von Impfzentren in Hausarztpraxen verlagern. Impfstoffe bis kurz vor dem Verbrauch in flüssigem Stickstoff zu lagern zu müssen, lässt sich über Pharmagroßhandel und Apotheken nur schwer einrichten. Hier hätten die Vektorvirus-Impfstoffe von AstraZeneca und der russischen Gamaleya Vorteile, wenn sich Sicherheit und Wirksamkeit bestätigen, weil die einfach im Kühlschrank, zum Teil sogar als Pulver, monatelang lagerfähig sind. AstraZeneca hat aber nach ein paar Problemen in den Phase-III-Studien (die sehr wahrscheinlich einfach nur Pech waren) einen gewissen zeitlichen Rückstand in der Erprobung. Update 20.11.20: Eine breite Einsatzfähigkeit des russischen Impfstoffs scheint sogar noch in relativ weiter Ferne zu liegen: Nachdem im August PR-trächtig schon Personen geimpft wurden, die gar keine Studienprobanden waren, reicht die aktuelle Produktion offenbar nicht einmal, um die Teilnehmer der Studie zu impfen. Da hilft dann auch eine Vorveröffentlichung nicht, die eine Wirksamkeit von 92% auf Basis von 20 Infektionen errechnet haben will. Aber im
    merhin, irgendeine Schutzwirkung scheint auch dieser Impfstoff zu haben, und tot umgefallen sind die bislang 16.000 Probanden ganz offensichtlich auch nicht.
  • Es handelt sich um eine 1:1 placebokontrollierte Studie mit bis jetzt rund 30.000 Probanden. Es haben also bislang nur rund 15.000 Probanden tatsächlich den Impfstoff bekommen, gebenüber fast 39.000 bei Pfizer. Da auch die 39.000 für die FDA noch zu wenig waren, um seltene Nebenwirkungen auszuschließen, gehe ich davon aus, dass der Zulassungsantrag von Moderna in den USA deutlich später kommen wird als der von Pfizer.
    Update 20.11.20: Pfizer und Biontech haben inzwischen die Zielwerte für den Zulassungsantrag erreicht. Was mich verwirrt, ist allerdings , dass in der Pressemeldung (passend zu letzten) die Rede davon ist, von 43661 Probanden hätten 41135 „eine zweite Dosis des Impfstoffkandidaten bekommen“. Ich weiß nicht, ob hier die Formulierung falsch ist und die Placeboempfänger mitgezählt wurden, die natürlich keinen Impfstoff bekommen haben, oder ob die Placebogruppe bei den 43661 nicht mitgezählt ist. Die Differenz zwischen den beiden Zahlen scheint mir für eine Placebokontrolle jedenfalls sehr klein, und ich vermute, das sind Probanden, die aufgenommen sind, aber (noch) keine zweite Dosis bekommen haben. Kurz gesagt, das weiß ich nicht; das ist aus den bisherigen Veröffentlichungen nicht klar abzulesen. Anhand von inzwischen 170 Fällen berechnet Pfizer die Wirksamkeit genauer und spricht jetzt (wie Moderna) von „95 Prozent“ anstatt von „über 90 Prozent“. Die Wirksamkeit bei der Teilstichprobe der über 65-Jährigen mit 94 Prozent anzugeben, trägt für mich allerdings das Schild „Scheingenauigkeit“ in großen Lettern vor sich her.
    Noch’n Update vom 20.11.20: Gerade geht über den Ticker, dass Pfizer in den USA jetzt offiziell die Notfallzulassung beantragt hat. Okay, ist eine Formalie, aber trotzdem erwähnenswert.
  • In Europa läuft ein studienbegleitender Rolling Review für die Impfstoffe von Pfizer, Moderna und AstraZeneca. Gerüchteweise wird hier mit der ersten Zulassung im Januar gerechnet.
  • Moderna hat gezielt versucht, Risikogruppen als Probanden zu rekrutieren, allerdings niemanden unter 18. Der Impfstoff dürfte also ebenfalls zunächst nur für Erwachsene zugelassen werden. Pfizer testet außerhalb Europas auch an Jugendlichen ab 12 Jahren, hat aber noch keine Ergebnisse dazu vorgelegt.
  • Da die gemeldete Zahl von 94,5% sich laut Pressemitteilung ausdrücklich auf „confirmed cases“, also Infektionen, bezieht und nicht auf Erkrankungen, wie einige deutsche Medien gemeldet haben, erübrigt sich auch die hier zum Teil geführte Diskussion, ob der Impfstoff auch vor weiteren Ansteckungen schützt. Wer sich nicht infiziert, wird sehr wahrscheinlich niemanden anstecken.
    Korrektur 17.11.20: „Confirmed cases“ sind natürlich nur die erkannten Infektionen. Zumindest in der Moderna-Studie werden die Probanden nicht wöchentlich per Abstrich auf Viren getestet, sondern die Überwachung läuft vor allem durch elektronische Symptomtagebücher, regelmäßige Anrufe und nur drei Termine im Studienzentrum über ein Jahr. Die Diagnose läuft dann wie bei jedem anderen auch über einen lokalen Arzt oder ein Covid-Testzentrum. Theoretisch könnte so ein Impfstoff also die confirmed cases auch reduzieren, indem er nicht die Infektion verhindert, sondern nur die Symptome so vollständig unterdrückt, dass sich die geimpften Probanden nie testen lassen. Praktisch kann das in einem modernen Gesundheitssystem aber unmöglich ausreichen, um zu einer Reduzierung der Fälle um 90 oder 95 Prozent zu führen. Infektionen werden ja auch ohne Symptome durch Kontaktverfolgung wenigstens im Familienkreis oder Screeningtests von z.B. Reiserückkehrern entdeckt. Da ein solcher Impfstoff (anders als z.B. ein Totimpfstoff) nur Antikörper gegen einzelne Virusbestandteile verursacht, könnte man solche unerkannten Infektionen auch beim Abschluss der Studie noch nachweisen, indem man auf Antikörper gegen andere Teile des Virus testet, die nicht vom Impfstoff verursacht sein können. Realistisch muss man aufgrund der Daten jedenfalls davon ausgehen, dass die Wirkung des Impfstoffs zumindest zum allergrößten Teil darin besteht, dass tatsächlich Infektionen (und damit dann auch Ansteckungen) verhindert werden, und nicht nur der Ausbruch der Krankheit.
  • Nicht minder sinnlos ist allerdings die Diskussion in der Moderna-Pressemeldung selbst, ob der Impfstoff bei den Wenigen, die sich dennoch infizieren, schwere Verläufe verhindern kann. Der Vergleich von 0 schweren Verläufe unter 5 geimpften Infizierten mit 11 schweren Verläufen unter 90 nicht geimpften Infizierten sagt schlicht gar nichts aus. Es gibt aber finde ich Schlimmeres, als nichts über den Einfluss des Impfstoffs auf schwere Verläufe unter den dennoch Infizierten sagen zu können, weil der Impfstoff so gut ist, dass es kaum Geimpfte gibt, die sich überhaupt infizieren.
  • Moderna ist ein kleines, spezialisiertes Unternehmen, hat aber durch Kooperationen schon im Sommer viel mehr Produktionskapazität (1 Milliarde Impfdosen ausreichend für 500 Millionen Patienten) gemeldet als der Riese Pfizer. Daran ändert auch die neu zugekaufte eigene Kapazität des Pfizer-Partners BioNTech in Marburg wenig. Modernas Kapazitätsvorteil könnte vor allem für Menschen außerhalb der Hauptmärkte USA/EU/Japan wichtig sein. Ich weiß aber nicht, inwieweit diese Produktionspartner bereit sind, vor einer Zulassung schon vorzuproduzieren. Es kann also sein, dass diese Produktion so richtig erst im Frühjahr anläuft. Auffällig ist auch, dass Modernas Lieferant Catalent Produktionsverträge für mehrere konkurrierende Impfstoffentwicklungen hat – die werden vermutlich zumindest zum Teil alternativ eingeplant sein und nicht gleichzeitig. Da die chinesische Sinovac (die mit ihrem altmodischeren Totimpfstoff vor allem Länder außerhalb der Hauptmärkte auf dem Schirm haben dürfte) auch Verzögerungen in den Studien hat, könnte es also tatsächlich sein, dass die USA mit Vorteilen aus dem Rennen um Impfstoffdosen kommt. Update 20.11.20: Der Leser RPGN01 hat freundlicherweise in den Kommentaren darauf hingewiesen, dass die Unterbrechung bei Sinovac wohl nur extrem kurz war, nachdem sich die Todesursache als Suizid herausgestellt hatte.
  • Die EU verhandelt schon seit einigen Wochen mit Moderna, aktuell wohl über 160 Millionen Dosen in 2021, hat aber noch keinen festen Liefervertrag. Für die EU hängt damit immer noch viel an der Zulassung des Vektorvirusimpfstoffs von AstraZeneca oder alternativ wenigstens des Wettbewerbers Janssen. Ohne deren einfache Lagerfähigkeit, riesiges Produktionsnetzwerk und feste Lieferverträge kann 2021 noch ein langes Jahr werden…
  • Update 20.11.20: Inzwischen hat auch AstraZeneca neue Ergebnisse vorgestellt – die sind aber nicht wie bei den anderen Herstellern Vorabdaten der Phase III, sondern fassen die Ergebnisse der Phase II zusammen. Sie stammen nur von 560 Patienten und können daher nur Angaben zur Immunreaktion und zu häufigeren Nebenwirkungen umfassen, nicht zur tatsächlichen Wirksamkeit und seltenen Nebenwirkungen. Beim aktuellen Stand der Entwicklung ist das zwar solide und wichtig, aber irgendwie nicht so richtig sexy. Dass das gerade jetzt kommt, ist auch keine Reaktion auf die Konkurrenz nach dem Motto „Wir haben auch was“ – die Veröffentlichung ist eben jetzt im angesehenen Magazin „Lancet“ erschienen und somit keine Vorabmeldung, sondern tatsächlich eine wissenschaftliche Publikation. Dass die Entwickler des Impfstoffs an der Oxford University von Weihnachten als Termin der ersten Phase-III-Daten sprechen, deutet allerdings doch einen inzwischen deutlichen Rückstand an.

Warum (und wie) sich Naturwissenschaftler zu medizinischen Themen äußern sollten

Da ich in den Kommentaren hier immer wieder gesagt bekomme, als Physiker könne oder dürfe ich mich doch nicht kompetent zu gesundheitlichen Themen äußern, wollte ich dazu gerne etwas schreiben. Jetzt habe ich aber festgestellt, besser als Florian Aigner das gerade auf Facebook getan hat, kann man (oder jedenfalls ich) das einfach nicht ausdrücken. Daher freut es mich, dass ich seinen Text hier einfach übernehmen darf. Dank und Zustimmung möge also bitte direkt an Florian gehen – für Kritik und Diskussionsbedarf bin ich auch offen, da ich das ja exakt genauso sehe.

„Warum äußerst du dich als Physiker zu medizinischen Themen wie COVID-19? Das ist doch nicht dein Gebiet!“ Das höre ich jetzt wieder besonders häufig, oft gewürzt mit üblen Beschimpfungen. Gut, ich erkläre es gerne noch einmal.
Zuallererst: Jeder darf sich immer zu allem äußern. In einer Demokratie ist es Unsinn, jemanden dafür zu kritisieren, dass er sich zu einem bestimmten Thema äußert. Kritisieren soll man ihn, wenn er zu ein Thema Unsinn erzählt. Aber wahr ist natürlich: Nur weil man das Recht hat, seine Meinung zu verbreiten, heißt das noch lange nicht, dass es eine gute Idee ist. Manchmal ist es klüger, sich nicht zu äußern, und stattdessen lieber anderen Leuten zuzuhören, die es besser wissen. Ich als Physiker ärgere mich auch manchmal, wenn Leute über Physik reden, die keine Ahnung haben. Die erzählen dann, sie hätten Einstein widerlegt oder den Energieerhaltungssatz überlistet, verstehen aber nicht einmal die einfachsten Grundlagen.
Aber genau das mache ich nicht: Ich verbreite keine eigenen Theorien über medizinische Fragen. Ich habe nämlich keine. Ich bin fachlich nicht in der Lage, die Thesen der Experten zu überprüfen oder zu widerlegen, daher käme ich auch nicht auf die Idee, das zu versuchen. Vielleicht kann ich mir als Physiker ein paar ganz einfache mathematisch-statistische Zusammenhänge ansehen – aber auch hier gibt es Leute, die das besser, detaillierter und mit mehr Hintergrundwissen machen. Ich würde mir bei solchen Dingen niemals anmaßen, ein Experte zu sein.
Zwei Dinge gibt es in dem Zusammenhang allerdings schon, bei denen ich behaupten kann, ziemlich viel Erfahrung zu haben. Erstens: Nach langer naturwissenschaftlicher Ausbildung kann ich (zumindest in gewissem Rahmen) nachvollziehen, ob jemand naturwissenschaftlich arbeitet. Ich kann zwar keine Detailfehler in medizinischen Arbeiten finden, aber ich kann in vielen Fällen zumindest haarsträubenden Unsinn als solchen erkennen. Esoteriker von Wissenschaftlern zu unterscheiden – das gelingt meist recht einfach. Und zweitens: Nach fast 15 Jahren Wissenschaftsjournalismus glaube ich, komplizierte Dinge einigermaßen verständlich erklären zu können. Wenn es darum geht, medizinische Thesen aufzustellen, bin ich sicher kein Experte. Wenn es darum geht, aufgestellte Thesen zu erklären, dann schon ein bisschen.
Manchmal führt das zu seltsamen Situationen: Es gibt manchmal ganz spezielle Ärzte, die furchtbaren unwissenschaftlichen Unsinn erzählen. Wenn ich ihnen dann widerspreche, hat das keine gute Optik: Er ist doch ein Arzt, ich „nur“ Physiker. Da muss bei medizinischen Fragen doch der Arzt recht haben, oder? Nein – nicht wenn der Physiker sich zum Anwalt der naturwissenschaftlichen Medizin macht und die Meinung der besseren, naturwissenschaftlichen Ärzteschaft vertritt, während der verhaltensauffällige Arzt (peinlicherweise) jedes wissenschaftliche Denken verlassen hat. Auch dem Automechaniker würde ich beim Autoreparieren widersprechen, wenn er das Auto gesundbeten möchte – obwohl ich ziemlich wenig Ahnung von Autos habe.
Darum geht der Vorwurf „bleib bei deinem Fachgebiet“ ins Leere. Es stimmt: Wenn jemand kein Experte ist, sich aber gegen die Meinung der Experten stellt, dann sollte man vorsichtig sein. Ihm sollte man wirklich nur dann glauben, wenn er außergewöhnlich gute Argumente hat. Aber jemanden, der die Meinung der Experten wiedergibt, dafür zu kritisieren, selbst kein Experte zu sein, ist Unsinn. Nach diese Logik dürfte es keinerlei Journalismus geben, sondern nur noch Fachpublikationen. Das will wohl niemand.
Also: Sollte ich eines Tages verrückt werden, die etablierte Medizin attackieren und stattdessen mein eigenes Wunderheilmittel verkaufen, dann sollte man mich bitte mit aller Härte kritisieren. Solange ich aber nur versuche, zwischen Wissenschaft und verständlicherer Sprache zu übersetzen, sollte man mich kritisieren, wenn ich dabei Fehler mache – aber nicht dafür, dass ich es versuche.
Bei der Gelegenheit möchte ich es mir natürlich nicht nehmen lassen, auch auf Florians neues Buch aufmerksam zu machen. Darin erklärt er genau das, woran es bei vielen der Mediziner, die wir kritisieren, genau mangelt: Die Frage, wie eigentlich Wissenschaft funktioniert und was wissenschaftliches Arbeiten ist. Und Florian schreibt auch sonst sehr viel Lesenswertes.