Es ist heute sicher die Nachricht des Tages: Der deutsche Impfstoffentwickler BioNTech und der Pharmakonzern Pfizer haben bekanntgegeben, dass sie die Wirksamkeit und Sicherheit ihres SARS-CoV-2-Impfstoffkandidaten BNT162b2 nachweisen konnten.
Das bedeutet nicht, dass die Pandemie vorbei ist. Es bedeutet nicht, dass der Winter nicht noch richtig schlimm werden kann – und in vielen Ländern sogar ziemlich sicher, in Deutschland vielleicht auch, richtig schlimm werden wird. Es heißt nicht, dass wir die derzeitigen Kontaktbeschränkungen wieder aufheben können – und ich habe nach wie vor große Bedenken, ob wir sie vor Ostern wieder aufheben können, wenn wir sie nicht erst mal deutlich verschärfen.
Die Meldung bezieht sich auf einen Zwischenbericht zur Phase-III-Studie des Impfstoffs, der von einer unabhängigen Expertengruppe erstellt wurde, nachdem in der Studienpopulation (Geimpfte plus Placebogruppe) mindestens 62, tatsächlich waren es 94, nachgewiesene Infektionen mit SARS-CoV-2 aufgetreten waren. Der Impfstoff soll danach einen 90-prozentigen Schutz vor Infektion geboten haben. In Presseartikeln war von rund 40.000 Probanden die Rede, und naiv könnte man von 20.000 Geimpften und 20.000 Placeboprobanden ausgehen und daraus die Verteilung der Fälle hochrechnen wollen. So einfach ist es aber nicht, denn die Gruppen waren nicht annähernd gleich groß. Der Grund ist erstens, dass unterschiedliche Dosierungen des Impfstoffs getestet wurden, zweitens dass man die Placebogruppe nur für den Nachweis der Wirksamkeit braucht, nicht für die Suche nach Nebenwirkungen. Nach der Pressemeldung haben 38.955 von 43.538 Probanden den Impfstoff erhalten. Da der Impfstoff keinen Wirkverstärker enthält (es handelt sich um einen der von Clemens Arvay und anderen Verschwörungsideologen gerne verteufelten RNA-Impfstoffe), hat die Placebogruppe auch eine einfache Placeboimpfung mit Kochsalzlösung bekommen, keinen Impfstoff gegen etwas anderes, wie das sonst zum Teil nötig ist. Das Gefasel von Impfgegnern, es gäbe ja kein echtes Placebo, trifft hier also nicht zu (nicht dass es sonst irgendeinen Sinn ergäbe).
Statistisch war die Infektionsrate unter den Geimpften (nicht angegeben ist, ab welcher Dosierung das der Fall war) laut Pressemeldung um 90 Prozent niedriger als in der Placebogruppe, und das ist eine großartige Nachricht. Erstens wurde im Sommer noch darüber diskutiert, dass ein Impfstoff eventuell nur 50 Prozent Schutz bieten und dennoch zugelassen werden könnte. Man hätte sich auch schon über einen Impfstoff gefreut, der Infektionen nicht verhindert, sondern nur schwere Verläufe vermieden hätte. Damit hätte man zwar die Ausbreitung der Pandemie nicht stoppen können, aber wenigstens die Risikogruppen geschützt. Bei 90 Prozent Infektionsschutz genügen rechnerisch 70 bis 75 Prozent Impfquote für eine wirksame Herdenimmunität, und die sollten wir eigentlich gut erreichen können, wenn wir die Zustimmung zu den bisherigen Seuchenschutzmaßnahmen und den aktuellen Run auf Grippeimpfstoff (es tut mir schon fast leid, dass welcher für mich verbraucht wurde) betrachten. Was wir noch nicht wissen (und auch noch eine Zeit lang nicht wissen werden) ist, wie lange die Schutzwirkung anhält.
Die Sicherheit des Impfstoffs sieht auch extrem gut aus. Unter den 38.955 Geimpften wurde kein Fall schwerer Nebenwirkungen berichtet. Um das mal in Perspektive zu rücken: Wenn es nie einen Impfstoff gegeben hätte, hätten sich rein statistisch früher oder später rund 30.000 von diesen Personen infiziert, und 200 bis 300 davon wären daran gestorben (außer die Therapie hätte bis dahin erhebliche Fortschritte gemacht).
Die US-Zulassungsbehörde FDA hat aber eine Untergrenze von Probanden für den Sicherheitsnachweis genannt, die noch etwas höher liegt. Die soll in der dritten Novemberwoche erreicht und dann sofort die Zulassung beantragt werden. Da Pfizer schon im September erklärt hat, mit der Produktion anzufangen, sollte bei erteilter Zulassung sehr schnell Impfstoff ausgeliefert werden – geplant sind 50 Millionen Dosen (für 25 Millionen Patienten) noch in diesem Jahr. Ein Wermutstropfen aus deutscher Sicht: In der Meldung ist nur von einem Zulassungsantrag bei der FDA die Rede; die europäische Zulassungsbehörde EMA wird nicht erwähnt. Die FDA ist für Pfizer aber auch wichtiger, denn für die USA gibt es schon seit Sommer Verträge über die Lieferung dieser 50 Millionen Dosen (vorbehaltlich Zulassung) noch in diesem Jahr. Die 200 Millionen Dosen, die der EU zugesagt sind, sollen ohnehin erst 2021 kommen, und unnötig Zeit verschenken werden die Hersteller bei der europäischen Zulassung auch nicht. Dass die Produktionskapazität bei Pfizer/BioNTech nicht riesig ist, hatten die Beraterkollegen von McKinsey schon im Juli berichtet, und der Kauf der Marburger Produktion von Novartis durch BioNTech hat das nur ein Stück weit verändert.
Der wichtigere Impfstoff für Europa (und für viele andere Länder) ist der ursprünglich an der Universität Oxford entwickelte Kandidat von AstraZeneca (AZ). Im Vertrauen darauf, den aussichtsreichsten Kandidaten im Rennen zu haben, hat AZ schon früh angefangen, weltweit riesige Kapazitäten von anderen Herstellern vertraglich zu binden und 300 bis 400 Millionen Dosen für 2020 und 2021 daraus der EU zugesagt. Eine Zulassung hatte AZ schon für den Oktober angestrebt, aber im Sommer trat bei einer Probandin in Großbritannien nach der Impfung eine Erkrankung des Nervensystems auf. „Nach der Impfung“ heißt aber bei einer so großen Probandenzahl nicht „wegen der Impfung“ – Menschen erkranken immer mal, und man muss im Einzelfall prüfen, ob ein Zusammenhang mit der Impfung bestätigt werden kann. In Brasilien ist ein 28jähriger Studienteilnehmer (ebenfalls von AZ) nach der Impfung an Covid-19 erkrankt und gestorben. Es stellte sich aber heraus, dass er zur Placebogruppe gehört hatte, sein Tod mit dem Impfstoff also ganz offensichtlich nichts zu tun haben konnte. Die Erkrankung der Probandin in Großbritannien wurde als schon vor der Impfung bestehende, aber nicht erkannte Multiple Sklerose diagnostiziert. In Großbritannien und Brasilien wurde die Studie daraufhin schnell fortgesetzt, aber in den USA führte der Fall zu einer Unterbrechung der Studie über sieben Wochen – und die USA sind wegen ihrer vielen Infizierten ein wichtiges Testland für diese Studien. In Großbritannien waren die Infiziertenzahlen über den Sommer ja fast so niedrig wie in Deutschland, was es sehr schwer macht, die Schutzwirkung eines Impfstoffs nachzuweisen. Der AZ-Impfstoff wird auch vermutlich in Europa zuerst zugelassen werden, denn für diesen läuft bei der EMA ein sogenannter Rolling Review: Informationen zur Produktion und Zwischenergebnisse aus der Studie werden an die Behörde weitergegeben, sobald sie dem Unternehmen vorliegen, und nicht erst wenn der Zulassungsantrag komplett ist. Das würde man auch nicht machen, wenn die Zwischenstände nicht alle ermutigend aussähen. Schauen wir mal, was da in den nächsten Wochen kommt.
Das sind auch nicht die einzigen Kandidaten. Bei der WHO sind inzwischen 10 Impfstoffe in der klinischen Phase III gemeldet, darunter mit Janssen ein weiterer Hersteller, der bereits Vorverträge mit der EU abgeschlossen hat. Moderna, ebenfalls aussichtsreich, hat auch schon Sondierungen mit der EU geführt. Zu den 10 gehört auch der russische Impfstoff von Gamaleya, über den immer wieder widersprüchliche Berichte kursieren, ob er nun trotz noch fehlenden Wirksamkeits- und Sicherheitsnachweises schon für größere Patientengruppen angewendet wird oder nicht. Außerdem gehören zu den Top 10 das kleine US-Unternehmen Novavax, das einen guten Teil seiner Produktionskapazität vom tschechischen Partner Praha Vaccines bekommt, sowie insgesamt fünf chinesische Projekte, von denen wir auf dem europäischen Markt voraussichtlich wenig sehen werden, die aber, falls erfolgreich, für die Versorgung vor allem von Schwellen- und Entwicklungsländern wichtig werden könnten, weil drei davon ganz klassische Totimpfstoffe sind, die auch von weniger modernen Herstellern in Lizenz produziert werden könnten. Update 10.11.20: Die Erprobung eines solchen Totimpfstoffs der chinesischen Firma Sinovac in Brasilien ist nach einem nicht näher bezeichneten Problem bei einem Probanden gestern unterbrochen worden. Wie schon erwähnt, sind solche Unterbrechungen bei Arzneimittelerprobungen zum Schutz anderer Probanden völlig normal, aber sie führen natürlich zu Verzögerungen, die sich auch auf den Zulassungstermin auswirken. Mit dem Impfstoff laufen derzeit drei Studien mit zusammen 27.700 Probanden in Brasilien, Indonesien und der Türkei. Eine Erprobung in China ist wegen der erfolgreichen Kontrolle der Pandemie durch Regierungsmaßnahmen dort nicht sinnvoll.
Inzwischen bin ich gefragt worden, ob nicht ein anderer Hersteller den Pfizer/BioNTech-Impfstoff nachbauen und durch „Rechtsbruch und Piraterie“ Menschenleben retten könnte. Die Frage geht aber am eigentlichen Problem vorbei. Wenn ein Hersteller heute freie Kapazitäten für die Herstellung eines RNA-Impfstoffs anzubieten hätte, könnte man sich mit Pfizer, BioNTech und den potentiellen Abnehmerländern sicher schnell über Kooperationen, Auftragsfertigungen oder Lizenzverträge einigen. Anders ist AZ auch nicht innerhalb weniger Monate auf fast die zehnfache weltweite Impfstoffproduktionskapazität (2,7 Milliarden Dosen bis Ende 2021) wie Pfizer gekommen, obwohl das Unternehmen nur halb so groß ist. Wer solche Kapazitäten hat, hat aber entweder einen eigenen Impfstoffkandidaten in der Entwicklung oder in der Regel schon einen Vertrag für den Kandidaten eines anderen Herstellers. Wer sich auf die Produktion des Vektorvirusimpfstoffs von AZ oder der Proteinimpfstoffe von Sanofi oder GlaxoSmithKline eingestellt hatte, kann auch nicht von heute auf morgen den RNA-Impfstoff von Pfizer herstellen. Dazu sind die Impfstoffe zu unterschiedlich. Den Rückstand, dass Pfizer und AZ schon vorproduziert haben, kann sowieso keiner aufholen. Wir werden aber sicherlich sehen, dass sich Kapazitäten neu verteilen, wenn die ersten fortgeschrittenen Entwicklungen aus dem Rennen aussteigen. Ein Kandidat könnte zum Beispiel mit MSD einer der weltweit führenden Impfstoffhersteller sein, der schon im Juli betont hat, dass Produktion und Vertrieb ja ein großes Problem für alle neuen Impfstoffe sein könnten. MSD hat zufällig eine riesige Produktion nebst entsprechendem Vertrieb und ist mit seinen eigenen Projekten noch in der ersten klinischen Phase…
So oder so bin mir inzwischen sehr sicher, meine Wette zu gewinnen, dass wir im ersten Quartal in Deutschland medizinisches Personal und Risikogruppen impfen werden. Und da ich selbst höchstens gelegentlich mal ein halbes Glas trinke, werde ich wohl nach dem Ende der Kontaktbeschränkungen ein paar Freunde des badischen Weins zu mir einladen können.
Das ist jetzt schon der zweite Artikel hier in relativ kurzer Zeit, den ich nie schreiben wollte. Warum sollte ich als Physiker auch einen Artikel über die Infektionssterblichkeit bei Covid-19 schreiben? Ich bin ja kein Epidemiologe. Das muss man allerdings auch nicht, um den publizierten Stand der Wissenschaft zusammenzufassen – und genau daran fehlt es in Deutschland leider momentan, obwohl das am Tag 2 unseres „Lockdown Light“ eigentlich eine wichtige Hintergrundinformation wäre.
Zunächst mal, worum geht es? Die Infektionssterblichkeit ist der Anteil der insgesamt Infizierten, der stirbt. Sie ist deutlich schwieriger herauszubekommen als die im Frühjahr viel diskutierte Fallsterblichkeit, also der Anteil der erfassten Infizierten, der stirbt. Der lag in Deutschland und vielen anderen Ländern zeitweise um 5 Prozent, als man nur einen kleinen Teil der Infizierten überhaupt diagnostiziert hat – aber das ist natürlich wenig aussagekräftig. Sucharit Bhakdi behauptet gerne, die Infektionssterblichkeit läge bei Covid-19 bei 0,1 bis 0,2 Prozent und sei damit nicht höher als bei einer Grippe. Dass Ioannidis‘ gerne in den Medien verbreiteter Medianwert von 0,23% nicht weit darüber liegt, verleiht Bhakdi natürlich scheinbare Glaubwürdigkeit.
Mit dem Bestimmen der Infektionssterblichkeit gibt es zwei Probleme:
Erstens muss man dazu die Dunkelziffer der Diagnosen erfassen, was in der Regel dadurch erfolgt, dass man rückwirkend möglichst halbwegs repräsentative Stichproben auf SARS-CoV-2-Antikörper von schon vergangenen Infektionen testet. Dabei handelt man sich leicht allerlei Verzerrungen ein, weil man in einem freien Land ja schlecht eine zufällig ausgewählte Stichprobe zwangstesten kann. Wer einem Test zustimmt, tut das in der Regel eher, wenn er den Verdacht hat, infiziert gewesen zu sein – das ist aber nicht der einzige störende Einfluss und nicht der einzige Grund, warum es eine solche repräsentative Studie für ganz Deutschland noch nicht gibt. Eine aktuelle Antikörperstudie in Bayern zeigt immerhin schon mal, dass wir die Zahl infizierter Kinder und Jugendlicher (und damit die Rolle von Kindergärten und Schulen für die Ausbreitung von Covid-19) bislang massiv unterschätzt haben – was nichts gutes für einen Lockdown erwarten lässt, der ausgerechnet diese Einrichtungen ausklammert.
Zweitens ist die Sterblichkeit extrem altersabhängig, und da gerade kleinere Ausbrüche Altersgruppen teilweise sehr unterschiedlich betreffen, ist auch da die Gefahr groß, ein falsches Bild zu bekommen. Das schränkt auch die Aussagekraft von Studien in einzelnen Dörfern, wie der sogenannten Heinsberg-Studie, die nicht in Heinsberg, sondern in Gangelt stattgefunden hat, oder von der aus Ischgl, seeeeehr ein.
Was noch hinzukommt: Die Zahl der Todesfälle, bei denen Covid-19 diagnostiziert wurde, ist nur ein Teil der Wahrheit. Das Gerede, ob jemand „an Corona oder nur mit Corona“ gestorben wäre, ist ja hinlänglich bekannt. Die entscheidende Frage ist aber, wie viele Menschen sterben wegen eines Covid-19-Ausbruchs, und das sind nicht etwa weniger, sondern erheblich mehr als diagnostiziert werden. Ein Beispiel zeigt die Sterbestatistik über die letzten sechs Frühjahre in Italien:
Die Sterbezahlen sind aus den stärker betroffenen Regionen in Italien [nachträgliche Korrektur]. Je nachdem wie man den Abstand zum langjährigen Mittel berechnet, kommt man allein für diese Regionen im März 2020 auf 15.000 bis 20.000 Tote mehr als in diesem Monat im Durchschnitt der Vorjahre. Gleichzeitig wurden in ganz Italien nur rund 12.000 Todesfälle durch Covid-19 gemeldet. Das dürfte einerseits daher kommen, dass in einer Situation wie in Bergamo Behandlungen für andere Krankheiten zum Teil unterbleiben oder Leute sich schlicht nicht in die Krankenhäuser trauen, andererseits daran, dass alte Menschen, die zu Hause an Covid-19 sterben, unter Umständen nie getestet werden, wenn der Arzt eben Herzversagen in den Totenschein schreibt. Das ist ein Einzelbeispiel; die tatsächlichen Todeszahlen sind aber bei allen größeren Ausbrüchen deutlich höher als die erfassten. Das zeigt eine Vielzahl von Studien für eine Vielzahl von Ländern. Dieser Anstieg der Sterbezahlen ist auch nicht einfach nur, wie gerne behauptet, eine Folge des Lockdowns, denn in Ländern wie Deutschland oder Neuseeland, die im Frühjahr einen großen Ausbruch erfolgreich verhindert haben, hat der Lockdown allein nicht zu einer Übersterblichkeit geführt. Eine Studie, die auch die Veränderungen bei einzelnen Todesursachen nachverfolgt hat, zeigt sogar, dass in Südafrika der Lockdown auch die dort sehr relevanten Todesursachen Verkehrsunfälle und Tötungsdelikte spürbar gesenkt hat. Dennoch kam es in der Folge mit dem Anstieg der Covid-Erkrankungen zu einer deutlichen Übersterblichkeit.
Wie hoch ist aber nun die Infektionssterblichkeit, mit der man bei einer breiten Durchseuchung der deutschen Bevölkerung rechnen müsste? Die eingangs erwähnte Publikation in Nature von O’Driscoll et. al. wertet dazu aus 22 jeweils landesweiten Erfassungen von großen Probandenzahlen die Zahl der Verstorbenen im Vergleich zur Zahl der (nach Antikörperstudien) infiziert Gewesenen aus – und zwar nach Altersgruppen aufgeteilt. So ergibt sich ein ziemlich dramatischer Zusammenhang von Alter und Sterblichkeit (man beachte die logarithmische Skala):
Es sterben insgesamt etwas mehr Männer als Frauen, aber ganz grob liegt die Sterblichkeit bei 0,01% für Mittzwanziger, 0,1% für Mittvierziger, 1% für Mittsechziger und 10% für über 80Jährige. Diese Altersabhängigkeit allein erklärt nach der Analyse den größten Teil der Unterschiede in der Sterblichkeit zwischen unterschiedlichen Ländern und unterschiedlichen regionalen Ausbrüchen. Wendet man das auf die Altersstruktur der deutschen Bevölkerung an (auch das steht schon in der Studie), dann kommt man auf eine durchschnittliche Sterblichkeit von 0,9%. Anders gesagt, wenn man die Epidemie durch die deutsche Bevölkerung laufen ließe, bis sie durch Herdenimmunität allmählich an Bedeutung verliert, dann würden dadurch voraussichtlich rund 600.000 Menschen sterben – vorausgesetzt, wir können das durch regelmäßige Lockdowns so in die Länge ziehen (über ungefähr drei bis fünf Jahre), dass unsere Krankenhäuser dabei nicht überlastet werden (sonst würde die Übersterblichkeit wie in Italien diese Zahlen noch weit übersteigen). Ersparen können uns das nur gute Impfstoffe, die wir hoffentlich bald haben.
Wie stark die Sterblichkeit von Ausbrüchen in Pflegeheimen und ähnlichen Einrichtungen abhängt, zeigt die Studie auch: Bei der ersten Welle in Frankreich lag die Infektionssterblichkeit bei 1,1%. Hätte man alle Ausbrüche in Pflegeheimen verhindern können, dann hätte sie nur 0,74% betragen – was immer noch viel mehr ist als Bhakdis und Ionannidis‘ abenteuerliche Behauptungen. Das macht die Forderung der Lobbyisten von der „Great Barrington Declaration“ und dem Streeck-KBV-Papier nach einem gezielten Schutz nur für die Risikogruppen und „Freiheit zum Anstecken“ für alle Anderen aber nicht realistischer: Die wenigen Länder, die das wie Großbritannien oder Schweden ernsthaft versucht haben, sind damit krachend gescheitert.
Ich würde mich freuen, wenn das mit der relativ alten Bevölkerung noch eine Weile so bleibt – oder sich zumindest nicht dadurch ändert, dass wir uns aufgrund von Desinformationskampagnen und Verschwörungsglauben ein Massensterben älterer Mitmenschen einhandeln.
Eigentlich wollte ich zu Sucharit Bhakdi hier nichts schreiben. Anders als der kleinere Pseudoexperte der Schwurbelszene, Clemens Arvay, zu dem sich bis zu meinem Artikel hier so gut wie niemand von wissenschaftlich-kritischer Seite geäußert hatte (was sich inzwischen zum Glück ändert und sogar ein Stück weit auf Wikipedia niedergeschlagen hat), hat Bhakdi ja durchaus kritische Aufmerksamkeit bekommen. Anders gesagt, seine wirren Thesen zu Covid-19 sind schon seit Märzwieder und wieder und wieder und wieder auseinandergenommen worden. Eigentlich muss jetzt nicht noch ein unbedeutender Physikblogger über Bhakdi schreiben.
Dass ich es jetzt doch tue, hat zwei Gründe: Erstens geht es mir mal ganz grundsätzlich um die Frage, was jemanden eigentlich zum Experten macht, und zweitens bin ich einfach wütend. Ich bin wütend, weil Sucharit Bhakdi jetzt schon seit sechs Monaten wieder und wieder und wieder nachgewiesen wurde, dass er über Covid-19 einfach Blödsinn erzählt, aber etablierte Medien ihm wieder und wieder und wieder Sendezeit und Druckspalten einräumen und so den Eindruck erwecken, er sei für dieses Thema ein Experte mit einer abweichenden Meinung. Ganz aktuell tut das, leider nicht zum ersten Mal, die Fuldaer Zeitung – aber sie verweist dabei selbst auch auf ein aktuelles Interview bei der Deutschen Welle.
Die Deutsche Welle, immerhin DER internationale Informationskanal für die (und im Eigentum der) Bundesrepublik Deutschland, präsentiert Bhakdi in einem Musterbeispiel grotesker False Balance im Dialog mit dem Münchener Biometrieprofessor Ulrich Mansmann und bemerkt dazu, in Sachen Coronavirus seien die beiden „nicht immer einer Meinung“. Mansmann hat sich aus mir nicht erfindlichen Gründen schon mehrfach für ein solches „wissenschaftliches Streitgespräch“ mit Bhakdi hergegeben.
Was ist also nun von diesen Experten zu halten? Auf den ersten Blick tragen beide Professorentitel (auch wenn Bhakdis Zeit als aktiver Professor schon lange zurück liegt), und beide sind oder waren an Universitätskliniken tätig. Mansmann wird gerne als Epidemiologe vorgestellt, Bhakdi als Virologe und Epidemiologe, weil er mal Direktor des Mainzer Instituts für medizinische Mikrobiologie und Hygiene war. Für Tageszeitungsniveau scheint das auszureichen, um einen Experten auszuweisen, aber in der Praxis ist es leider nicht so einfach. Sehen wir uns die beiden Kontrahenten also näher an und vergleichen sie mal mit zwei anderen Professoren, die aktuell als Experten für Covid-19 durch die Medien geistern, nämlich den Virologen Christian Drosten und Hendrik Streeck.
Nachtrag 6.11.20: Ende Oktober (und damit für meinen Geschmack ein gutes halbes Jahr zu spät, aber immerhin) hat jetzt auch die Uni Mainz gleich auf der Startseite seines früheren Instituts eine deutliche Distanzierung von Bhakdis pseudowissenschaftlichem Unsinn veröffentlicht. Ähnliches ist von der Uni Kiel, wo seine Frau und Koautorin noch beschäftigt ist, schon länger zu lesen, nur nicht ganz so auffällig platziert.
Verglichen damit sind die Stellungnahmen der Unis in Kiel und Mainz zu Bhakdi so ziemlich die akademische Version von „Halt’s Maul, du Arschloch!“
Zur meiner nun folgenden grundsätzlichen Betrachtung von Bhakdi und seinem angeblichen Expertenstatus empfehle ich auch dieses Video von Mailab vom 7. Oktober, dass ich fahrlässigerweise erst jetzt angesehen habe.
Bei der Frage, was eigentlich ganz grundsätzlich ein Experte ist, nehme ich einfach mal mein eigenes früheres Arbeitsgebiet als Beispiel. In der heutigen Wissenschaft ist die Zeit von Universalgelehrten wie Goethe, Galilei oder Ibn Sina lange vorbei. Genau genommen war sie das schon zu Goethes Zeiten, was für diesen eine gewisse Tragik ausmacht, aber das ist eine andere Geschichte. Kurz gesagt, wie es Florian Aigner im Ferngespräch-Livestream zur Wissenschaftskommunikation so schön zusammengefasst hat: Fast jeder ist zu fast jedem Thema ein Laie. In meiner Zeit am CERN, dem Max-Planck-Institut für Physik und dem Brookhaven National Laboratory Ende der 1990er Jahre habe ich mich mit der Entwicklung sogenannter Spurendriftkammern und der Analyse von Messfehlern darin beschäftigt. Das ist ein relativ alter Typ von Teilchendetektor, der heute vor allem noch in der Analyse von Kollisionen schwerer Atomkerne verwendet wird. Für die vielleicht zwei oder drei Handvoll Menschen weltweit, die sich damals für diese Messfehler interessiert haben, dürfte ich als einer der Experten gegolten haben. Jedenfalls haben Professoren aus dem Ausland mich nach meinen Ergebnissen und Einschätzungen gefragt. Mit den Leuten, die das 20 Jahre später, zum Beispiel am ALICE-Experiment am CERN tun, könnte ich vermutlich immer noch ein halbwegs kompetentes Gespräch führen, und vielleicht würde mir sogar noch der eine oder andere nützliche Tip einfallen, der irgendwie nie aufgeschrieben wurde und in Vergessenheit geraten ist. Die Experten dafür sind aber die Leute, die das jetzt tun, nicht mehr ich. In der sonstigen Erforschung von Kollisionen schwerer Atomkerne verstehe ich noch ganz gut, was die Forscher tun. Früher war ich da noch deutlich näher dran, aber selbst damals hätte ich jemandem, der dazu einen anderen Detektortyp verwendet oder gar die theoretischen Modelle entwickelt, nicht sagen können, ob seine Arbeit gut oder schlecht und seine Ergebnisse richtig oder falsch sind. Das war noch in meinem engeren Fachgebiet, aber schon so weit weg, dass ich deren Ergebnisse einfach akzeptieren musste. Ich konnte sie aber verstehen, wiedergeben und auch Dritten erklären. Wenn ich heute zum Beispiel im Quantenquark-Buch andere Themen aus der Physik, etwa zum Higgs-Boson oder zur extrem ungeschickt so bezeichneten „Quantenteleportation“ erkläre, dann muss ich mich dazu vorher in das Thema einlesen. Ich kann mich dazu aber schneller und in der Regel besser einlesen, als jemand, der nicht Physik studiert hat. Würde ich mich jedoch hinstellen und erklären, das am CERN nachgewiesene Higgs-Boson sei gar kein Higgs-Boson, dann würde es in Genf – völlig zu Recht – nicht mal jemand für nötig halten, mir zu widersprechen. Ich kann den wissenschaftlichen Konsens in anderen Bereichen meines Fachs zwar erklären, aber mir fehlt jede Grundlage, um ihn kompetent in Frage zu stellen. Wenn ich die Physik verlasse und mir die Medizin ansehe, was ich in letzter Zeit pandemiebedingt ja öfter mal tue, dann bin ich noch ein Stück weiter weg und kann mich in der Regel noch ein wenig langsamer und schlechter einlesen, als das jemand könnte, der in der Medizin, dort aber in einem anderen Bereich tätig ist. Ich kann es aber immer noch besser als jemand, der nie wissenschaftlich gearbeitet hat oder aus einem Feld kommt, das ganz andere Methoden verwendet als die in der Hinsicht recht ähnlichen Felder Medizin und Naturwissenschaften, also zum Beispiel ein Philosoph, ein Historiker oder ein Jurist.
Was aber jeder können sollte, der wissenschaftliches Arbeiten gelernt hat, ist, mit überschaubarem Aufwand festzustellen, ob jemand für ein Thema Experte ist oder nicht. Dafür gibt es nämlich sehr einfache Methoden. Wer in einem Feld forscht, veröffentlicht seine Ergebnisse in wissenschaftlichen Fachzeitschriften. Ohne das geht es nicht, denn ohne Veröffentlichung gibt es keine gegenseitige Überprüfung. Also: Keine Veröffentlichung – keine Wissenschaft. Alle Veröffentlichungen in den seriösen Fachzeitschriften eines Gebiets lassen sich in entsprechenden Datenbanken recherchieren. Die wichtigste derartige Datenbank für die Medizin ist Pubmed, betrieben von der National Library of Medicine. Wenn jemand in der Medizin zu einem Thema wissenschaftliche Leistungen vollbracht hat, dann findet man das in Pubmed. Dort kann jeder recherchieren. Man hat nicht unbedingt kostenlosen oder auch nur erschwinglichen Zugang zu den Artikeln, aber man findet, wo die Artikel stehen, und dabei steht eine Zusammenfassung.
Was erwarten wir nun also von einem Experten für Covid-19? So eine Krankheit ist selbst wieder extrem komplex, und es arbeiten Spezialisten aus unterschiedlichen Teilbereichen der Medizin, Pharmazie und Mikrobiologie daran. Wenn es um Ansteckung, Ausbreitung und Gefährlichkeit geht, können einem aber am ehesten Experten aus zwei Themenbereichen weiterhelfen: Entweder sie forschen am Virus selbst (das tun überwiegend Virologen) oder an seiner Ausbreitung (das tun eher Epidemiologen). Einen Experten für das SARS-CoV-2-Virus würde man daran erkennen, dass er genau dazu wissenschaftliche Artikel veröffentlicht hat, idealerweise auch schon vorher zu anderen Coronaviren wie SARS, MERS, den Erkältungsviren oder tierischen Coronaviren. Ein Experte für die Epidemiologie von Covid-19 sollte eben darüber veröffentlicht haben, und vielleicht schon vorher zur Ausbreitung anderer Atemwegsinfekte wie Grippe oder grippalen Infekten.
Wenn Sucharit Bhakdi jemals zu irgendwelchen Coronaviren geforscht hat, dann sollte sich das in Pubmed sehr leicht finden lassen, schon über die sehr einfache Suchabfrage „Sucharit Bhakdi Coronavirus“. Sie liefert 0 Treffer. „Ulrich Mansmann Coronavirus“ liefert ebenfalls 0 Treffer – das ist aber nicht sonderlich überraschend. Ulrich Mansmann ist kein Virologe, sondern Mathematiker und in der Medizin ein absoluter Methodenspezialist für komplexe mathematische Modelle. Dementsprechend ziehen sich seine Publikationen durch alle möglichen Teilbereiche der Medizin, mit Schwerpunkten bei Krebs und Malaria. Wenn man die schwierig zu erfassende epidemiologische Situation rund um Covid im und nach dem Lockdown im Frühjahr mathematisch modellieren will, wäre Mansmann sicherlich jemand, der zumindest beratend hilfreich dabei sein könnte. Vielleicht tut er das auch gerade, vielleicht hat er es getan, aber nicht in hinreichend zentraler Rolle, um als einer der Autoren aufzutauchen. Wieviel Mansmann selbst zu SARS-CoV-2 oder Covid-19 geforscht hat, ist aber auch gar nicht wichtig, denn was er in den Streitgesprächen tut, ist, er erklärt den wissenschaftlichen Konsens. Man muss selbst kein Experte zu einem Thema sein, wenn man einfach nur das erklärt, was die Experten sagen. Wenn man hingegen die Experten alle für dumm oder korrupt ausgibt, sollte man schon belegen können, dass man selbst entsprechend Ahnung hat.
Machen wir den gleichen Test mal mit unseren Vergleichs-Virologen. Die Suchanfrage „Hendrik Streeck Coronavirus“ ergibt fünf Treffer, alle aus dem Jahr 2020. Das ist kein Wunder, denn Streeck gilt als Experte für HIV und hat bekanntermaßen erst im Zuge des Ausbruchs von Covid-19 angefangen, zu SARS-CoV-2 zu forschen. Die Suchanfrage „Christian Drosten Coronavirus“ ergibt 149 Treffer von 2020 bis zurück ins Jahr 2003. Das ist (neben seiner hervorragenden Wissenschaftskommunikation und seiner angenehmen Eigenheit, dabei sich selbst gegenüber der Sache zurückzunehmen) genau der Grund, weshalb so viele Leute Wert auf Drostens Einschätzungen zu Covid-19 legen: Es gibt wahrscheinlich niemanden in Deutschland, vielleicht niemanden in Europa, der mehr zu menschlichen Coronaviren geforscht hat als Christian Drosten.
Wenn Sucharit Bhakdi also nicht zu Coronaviren geforscht hat, dann vielleicht zur Epidemiologie von viralen Atemwegserkrankungen? Er wird ja gerne auch als Epidemiologe verkauft. Die Suchanfrage „Sucharit Bhakdi respiratory“ ergibt vier Treffer – keiner davon hat irgendetwas mit Viruserkrankungen zu tun, schon gar nicht mit Grippe oder Ähnlichem. Was ist denn aber dann mit dem angeblichen Virologen Sucharit Bhakdi? Zu irgendwelchen Viren wird er ja wohl geforscht haben? Die Suchanfrage „Sucharit Bhakdi virus“ ist einigermaßen ernüchternd: Sie liefert genau drei Treffer. Einer der Artikel beschreibt eine tatsächliche eigene Studie, in der es um den Schaden geht, den Dengueviren (die mit Coronaviren nichts zu tun haben) an Blutgefäßwänden anrichten können. Bhakdi ist einer von 20 Autoren und war vermutlich an der Studie beteiligt, weil er lange zu Blutgefäßwänden geforscht hat. Der zweite Treffer ist ein Konferenzvortrag, in dem Bhakdi über einen Sonderforschungsbereich berichtet hat, dessen Sprecher er war und in dem er selbst über (Überraschung!) Blutgefäßwände geforscht hat, während andere Forscher darin auch an Viren, vor allem Hepatitisviren geforscht haben. Der dritte Treffer ist aus dem Jahr 2009, eine Spekulation über mögliche Risiken für (eben!) Blutgefäßwände durch Grippeimpfstoffe mit Wirkverstärkern. Hier werden also tatsächlich Grippeviren erwähnt, es geht aber inhaltlich nicht um die Grippe, schon gar nicht um das Virus, sondern nur um die Impfverstärker. Nachdem solche Wirkverstärker seit Jahren bei einer Vielzahl von Impfstoffen eingesetzt und die Effekte in großen Studien überwacht werden, kann man mit Sicherheit sagen, dass die von Bhakdi damals herbeispekulierten Nebenwirkungen nicht eingetreten sind. Solche Spekulationen sind ein normaler Teil eines wissenschaftlichen Prozesses. Dass Bhakdi Spekulationen über Schäden durch Grippeimpfungen damals gerade während der (unvorhersehbar zum Glück relativ harmlos verlaufenen) Schweinegrippepandemie veröffentlicht hat, lässt aber bei ihm ein Muster erahnen, das sich möglicherweise heute wieder zeigt.
Das war es mit Sucharit Bhakdis Arbeiten, die mit Viren zu tun haben. Tatsächlich geforscht hat er zunächst vor allem zu Bakterien, später hat er eine Außenseitermeinung zur Entstehung von Atherosklerose (also der Verhärtung von Blutgefäßwänden) vertreten. Darauf, beziehungsweise auf einen Teilaspekt davon, sogenannte ADAM-Proteasen, beziehen sich auch alle Artikel, die in Pubmed noch mit seinem Namen auftauchten, nachdem er vor knapp 10 Jahren das Rentenalter erreicht hat. Auch Außenseitermeinungen sind als Beiträge zur Wissenschaft wertvoll – wenngleich in der großen Mehrzahl der Fälle falsch.
Auch darauf kommt es aber nicht an. Entscheidend ist, Bhakdi widerspricht zu Covid-19 dem wissenschaftlichen Konsens der Experten, und das ist in diesem Fall eben keine wissenschaftliche Außenseitermeinung, denn dazu müsste Bhakdi selbst Experte in diesem Feld sein. Es gibt aber in Bhakdis kompletter Publikationsliste nicht den geringsten Hinweis darauf, dass er von Coronaviren oder auch nur von irgendwelchen anderen Atemwegsviren oder von Viren überhaupt (abgesehen vielleicht von der Wirkung von Dengueviren auf die Gefäßwände) irgendeine fachliche Ahnung hat. Er äußert sich schlicht zu Dingen, von denen er selbst nichts versteht, versteigt sich aber dazu, den Fachleuten zu widersprechen, wo er bestenfalls ihre Ergebnisse erklären sollte.
Und dennoch wird er von der Deutschen Welle und vielen anderen Medien als Experte (mit einer ach so interessanten Außenseitermeinung) ausgegeben.
Sucharit Bhakdi ist aber nicht bloß kein Experte – es ist viel schlimmer. Was mich wirklich wütend macht, sind die Aussagen von Bhakdi in seinem Interview mit der Deutschen Welle, das am 3.10. veröffentlicht wurde. Es kann sich auch nicht um eine zu diesem Zeitpunkt schon lange zurückliegende Aufzeichnung handeln, denn Bhakdi spricht darin von März und April als „vor sechs Monaten“. Im nächsten Satz kommt aber die entscheidende Aussage von Bhakdis Behauptungen: „Jetzt aber, nachdem die Epidemie definitiv vorbei ist…“ Am 3. Oktober 2020 erklärte Sucharit Bahkdi, die Covid-19-Epidemie sei definitiv vorbei. Das hat nichts mit der Frage zu tun, ob jemand ein Experte für Coronaviren oder für Epidemiologie von Atemwegserkrankungen ist. Es hat schlicht damit zu tun, dass es nichts mit der Realität zu tun hat. Zu diesem Zeitpunkt gab es in Deutschland pro Tag schon wieder über 2000 nachgewiesene Neuinfektionen, mehr als fünfmal so viele wie beim Minimum im Sommer. Weltweit gab es jeden Tag mehr als 300 000 nachgewiesene Neuinfektionen und innerhalb eines Monats 165 000 Tote, bei denen Covid-19 nachgewiesen war. Wieviel höher die Zahl der tatsächlichen Todesopfer in Ländern wie dem Iran, Indien oder Teilen Afrikas gewesen sein muss, kann man nur raten. Selbst in den USA mit ihrem gut ausgebauten Gesundheitssystem lag die Übersterblichkeit während der gesamten Pandemie fast 50% über den gemeldeten Covid-19-Toten. In Italien wurden im März „nur“ 12 000 Covid-19-Tote registriert – es starben aber zwischen 25 000 und 30 000 Menschen mehr als sonst im gleichen Zeitraum. In Deutschland war zum Zeitpunkt von Bhakdis „definitiv vorbei“ auch die Zahl der Covid-19-Patienten in Intensivstationen schon wieder deutlich am Steigen, und in Spanien näherte sich das Gesundheitssystem bereits wieder der Überlastung. Alle diese Informationen waren für jeden verfügbar und problemlos nachzurecherchieren.
Ich weiß nicht, was Sucharit Bhakdi Anfang Oktober zu seiner Aussage bewegt hat, die Epidemie sei „definitiv vorbei“ – ich kann ihm ja nicht in den Kopf sehen. Mir fallen für eine Person, die zu diesem Zeitpunkt öffentlich eine solche Aussage gemacht hat, aber eigentlich nur drei denkbare Erklärungen ein: Pure Dummheit, bewusste Lüge oder ein durch Verschwörungsglauben ausgelöster Realitätsverlust, der eigentlich nur mit dem von Xavier Naidoo oder Attila Hildmann vergleichbar ist.
Update 29.1.2021:
Guten Flug, Herr Bhakdi; lassen Sie sich gerne Zeit mit dem Zurückkommen. Und wenn Sie Deutschland totalitär finden, dann können Sie sich in Thailand ja mal kritisch über den König äußern.
Update24.3.23: Ein bisschen was zum Nachdenken für die Querdenker, die hier in ihren Kommentaren herumpöbeln (die außer im Archiv für die Staatsanwaltschaft ohnehin nirgends zu sehen sein werden) und allen Ernstes von „Hetze“ gegen den Impfgegner und Verschwörungspropagandisten Arvay fabulieren, weil ein paar wissenschaftsinteressierte und -kompetente Bürger ihre Freizeit aufgewendet haben, um aufzuklären über die lebensgefährliche Desinformation, die Arvay über Covid, Impfungen und andere Schutzmaßnahmen verbreitet hat, über seine Verschwörungsideologie und seine Verbindungen zur rechten Szene. Seht es Euch an und überlegt einfach mal, ob Ihr wirklich zu diesen Leuten gehören wollt:
Update 18.2.21: Da ich keine Lust habe, noch mehr meiner Lebenszeit auf diesen Menschen zu verschwenden und in diesem Volksverpetzer-Artikel auch alles über Arvays Desinformation zu MaiLab gesagt ist, empfehle ich aktuell einfach mal, den zu lesen: https://www.volksverpetzer.de/corona-faktencheck/cgarvay-mailabder/ Einzige, aber wichtige Korrektur dazu; der Volksverpetzer schreibt: „Er behauptet aber auch veraltete Sachen, so z.B: dass „die Impfstoffe“ (er formuliert das ständig so pauschal, ohne konkret zu sagen, welchen Impfstoff er eigentlich meint) nicht in der Lage seien, die Infektiosität zu senken, was laut aktuellen Studien noch gar nicht abschließend beurteilt werden kann.“ Abschließend vielleicht nicht, aber bei halbwegs vernünftiger Interpretation der verfügbaren Datenlage ist vollkommen offensichtlich, dass die Covid-Impfstoffe, bei denen dazu etwas untersucht wurde (von Pfizer und AZ) die Wahrscheinlichkeit einer Weitergabe ganz erheblich reduzieren. Was Arvay da verbreitet, ist also mal wieder nicht bloß veraltet, sondern einfach vollkommen falsch, und da er ja offenbar wenigstens ab und zu in Forschungsdaten reinschaut, frage ich mich schon, wie das sein kann, dass er das nicht auch selbst weiß.
Insofern freue ich mich auch schon auf den kommenden Artikel über ihn im lesenswerten Rechercheportal MedWatch, den Arvay freundlicherweise schon selbst angekündigt hat. Dann muss ich hoffentlich wirklich nicht nochmal selbst etwas über ihn schreiben.
Damit sind wir dann mal wieder mitten im Covid-19-Thema und weit weg von den Quanten – und irgendwie muss ich sagen, dass ich mich ein bisschen nach der vergleichsweisen Harmlosigkeit der Quantenschwurbler zurücksehne. Aber nachdem ich mir das Impfthema ja jetzt schon mehrfach vorgenommen habe, was soll’s, es ist eben aktuell das Wichtige. Also, in for a penny, in for a pound!
Im Frühjahr hat Arvay noch hauptsächlich gegen den Mund-Nasen-Schutz agitiert; heute spielt er für die Verschwörungsmythenszene vor allem den Kronzeugen gegen RNA-Impfstoffe. Was es mit RNA-Impfstoffen und anderen modernen Impfstoffkonzepten auf sich hat, habe ich Anfang August in einem längeren Artikel erklärt, den ich noch für eine Weile versuchen werde, halbwegs aktuell zu halten. Was ist aber nun von Arvay und seiner Argumentation zu halten?
Update 23.9.2020: Um es gleich mal vorwegzuschicken, Arvay selbst hat in einem ziemlich ausführlichen Video auf diesen Artikel reagiert. Ein paar Punkte darin sind inhaltlich diskussionsfähig, andere sind eher ein Herausreden – kann man sich ansehen, wenn man viel Zeit hat.
Update 27.9.2020: Am 26. hat er noch ein weiteres Video online gestellt, in dem er sich jetzt ganz offen als Verschwörungsgläubiger outet: „Corona ist ein großer Aufzeiger, wie unsere Gesellschaft unterwandert ist.“ Dazu kreiert er eine bizarre Verschwörungsgeschichte um sich selbst, nach der er im Auftrag der Pharmaindustrie von Wikipedia, dem Genetikprofessor im Ruhestand Wolfgang Nellen (der nach seriösen wissenschaftlichen Publikationen von Arvay gesucht und wenig gefunden hat) und natürlich von mir verfolgt wird. Dabei hat er immerhin meine Firmenwebsite gefunden (Kunststück, die ist oben unter „Der Autor“ verlinkt), war aber offensichtlich nicht in der Lage zu erkennen, dass es sich um eine Strategieberatung und nicht, wie er sich einbildet, um eine PR-Agentur handelt. Ich kenne ja einige Pharmaunternehmen ganz gut, und ohne mich jemals mit deren PR-Abteilungen beschäftigt zu haben, kann ich mir beim besten Willen nicht vorstellen, dass jemand, der auf Youtube Pseudowissenschaft verbreitet, denen etwas anderes als vollkommen egal ist. Arvays gesellschaftliche Relevanz liegt ausschließlich darin, dass er Stichwortgeber für antidemokratische Gruppierungen ist. Dass es Menschen gibt, die sich einfach so in ihrer Freizeit für Demokratie und Wissenschaft engagieren, ist für Arvay offensichtlich vollkommen unvorstellbar, was vielleicht auch einiges über ihn aussagt. Im Video beruft sich Arvay beim Versuch, sich als seriösen Wissenschaftler auszugeben, mehrfach auf den Psychiater Raphael Bonelli, der mit seinem erzkatholischen RPP-Institut in Österreich als aggressiver Covid-Verharmloser in Erscheinung tritt, trotz Fallzahlen in Österreich, die zum Zeitpunkt (Update 23.10.20) doppelt so hoch waren wie in Deutschland, Social Distancing als „extrem schädlich für die Menschen“ bezeichnet hat, früher „Psychiatrie am Telefon“ auf Radio Maria angeboten und auch schon einen „Homo-Heiler“ zu einem seiner Kongresse eingeladen hat. Beim Versuch, sich zu rechtfertigen, demontiert Arvay ganz nebenbei noch seine ohnehin bescheidene eigene wissenschaftliche Reputation – und die seiner früheren Hochschule gleich mit. Das Video ist also echt sehenswert.
Vorgestellt wird er bei seinen Absonderungen zu RNA-Impfstoffen als „Biologe“, was offenbar Sachkompetenz vorspiegeln soll – schließlich könnte ein Human- oder Molekularbiologe tatsächlich zum menschlichen Immunsystem oder zu Impfstoffen geforscht haben. Hat er aber nicht. Arvay ist Diplomingenieur in „Angewandten Pflanzenwissenschaften“ von der Universität für Bodenkultur Wien (Update 23.9.20: Bemerkung über die Universität für Bodenkultur entfernt). Update 27.9.20: Inzwischen hat Arvay in einem Video selbst erklärt, dass er seine offenbar einzige ernstzunehmende Leistung an einer wissenschaftlichen Institution überhaupt, nämlich seine Masterarbeit, am dortigen Institut für Gartenbau abgelegt hat – und zwar über die Soziologie von Selbstversorgern. Über einen Abschluss in Biologie verfügt er nicht. Eine Doktorarbeit, in der er überhaupt in relevantem Umfang geforscht haben könnte, hat er nicht gemacht. Nun gehöre ich ja nicht zu den Leuten, die meinen, dass eine Promotion der erste Schritt zur Menschwerdung sei. Die meisten Menschen, die promoviert haben, einschließlich mir, brauchen das für ihre tägliche Arbeit überhaupt nicht, aber in Arvays Fall ist das tatsächlich relevant: Seinen Versuchen, wissenschaftlich klingende Artikel zu verfassen, ist nämlich deutlich anzumerken, dass er wissenschaftliches Arbeiten schlicht nie gelernt hat.
Arvay ist also nicht vom Fach was Impfungen angeht. Nun habe ich schon bei meinem letzten Artikel zum Thema klargestellt, mein Fachgebiet ist das auch nicht. Ich kann, weil ich eben wissenschaftliches Arbeiten gelernt habe, den wissenschaftlichen Konsens in einem fremden Fachgebiet wiedergeben und erklären – das ist es aber auch. Ich würde mir nicht anmaßen, denen, die in einem Fachgebiet forschen oder denen, die beruflich deren Ergebnisse zusammenfassen (bei Impfstoffen zum Beispiel dem Paul-Ehrlich-Institut) zu erzählen, wie sie ihre Arbeit zu machen haben. Deswegen bemühe ich mich zum Beispiel auch, vorsichtig mit Äußerungen zum „Insektensterben“ zu sein, obwohl mir (mit meinem Hintergrund in einer experimentell arbeitenden Naturwissenschaft) beim Design der Studien, die dieses Sterben belegen sollen, die Haare zu Berge stehen. Das ist etwas vollkommen anderes, wenn ein pseudowissenschaftliches Glaubenssystem wie die Homöopathie „wissenschaftliche“ Studien verbreitet, die nicht den Standards im eigenen Fachgebiet (also der evidenzbasierten Medizin) entsprechen und zur Begründung Behauptungen aufstellt, die fundamentalen Erkenntnissen experimentell wesentlich zuverlässigerer Naturwissenschaften widersprechen.
Arvays Verkaufsargument ist „Ökologie“. Was er darunter versteht ist allerdings eher eine Art mystisch aufgeladene Naturromantik mit steilen Thesen zum Beispiel über gesundheitliche Effekte des Betrachtens von Bäumen, die er um immer dieselben aus dem Zusammenhang gerissenen Aussagen aus immer derselben Handvoll fragwürdiger Studien herum ausschmückt.
Aktuell und, äh, ja, irgendwie auch originell ist Arvays SÄZ-Artikel wirklich, nur mit der Qualität ist das so eine Sache. Es handelt sich im Wesentlichen um ein offenbar per Schlagwortsuche zusammengetragenes Sammelsurium von Bedenken zu modernen Impfstofftechniken aus völlig unterschiedlichen Quellen und Motivationen. Verstanden hat Arvay von dem, was er da angesammelt hat, ganz offensichtlich nicht viel. So schreibt er, die Verabreichung von DNA-Impfstoffen erfolge standardmäßig über stark beschleunigte Goldpartikel mit einer sogenannten Genkanone. Alle derzeit an Patienten getesteten DNA-Impfstoffe werden jedoch durch eine ganz normale Injektion verabreicht. Das ist auch kein Wunder, denn um eine gute Impfquote erreichen zu können, muss eine Impfung ja ohne aufwendige technische Geräte in einer Hausarztpraxis zu verabreichen sein. Zu RNA-Impfstoffen zitiert er (auch bei RT Deutsch) Überreaktionen in Tierversuchen zu anderen Coronaviren, hat aber offensichtlich nicht verstanden, dass gerade dieses Risiko bei traditionellen Lebend- und Totimpfungen viel größer wäre. Das geringere Risiko von Überreaktionen ist ja eben der Hauptgrund, warum in westlichen Ländern moderne Impfstoffe (z.B. die auf RNA- und DNA-Basis) favorisiert werden. Noch größer wäre ein solches Risiko von Überreaktionen natürlich, wenn exakt dieselben Antigene wie bei einer Totimpfung durch aktive Viren bei einer normalen Covid-19-Infektion eingebracht würden – und man darf nicht vergessen, dass ohne Impfstoff früher oder später (je nach sonstigen Maßnahmen) rund drei Viertel der Bevölkerung so infiziert würden. Bei Arvays haarsträubender Übertreibung in der SÄZ, eine Phase-III-Studie dauere „typischerweise 4–6 Jahre“ muss man sich die Frage stellen, ob es sich hier ebenfalls um Unkenntnis oder doch eher um bewusste Desinformation handelt.
Das tatsächliche Problem bei Arvay ist aber nicht das, was er in der SÄZ geschrieben hat, wo allzu offensichtlicher Unsinn der Redaktion dann wohl doch aufgefallen wäre. Auf RT Deutsch erklärt er, bei RNA-Impfstoffen würde „manipulierte genetische Information […] vom Körper inkludiert […] in die eigenen genetischen Abläufe“. In dieser Formulierung ist das keine direkte Lüge, je nachdem, wass man unter genetischen Abläufen verstehen will, aber es erweckt ganz gezielt den falschen Eindruck, als würde damit das menschliche Erbgut verändert. Eine nicht ganz so bizarre These, die sowohl in der SÄZ als auch bei RT Deutsch auftaucht, bezieht sich auf DNA-Impfstoffe (die sich durchweg noch in der Phase-I-Erprobung oder in der vorklinischen Phase befinden). Bei diesen, so Arvay, könnte DNA aus dem Impfstoff zufällig ins Erbgut einzelner Körperzellen integriert werden. Falls wiederum zufällig eine sehr ungünstige Stelle des Erbguts betroffen wäre, könnte das fremde DNA-Stück dort ein Gen zerstören, das das Wachstum der Zelle kontrolliert – das könnte dann zu Krebs führen. Auch hier erweckt er allerdings den Eindruck, es könne das Erbgut von mehr als einzelnen Zellen betroffen sein. Schon eine Schicht tiefer in der Schwurbelszene, bei Wolfgang Wodarg, wird daraus die schwachsinnige Behauptung, DNA- und RNA-Impfungen seien gentechnische Veränderungen des Menschen. Weiterhin kehrt Arvay unter den Teppich, dass selbst die von ihm in der SÄZ angegebene Quelle ausdrücklich erklärt, dass es für diesen angenommenen Effekt experimentell kaum Bestätigungen gibt. Was bei dieser Hypothese völlig untergeht, ist, dass die gleiche Integration fremder DNA in das Erbgut mit dem gleichen Tumorrisiko natürlich ebenso bei jedem beliebigen der ständig im Körper vorkommenden Bakterien oder Viren passieren könnte, insbesondere bei solchen, die wie der Impfstoff DNA in Plasmidringen enthalten. Dafür ist es nämlich völlig belanglos, welcher fremde DNA-Schnipsel da zufällig an einer verheerend ungünstigen Stelle im Erbgut einer einzelnen Zelle landet.
Kurz gesagt, Arvay benutzt im typischen Stil moderner Verschwörungsideologen ein Gemisch aus Halbwahrheiten, unzulässigen Verkürzungen und aus dem Zusammenhang gerissenen Details, um den Eindruck zu erwecken, es gäbe globale dunkle Machenschaften, hinter denen, wie er ausdrücklich betont, Bill Gates stecke. (Update 23.9.2020: Dagegen wehrt er sich inzwischen, spricht aber schon im nächsten Moment in Bezug auf Gates Engagement von „einer Seilschaft mit verschiedenen Pharmakonzernen“.) Dementsprechend ist es auch kein Wunder, dass seine Aussagen im Wesentlichen von den typischen Fake-News-Schleudern der Verschwörungsmythenszene verbreitet werden.
Anders als die meisten Verschwörungsideologen scheint er jedoch weniger politische als Marketingzwecke zu verfolgen, denn rein zufällig erscheint in wenigen Tagen sein neues Buch, dessen Untertitel die Arvay’sche Phantasiewelt wunderbar zusammenfasst: „Wie Umweltzerstörung die Corona-Pandemie auslöste und warum ökologische Medizin unsere Rettung ist“.
Wenn ich hier einen Artikel verlinke, finde ich ihn ja normalerweise entweder gut, oder ich nutze ihn als Beleg, dass jemand wüste Verschwörungsmythen oder eben Quantenquark zusammenschwurbelt. Dieser Artikel hingegen ist für sich genommen eher eine begrenzte Leseempfehlung. Die Argumentation trägt eine typische Uralt-68er-Handschrift, mit einer Mischung aus abgestandenem Marxismus („Diese Sichtweise [der Covid-Leugner] entbehrt einer objektiven politischen Theorie“ – nein, sie entbehrt einfach jeglicher Realität!), mystizistischem Kitsch („Der Versuch, vom Ufer aus den Fluss zu regulieren, führt zu Gewalt gegen den Fluss und Widerstand des Flusses gegen diese aufgezwungene Bewegung.“) und Küchen-Psychoanalyse („Die Auflehnung [der Covid-Leugner] gegen die Autoritäten entspringt oft einer Manipulationserfahrung in der eigenen persönlichen Biografie, die irgendwann in der Vergangenheit traumatisch erlebt worden war.“), komplett mit einem Zitat des legendären Altkommunarden Rainer Langhans, der nun „seit vier Jahrzehnten auf dem spirituellen Weg“ sei.
Dass ich diesen Artikel, für dessen Entdeckung ich Tommy Krappweis dankbar bin, dennoch für bemerkenswert halte, liegt an seiner Stoßrichtung, dem Autor und seiner Zielgruppe. Die Einleitung schließt mit den nur zu wahren Worten „Überzeugte »Corona-Rebellen« werden von diesem Aufsatz sicherlich wenig begeistert sein.“ Was folgt, ist eine schonungslose Abrechnung mit der Szene der Hygiene- und Querdenken-Demos, samt einer durchaus zutreffenden Einordnung in den Kontext von neurechter Bewegung und altem Nationalsozialismus. Ähnliches könnte man durchaus auch beim Volksverpetzer lesen – nur würde es da nicht dieselbe Zielgruppe erreichen.
Beim Autor des oben verlinkten Artikels handelt es sich jedoch um Ronald Engert, den Herausgeber der Zeitschrift Tattva Viveka. 29.9.2022: Roland Engert hat mich inzwischen kontaktiert und legt Wert auf die Feststellung, dass der Artikel seine persönliche Haltung wiedergibt und nicht mit der journalistischen Ausrichtung der Tattva Viveka identisch ist. Die Zeitschrift hat, vorsichtig ausgedrückt, eine deutliche Nähe zur Hare-Krishna-Bewegung. Engerts Mitgründer bei Tattva Viveka, Marcus Schmieke, ist hier im Blog auch schon vorgekommen, pikanterweise weil er ganz offensichtlich weniger Abgrenzungsbedürfnis zur rechten Szene hat und zum Beispiel auf den Quer-Denken-Kongressen des Reichsbürgers Michael Friedrich Vogt aufgetreten ist, von denen unter anderem die hessischen NPD-Vorstände Daniel Lachmann und Stefan Jagsch begeistert waren:
Eine Bekannte, die jahrelang in einem Hare-Krishna-Tempel gelebt hat, berichtete von regelmäßigen Besuchen Schmiekes im Tempel, wo ihm große Wertschätzung entgegengebracht worden sei, vermutlich auch wegen seiner großzügigen Spenden. Quelle des Geldes dürften die von Schmieke erfundenen und zum Teil zum Preis von Mittelklasseautos vermarkteten Quantentherapiegeräte sein – womit wir endlich mal wieder beim echten Quantenquark wären.
Bei allem Kopfschütteln: Wenn ein solcher Autor für seine Zielgruppe über die Nazi-Verbindungen der Querdenken-Demos aufklärt, vor dem irrsinnigen Verschwörungsmythos QAnon warnt und sich über über meditierende Hygiene-Demonstranten mokiert, dann hat das durchaus einen besonderen Wert. Das gilt nicht nur, aber eben auch für sein unmittelbares Hare-Krishna-Umfeld: Bei der Demonstration in Berlin am 29.8. war auch Hare-Krishna-Chanting zu hören und erlangte durch den unfreiwillig komischen Kommentar eines Bild-Reporters eine ungeahnte Reichweite.
Den Volksverpetzer, Quantenquark und möglicherweise selbst die FAZ würde ein großer Teil dieser Zielgruppe wahrscheinlich nie lesen. Dass Engert die quer durch die rechte Szene beliebten schwarz-weiß-roten Fahnen dabei pauschal mit Reichsbürgern identifiziert, spielt kaum eine Rolle im Vergleich zu seinem wunderbaren Kommentar über eine Vertreterin der Eso-Partei „Die Violetten“ auf einer der Demonstrationen: „Wenn man nicht weiß, was die Fahne bedeutet, denkt man sich natürlich nichts dabei. Dann ist es einfach schön bunt hier.“ Und auch die Abwege in die Psychoanalyse kann man Engert verzeihen, angesichts ihres Ergebnisses zum Vorbeter der Verschwörungsmythen-Szene Ken Jebsen: „So gesehen wirkt Ken Jebsen wie ein kleiner Junge, der Angst vor seiner Mutter hat.“
Ja, es gibt hier nach langer Zeit mal wieder einen Artikel, nicht nur mit Hinweisen auf Videos und Interviews, sondern mit ausführlichem Inhalt. Und, nein, es geht schwerpunktmäßig nicht um Physik, sondern eher um ein Thema, mit dem ich gelegentlich berufliche Berührungspunkte habe. Es sind halt seltsame Zeiten.
In Deutschland spricht hingegen bei einer denkbaren Verfügbarkeit erster Impfstoffe in einigen Monaten nicht nur die AfD von „übereilter Zulassung“, und nicht nur der Impfgegner-Papst und gelernte Milchwirt Hans Tolzin schwadroniert auf Extremnews über „sehr häufige“ Nebenwirkungen der kommenden Impfstoffe (die angeblichen Nebenwirkungen sind einfach nur die ganz normalen Impfreaktionen wie Rötung und Druck an der Einstichstelle oder leichtes Fieber, die zeigen, dass die Impfung wirkt). Der deutsche Arbeitskreis medizinischer Ethikkommissionen hat eine erleichterte Genehmigung von Impfstoffstudien noch im Mai als gefährlich für Patienten bezeichnet. „Experten“ (bei denen es sich einfach um Politiker mit Medizinstudium wie Karl Lauterbach handelte) warnten noch im Juni vor Hoffnungen auf einen baldigen Impfstoff und erklärten, es werde noch „mindestens ein Jahr“ dauern, bis ein Impfstoff einsetzbar sei. Ebenfalls im Juni stellte spektrum.de in Frage, ob es überhaupt einen Sars-CoV-2-Impfstoff geben werde, und auch der Leiter der „Heinsberg-Studie“, Henning Streeck wird in ähnlicher Weise zitiert. Hat sich also in wenigen Wochen eine völlig neue Sachlage ergeben, ist die russische Impfstoffforschung der westlichen so weit voraus, oder ist die russische Entscheidung, die (Update 11.8.20) inzwischen offiziell in Kraft getreten ist, schlicht fahrlässig?
Um das einzuordnen, aber auch einfach um einen Überblick zu bekommen, wo wir in der Impfstoffentwicklung eigentlich stehen, lohnt es sich, zwei Fragen etwas eingehender zu beleuchten: Wie sollen die in der Entwicklung befindlichen Impfstoffe funktionieren, und wie unterscheidet sich die beschleunigte Erprobung zur Zeit eigentlich von der normalen Arzneimittelentwicklung?
Offiziell sind bei der Weltgesundheitsorganisation (WHO) aktuell 165 Projekte zur Entwicklung von SARS-CoV-2-Impfstoffen gemeldet, und es gibt mit Sicherheit noch weitere. Die Art und Weise, wie die Impfstoffe zusammengesetzt sein und im Körper wirken sollen, ist dabei durchaus unterschiedlich:
Traditionelle Tot- oder Lebendimpfstoffe: Praktisch alle schon länger bei Menschen eingesetzten Impfstoffe verwenden komplette Krankheitserreger, die entweder abgetötet (Totimpfstoff) oder nur abgeschwächt (Lebendimpfstoff) werden. Ob es zwischen beiden Formen im Effekt wirklich systematische Unterschiede gibt, ist umstritten. Allerdings gab es mit Lebendimpfstoffen in der Vergangenheit gelegentlich Probleme, was ein Grund ist, warum statt der Schluckimpfung gegen Polio aus meiner Kindheit heute ein kombinierter Totimpfstoff als Injektion verwendet wird.
Auch gegen SARS-CoV-2 befinden sich solche traditionellen Impfstoffe in der Entwicklung. Die WHO listet eine ganze Reihe von Totimpfstoffentwicklungen in China, der Türkei, Ägypten und Kasachstan auf, wobei mehrere Projekte der chinesischen Unternehmen Sinovac und Sinopharm schon sehr fortgeschritten sind und auch in der Erprobung am Menschen gute Zwischenergebnisse zeigen.
Christian Drosten verweist in seinem Podcast darauf, dass ein Erfolg dieser Projekte wegen der relativ einfachen, in vielen Ländern möglichen Herstellung sehr hilfreich wäre, um schnell und kostengünstig auch Menschen in weniger entwickelten Ländern impfen zu können. Er spricht jedoch auch von einer „ungewissen Wirkung“ und der Gefahr von Überreaktionen, die sich in der Entwicklung von Impfstoffen gegen andere Coronaviren bei Tieren gezeigt habe. In Europa und den USA, aber auch in Russland, wurde daher fast durchgehend auf innovative Impfstoffkonzepte gesetzt, bei denen man kontrollieren kann, gegen welche Teile des Erregers genau der Körper eine Immunantwort entwickeln soll.
Proteinbasierte Impfstoffe: Die Bestandteile an der Oberfläche des Virus, gegen die man eine Immunreaktion haben will, um einen Schutz zu erreichen, sind chemisch in der Regel Proteine. Bei SARS-CoV-2 gilt zum Beispiel das Spike-Protein, das für das Eindringen des Virus in eine Wirtszelle wichtig ist, als aussichtsreicher Angriffspunkt. In der einfachsten Form wird ein solches Protein selbst als Impfstoff verwendet. Impfadjuvantien sollen dann dafür sorgen, dass das Immunsystem auf den an sich harmlosen Fremdstoff angemessen heftig reagiert und einen längerfristigen Schutz aufbaut. Inzwischen gibt es eine Vielzahl von Entwicklungsprojekten nach diesem Konzept, darunter auch von großen Herstellern wie Sanofi und GSK. Sie gehören aber nicht zu den aktuell fortgeschrittensten und aussichtsreichsten Kandidaten gegen SARS-CoV-2.
DNA- und RNA-Impfstoffe: Neben den Adjuvantien ist eine weitere Möglichkeit, das Immunsystem zu einer starken Reaktion gegen ein Protein und damit einem langanhaltenden Schutz zu bewegen, es einfach mehr und länger mit diesem Protein zu konfrontieren. Da der Impfstoff aber auch produziert werden muss und man Patienten nicht alle paar Tage wieder impfen kann, benutzt man einen Trick: Körperzellen werden durch die Impfung dazu gebracht, das fremde Protein selbst zu produzieren. Den Bauplan für dieses Protein erhalten die Zellen in Form von RNA (sozusagen schon abgelesenem Erbgut), wie sie auch das SARS-CoV-2-Virus benutzt, um seinen Bauplan auf Wirtszellen zu übermitteln, oder in Form von DNA–Ringen, wie sie auch in Bakterien vorkommen. Das fremde Material wird von den Zellen nicht in ihr eigenes Erbgut eingebaut, aber zur Produktion des Proteins abgelesen, bis es von den zelleigenen Recyclingmechanismen abgebaut wird. Zu den aussichtsreichsten Impfstoffkandidaten dieser Art zählen die RNA-Impfstoffe der US-Firma Moderna, die im März den ersten SARS-CoV-2-Impfstoff überhaupt an Patienten getestet hat, und der Mainzer BioNTech, die hierbei mit dem Weltkonzern Pfizer kooperiert. Auch andere Projekte mit deutscher Beteiligung, wie das von CureVac und das der OpenCorona-Kollaboration mit dem Uniklinikum Gießen-Marburg, nutzen diesen Ansatz.
Impfgegner nutzen gerne die alte, naja… sagen wir ganz vorsichtig bildungsferne, Angst vor Gentechnik, um Stimmung gegen diese Art von Impfstoffen zu machen, und erwecken dabei den falschen Eindruck, diese Art von Impfung hätte etwas mit dem menschlichen Erbgut zu tun. Nach dem Fact Sheet des Science Media Center Germany hingegen sind RNA-Impfstoffe „toxikologisch gut charakterisierte Biopharmazeutika, die keine Infektionsrisiken bergen, bereits in niedrigen Dosen wirken und daher auf Wirkverstärker (Adjuvanzien) in der Regel verzichten könnten“.
Vektorvirusimpfstoffe: Die wohl trickreichste Variante eines Impfstoffs verwendet ein für den Menschen harmloses Virus, das genetisch so verändert wird, dass es in seiner RNA oder DNA den Bauplan des Proteins trägt, gegen das man eine Immunantwort erreichen will. Eine von diesem Vektorvirus befallene Zelle reproduziert dann nicht das Virus, sondern eben das Protein. Das so produzierte Protein entspricht in seiner Struktur (Faltung und Glykolisierung) besonders genau den Proteinen an einer Virusoberfläche, und es kann sogar verbunden mit Teilen der Virusoberfläche produziert werden. Davon erwartet man sich eine stärkere, länger anhaltende Immunantwort. Vektorvirusimpfstoffe werden seit einigen Jahren gegen Ebola eingesetzt. (Korrektur 1.1.2021) Man unterscheidet zwischen replizierenden Vektorviren, die sich im menschlichen Körper noch vermehren können, aber nicht krank machen, und nicht replizierenden Vektorviren. Die derzeit in der Erprobung fortgeschrittensten Projekte dieser Art, von der Universität Oxford in Zusammenarbeit mit dem Hersteller AstraZeneca sowie von der chinesischen CanSino, verwenden nicht replizierende Vektorviren. Dasselbe gilt für den Impfstoffkandidaten der russischen Gamaleya, der in zwei Wochen eingesetzt werden soll.
Man kann also schon einmal festhalten, dass der russische Impfstoff nichts revolutionär Anderes ist als vergleichbare Projekte aus Europa oder den USA. Grundsätzlich andere, nämlich altmodischere Impfstoffentwicklungen kommen eher aus China und Indien – diese folgen aber von den Testprotokollen und Entwicklungszeiten den gleichen Standards wie die westlichen Projekte. Auch eine Verbindung des russischen „Sputnik-Moments“ zu britischen Spionagevorwürfen ist zumindest nicht offensichtlich: Die grundlegende Covid-19-Forschung passiert ohnehin in internationaler Zusammenarbeit, und in den Details unterscheidet sich der russische Vektorvirusimpfstoff von dem fortgeschrittenen Projekt aus Oxford allein schon durch die Verwendung eines vom Menschen stammenden Adenovirus Typ 26 (das normalerweise eine Bindehautentzündung auslöst) anstatt eines Virus, das normalerweise Affen befällt.
Wie sieht es aber nun mit dem Entwicklungs- und Erprobungsstand des Gamaleya-Projekts im Vergleich zu anderen Impfstoffentwicklungen aus, die erst Monate später zugelassen werden sollen? Die Erprobung von Impfstoffen erfolgt grundsätzlich in den gleichen Phasen wie die von anderen neu zuzulassenden Arzneimitteln:
Präklinik: Die präklinische Erprobung umfasst alle Tests, für die noch keine menschlichen Probanden erforderlich sind. Das reicht von rein chemischen Versuchen über die Erprobung in Zellkulturen bis zum Tiermodell.
Phase I: In der klinischen Phase I wird an einer kleinen Zahl von Freiwilligen (in der Regel weniger als 50) getestet, ob der Wirkstoff in welcher Dosis verträglich ist. Dabei werden auch Laborwerte überwacht, zum Beispiel ob der Wirkstoff im Körper dort ankommt, wo er wirken soll. Bei Impfstoffen kann man auch schon erkennen, ob der Impfstoff eine Immunreaktion auslöst und zum Beispiel neutralisierende Antikörper produziert werden.
Phase II: Anschließend wird getestet, ob der Wirkstoff im Patienten tatsächlich wirkt, ob zum Beispiel ein Impfstoff also tatsächlich vor einer Infektion schützt. Hierzu braucht man normalerweise eine placebokontrollierte, randomisierte Vergleichsstudie (RCT), um die Wirkung von Wirkerwartung, Zeit- und Zufallseffekten unterscheiden zu können. Die Zahl der Probanden hängt von der Deutlichkeit des erwarteten Effekts ab. Bei der Behandlung akuter Erkrankungen liegt sie oft unter 200.
Phase III: Bei den folgenden, wesentlich größeren RCTs geht es vor allem um die Suche nach regelmäßig auftretenden Nebenwirkungen. Hierzu braucht man oft eine fünfstellige Zahl von Probanden, was diese Tests auch sehr teuer macht. Gleichzeitig lässt sich aus diesen größeren Tests auch die Wirksamkeit noch einmal genauer und verlässlicher dokumentieren. Phase-III-Studien bilden die wichtigste Grundlage für die Nutzen-Risiko-Abwägung bei der Arzneimittelzulassung.
Anwendungsbeobachtung: Die sogenannten Phase-IV-Studien erfolgen nach der Zulassung und dienen der Suche nach selteneren Nebenwirkungen. Da es dabei keine Vergleichsgruppe gibt, lässt sich keine Aussage mehr über Wirksamkeit machen und auch nicht festlegen, ob eine gemeldete Nebenwirkung tatsächlich durch das Mittel verursacht wird oder aus anderen Gründen bei den Patienten aufgetreten ist.
Normalerweise laufen diese Studien hintereinander ab, so dass Menschen erst einem Wirkstoff ausgesetzt werden, wenn er nach Tierversuchen unbedenklich ist und an größeren Zahlen von Kranken erst dann getestet wird, wenn sowohl Unbedenklichkeit als auch Wirksamkeit an einer kleineren Zahl von Probanden nachgewiesen sind.
Wie ist es aber nun möglich, dass dieser insgesamt normalerweise zwischen fünf und 15 Jahren umfassende Prozess bei der Entwicklung von Covid-19-Impfstoffen auf wenige Monate gestrafft werden kann?
Den größten Effekt macht dabei aus, dass der Hauptteil der präklinischen Erprobung schon lange vor dem Beginn der Pandemie abgeschlossen war. Die Covid-19-Impfstoffentwicklung setzt unmittelbar auf Impfstoffprojekte gegen die eng verwandten SARS- und MERS-Erreger von 2002 und 2012 auf, die nicht mehr an Patienten getestet wurden, weil es keine SARS-Patienten mehr und nur noch einzelne MERS-Ausbrüche gab. Es handelt sich also technisch um Weiterentwicklungen, ähnlich wie bei den Grippeimpfungen, bei denen jedes Jahr nach den gleichen Methoden auf neue Erreger optimiert werden. So konnte Moderna seine Phase-I-Tests im März ohne einen einzigen vorherigen Tierversuch mit dem neuen Impfstoff beginnen. Insgesamt war die Zahl der Tierversuche klein, weil als geeignetes Modell fast nur die teuren, häufig angefeindeten Versuche mit Affen in Frage kamen.
Phase-I-Tests haben bei allen mir bekannten Impfstoffentwicklungen gegen SARS-CoV-2 relativ normal stattgefunden, aber eine Beschleunigungsmöglichkeit ist zum Beispiel, nach dem Vorliegen der Ergebnisse nicht erst die offizielle Veröffentlichung abzuwarten, bevor man die Phase-II-Tests einleitet. Man kann auch Probanden für folgende Phasen schon rekrutieren, bevor die Tests genehmigt sind – das ist nur ein finanzielles Risiko, falls die Tests geändert, verschoben oder abgesagt werden müssen.
Eine große Beschleunigung ergibt sich schließlich noch durch die Zusammenfassung von Phase II und Phase III. Um in einer Covid-Epidemie überhaupt nachweisen zu können, dass ein Impfstoff vor Infektionen schützt, braucht man ja zwangsläufig eine große Zahl von Probanden in einem Risikogebiet. Ein Rechenbeispiel: Will man halbwegs schlüssig statistisch zeigen, dass ein Impfstoff die Zahl von Infektionen verringert, weiß aber, dass dieser Schutz nicht 100% effektiv sein wird, dann braucht man in der Impfgruppe und in der Kontrollgruppe jeweils rund 100 Infektionsereignisse, bei denen eine ungeimpfte Person vermutlich infiziert würde. Bei aktuell rund 500 Infektionsereignissen pro Tag unter 80 Millionen Deutschen bräuchte man für diese 100 Ereignisse, wenn man sie in 100 Tagen haben wollte, in der Test- und Kontrollgruppe jeweils völlig unrealistische 160.000 Probanden. Das deutlich schlimmere Infektionsgeschehen in den USA, Brasilien und Abu Dhabi, wo aktuell die größten Patientenstudien laufen, macht es überhaupt erst möglich, einen Wirksamkeitsnachweis in erträglicher Zeit zu erbringen. Auch dafür braucht man aber insgesamt fünfstellige Probandenzahlen. Man ist damit für belastbare Phase-II-Studien zwangsläufig bei Probandenzahlen, die normalerweise schon für eine Phase-III-Studie ausreichen. Für alle der WHO gemeldeten Projekte, bei denen schon Phase-III-Studien laufen, wurden diese daher entweder mit der Phase II in eine Studie zusammengefasst oder schon vor Abschluss der Phase-II-Studie gestartet.
Nach der Universität Oxford, die schon im April angekündigt hatte, im September einen einsatzfähigen Vektorvirus-Impfstoff haben zu wollen, haben inzwischen auch BioNTech/Pfizer für ihren RNA-Impfstoff eine Zulassung und erste Auslieferung im Oktober angekündigt. Erste Lieferverträge für diese Impfstoffe bestehen auch schon: AstraZeneca und ihre Partner (mit aktuell der größten Kapazität weltweit) haben Verträge zum Selbstkostenpreis mit der EU (400 Mio. Dosen), UK, USA und zwei Verbänden weiterer Länder (weitere 700 Mio. Dosen) und wollen außerdem eine Milliarde Dosen für weniger entwickelte Länder bereitstellen – allerdings in 2020 und 2021 zusammen. BioNTech/Pfizer haben Verträge über 30 Millionen Dosen mit UK und über 100 Millionen Dosen mit den USA (wobei bei diesem Impfstoff pro Patient zwei Dosen geplant sind). Der Preis im US-Vertrag liegt mit 19,50 Dollar pro Dosis unter dem eines typischen Grippeimpfstoffs. Falls beide Impfstoffe sich in ihren Phase-III-Studien bewähren (und alle vorliegenden Daten aus den vorherigen Phasen sprechen dafür), dann würde das also einen erheblichen Beitrag zur Bekämpfung der Krise leisten. Insgesamt ermittelt das Beratungsunternehmen McKinsey eine weltweite Produktionskapazität von einer Milliarde Impfdosen noch im Jahr 2020 und weiteren 7,4 Milliarden im Jahr 2021. Dazu müssen allerdings noch Kapazitäten in Form von Lizenzen, Auftragsfertigung oder anderen Kooperationen neu verteilt werden, je nachdem, welche der laufenden Entwicklungsprojekte eine Zulassungsreife erreichen. Update 20.9.2020: Ein Schritt zu dieser Umverteilung ist gerade erfolgt, indem BioNTech erklärt hat, die Impfstoffproduktion von Novartis am Traditionsstandort Marburg (Beringwerke) mit einer Kapazität von 250 Millionen Impfdosen im 1. Halbjahr 2021 zu übernehmen. Die mäßigen Preise sind bei etwas Branchenkenntnis nicht überraschend: Im Gesundheitssystem sieht man sich nicht nur zweimal, sondern jedes Jahr wieder. Ein Hersteller, der versuchte, in einer solchen Notsituation seine Machtposition auszunutzen, müsste befürchten, in den Folgejahren bei den Preisverhandlungen für seine anderen, in der Summe weitaus einträglicheren Produkte unter erheblichen politischen Druck zu geraten. Gleichzeitig ist eine solche gigantische Einmalanstrengung für die Hersteller mit erheblichen Kosten in Entwicklung, Produktion und Vertrieb verbunden. So dürfte bei SARS-CoV-2-Impfstoffen für die Hersteller der ideelle Wert für Mitarbeiter, Kunden und Investoren, aber auch gegenüber Staaten und Regulierungsbehörden, den kurzfristigen finanziellen Ertrag bei weitem übertreffen.
Update 6.8.20: Sanofi und GSK verhandeln inzwischen über Lieferverträge für einen gemeinsamen proteinbasierten Impfstoff, der aber noch nicht an Patienten getestet wird und erst in der ersten Hälfte 2021 verfügbar sein soll. Wenn die aktuell laufenden Projekte erfolgreich sind, könnten dann mindestens je ein Tot-, RNA- und Vektorvirusimpfstoff schon seit einem halben Jar am Markt sein, und es könnte zwischenzeitlich die Frage aufkommen, ob die Produktionskapazität der beiden Branchenriesen nicht besser in Lizenz für einen Impfstoff genutzt würde, der schon zugelassen ist. Andererseits haben sie zumindest die Chance, der erste reine Proteinimpfstoff zu sein, was wegen der geringen Komplexität rein theoretisch ein gutes Risikoprofil erwarten lässt.
Kommen wir aber zurück zur Sicherheit: Bedeutet dieses beschleunigte Prüf- und Zulassungsverfahren in den westlichen Ländern, dass bei der Sicherheit Abstriche gemacht werden? Werden, wie auch von Ärzten gelegentlich behauptet, unzureichend getestete Impfstoffe durchgewunken? Für die letztlich geimpften Patienten kann man ein solches zusätzliches Risiko klar verneinen: Die für die Sicherheit entscheidenden Phase-III-Studien mit ihren fünfstelligen Probandenzahlen unterscheiden sich in Methodik und Umfang nicht von denen herkömmlicher Arzneimittelzulassungen. Ein gewisses zusätzliches Risiko ergibt sich jedoch für die Probanden in den Studien, weil die ihnen jeweils verabreichten Impfstoffe vorher weniger im Tiermodell oder an kleineren Patientenzahlen getestet wurden, als dies eigentlich üblich wäre. Dies schreckt bei der Wichtigkeit des Themas potentielle Probanden jedoch ganz offensichtlich nicht ab: Für die Phase-I-Studie zum RNA-Impfstoff von CureVac mit ganzen 50 Probanden meldeten sich beim Universitätsklinikum Tübingen 4000 Freiwillige.
Wie sieht es nun aber mit dem eingangs erwähnten Impfstoff des Gamaleya-Instituts aus, der in Russland schon Mitte August zugelassen werden soll? Unter den fortgeschrittenen Entwicklungsprojekten, die sich bereits in Phase III befinden, taucht die „sichere und effiziente Lösung für das größte Problem der Welt“ aus Moskau hier ja nicht auf. Die erfolgreiche Patientenstudie, deren Ergebnisse noch nicht veröffentlicht sind, auf die sich die Moskauer Verantwortungsträger aber berufen, ist jedoch bei der WHO gemeldet und in der Datenbank der amerikanischen Gesundheitsbehörden registriert worden. In der Registrierung ist von einer Phase-I/Phase-II-Studie die Rede; nach den Details der Registrierung handelt es sich jedoch um eine reine Phase-I-Studie: Der Impfstoff wurde insgesamt an nur 38 ProbandenUpdate 4.9.2020: am 4.9.2020 veröffentlicht wurden, wird zwar als Phase-1/2-Studie bezeichnet, es handelt sich jedoch faktisch um eine gewöhnliche Phase-I-Studie: Der Impfstoff wurde in zwei Varianten an jeweils 38 Probanden (laut Verteidigungsministerium handelt es sich um „freiwillige“ Soldaten) getestet; es gab keine Kontrollgruppe und keine Placebos, und der gemessene Zielparameter war nicht das tatsächliche Verhindern von Infektionen, sondern nur Laborwerte wie der Nachweis von Antikörpern. Update 20.9.2020: Inzwischen haben 37 internationale Wissenschaftler, darunter Spezialisten für Betrug in der Wissenschaft, in einer „Note of Concern“ an die veröffentlichende Zeitschrift ernsthafte Bedenken an der Glaubwürdigkeit der Ergebnisse der russischen Phase-I-Studie angemeldet. Unter anderem tauchen bei unterschiedlichen Messdaten von unterschiedlichen Patienten auffällig oft dieselben Werte auf – häufig ein Zeichen von Datenmanipulationen. Russland lässt bei der Zulassung schlicht die Erprobungsphasen aus, die die Wirksamkeit und Sicherheit des Impfstoffs hätten belegen müssen. Präzisierung 17.8.2020: Dann, nach der Zulassung, wenn der Impfstoff schon in der breiten Bevölkerung eingesetzt wird, noch eine Phase-III-Studie nachzuschieben (Update 4.9.20: die ausschließlich in Russland erfolgen soll, was Ergebnisse erst spät in 2021 erwarten lässt, falls die Epidemie dort nicht massiv schlimmer ist oder wird, als aktuell berichtet wird, und die am 2.9. noch nicht mit der Rekrutierung von Probanden begonnen hatte), ist für die internationale Vermarktung unvermeidlich, verbessert die Situation für die dann schon Geimpften aber nicht. Das kann sich am Ende als erfolgreich herausstellen: Angesichts der Ähnlichkeit zum weit fortgeschrittenen Oxforder Projekt dürften die Chancen nicht einmal schlecht stehen, dass der Gamaleya-Impfstoff tatsächlich einen Schutz bietet und die Nebenwirkungen sich in Grenzen halten. Das Moskauer Va-Banque-Spiel kann aber auch üble Folgen haben. Realistisch betrachtet ist die Sicherheit dieses Impfstoffs weniger getestet als seinerzeit die von Contergan. Faktisch macht man die Bevölkerung, vor allem aber das zuerst zu impfende medizinische Personal, zu Probanden eines riesigen Arzneimitteltests ohne Placebokontrolle. Dass man sich darauf einlässt, könnte eine Folge von Geltungsbedürfnis und Großmachtphantasien sein, wie Dmitrievs Sputnik-Vergleich nahelegt. Als Motivation kommt aber auch schlichte Verzweiflung angesichts einer immer noch unkontrollierten Epidemie in Frage. In Russland sind seit den Spitzenwerten die Fallzahlen mit offiziell gemeldeten 5000 neuen Fällen täglich nur geringfügig gesunken, es gibt schon über 14.000 Tote, und der Herbst rückt näher. So erscheint für Russland selbst ein realistischer Worst Case mit erheblichen Nebenwirkungen und in der Folge Tausenden von Toten gerechtfertigt, wenn der Impfstoff denn hilft, die Epidemie unter Kontrolle zu bekommen. Gerade das könnte dann aber bei uns verheerende Folgen für die Akzeptanz auch wesentlich besser getesteter Impfstoffe haben.
So bleibt letztlich nur die Hoffnung, dass der Sputnik-Moment am Ende nicht zum Tschernobyl-Moment gerät.
Eigentlich wollte ich nur mal wieder einer besonders unappetitlichen Geschichte über unseren alten Bekannten Karl Probst nachgehen, als ich auf das folgende Video gestoßen bin:
Das Video wird auf einem Youtube-Kanal namens „Quantenheilung TV“ verbreitet, und im Lauf des Videos wird immer wieder eine Bauchbinde eingeblendet, in der für Quantenheilung und eine Webseite „Anleitung Quantenheilung“ geworben wird. Der gezeigte Film stammt jedoch aus der NDR-Reihe „Die Ernährungs-Docs„. (Falls also das Video irgendwann nach Erscheinen dieses Artikels bei Youtube verschwunden sein sollte, könnte ich mir vorstellen, dass der NDR diese Verwendung nicht lustig fand.) Tatsächlich waren alle von mir angesehenen Videos auf „Quantenheilung TV“ aus Sendungen des öffentlich-rechtlichen Rundfunks, äh…, entnommen und mit Werbeeinblendungen für Quantenheilung versehen.
Nun kann man schon an der NDR-Sendung selbst so einiges kritisieren:
Als Beispiel für einen Patienten des Diabetes Typ 2 (sogenannten Alterdiabetes, typischerweise nur ein Aspekt des sogenannten metabolischen Syndroms) zeigt der Film, wenig repräsentativ, einen deutlich übergewichtigen, aber ansonsten offenbar völlig gesunden Mittfünfziger.
Dass in solchen Fällen schlichtes Abnehmen wichtiger ist als Medikamente und alleine zu einer Normalisierung des Blutzuckers führen kann, die der im Film gezeigte Diabetologe Heilung nennt, ist eine Binsenweisheit und bezeichnenderweise sogar in der Deutschen Apotheker Zeitung nachzulesen. Dass ein insulinpflichtiger, aber ansonsten relativ gesunder Typ-2-Diabetiker, nachdem er abnimmt, wieder mit oralen Antidiabetika anstatt Insulin auskommt, ist nun wirklich nicht überraschend.
Der übergewichtige, diabetische Patient erklärt allen Ernstes, er sei noch nie von einem Arzt darauf hingewiesen worden, dass er seine Ernährung umstellen sollte, und sein Diabetologe habe das ausdrücklich abgelehnt. Nun bin ich weder Arzt noch übergewichtig, aber nach allem, was ich von übergewichtigen Bekannten über ihre Arztbesuche höre, erscheint mir das recht unwahrscheinlich.
Der gezeigte Diabetologe behauptet, das gleichzeitige (nicht aber das zeitversetzte) Essen von Fett und Kohlenhydraten mache süchtig und zeigt als Beleg zwei Ratten, die einen frischen, zerkleinerten Hamburger einem Schälchen mit Trockenfutter vorziehen. Der Kommentartext der Sendung bezeichnet Nahrung mit Fett und Kohlenhydraten in der Folge als „Fressmischung“. Ich hätte ja gerne mal die Gegenprobe gemacht, wie die Ratten auf ein paar frische Salatblätter oder ein saftiges Stück Gurke im Vergleich zum Trockenfutter reagiert hätten, aber da das nicht geht, beschränke ich mich auf den Hinweis, dass eine solche Kombination aus Fett und Kohlenhydraten nicht nur im Hamburger (z.B. 8% und 29% bei McDonald’s) sondern auch in eben solchem Trockenfutter für Ratten (z.B. 9% und 54% bei Mixerama) enthalten ist.
Was man den NDR-Redakteuren aber auf jeden Fall nicht vorwerfen kann: Die sogenannte Quantenheilung, für die in der Einblendung und im Text unter dem Video geworben wird, ist in der ganzen Sendung mit keinem Wort erwähnt. Mit Quantenheilung habe ich mich schon des Öfteren im Blog und recht ausführlich im Buch beschäftigt. Wer dennoch noch wissen möchte, was Quantenheilung eigentlich ist; bei längeren Vorträgen führe ich immer gerne mal eine genau solche Quantenheilung „nach der zwei-Punkt-Methode“ live im Saal vor und heile jemanden, zum Beispiel hier 2018 beim Ratio Science Forum in Sofia:
Kurz zusammengefasst handelt es sich um eine sehr plumpe Suggestionstechnik, die mit Quanten- oder sonstiger Physik nicht das Geringste zu tun hat. Rechtlich gehören die Quantenheiler laut Rechtsprechung des BGH zu den Geistheilern. Nun ist es natürlich zutreffend, dass vor allem bei entsprechend leichtgläubigen Menschen selbst eine sehr plumpe Suggestionstechnik unter Umständen nützlich sein kann, um eine beschlossene Ernährungsumstellung tatsächlich durchzuhalten. Das Ratten-„Experiment“ in der Sendung ist ja eigentlich auch nichts anderes als plumpe Suggestion. Noch besser hilft natürlich ein Kamerateam, das einen nach drei Monaten wieder besuchen wird, um über die erwartete Gewichtsabnahme im Fernsehen zu berichten…
Das wirklich Ärgerliche ist aber, dass durch den Kontext, in dem das Video auftaucht, und durch die Einblendungen in der Bauchbinde ganz eindeutig der Eindruck erweckt wird, Quantenheilung hätte eine spezifische Wirkung gegen Diabetes oder könne sogar Insulin ersetzen. Wie problematisch das ist, zeigt der Auslöser für meine kleine Recherche: Da schrieb mich (als Reaktion auf einen meiner Karl-Probst-Artikel) ein durch genau solche Videos verunsicherter Diabetiker an, der ernsthaft vor hatte, ohne Rücksprache mit seinem Arzt sein Insulin abzusetzen.
18 Jahre nach den Anschlägen des 11. September gehört es schon fast zu den regelmäßigen Ritualen, dass es alle paar Jahre die Verschwörunsmythen-Community aufs Neue verkündet: Dieses Mal wäre nun wirklich, echt, ganz unzweifelhaft, eindeutig unwiderlegbar der Beweis erbracht, dass die Anschläge in Wirklichkeit gar keine Anschläge wären, sondern ein perfider Plan der amerikanischen Regierung, der CIA, des Mossad, der Uno, der Freimaurer, der Juden – oder eben von allen zusammen. Normalerweise kann man das alles getrost ignorieren, weil dabei nun wirklich nie irgendetwas Relevantes Neues herauskommt, und Quantenquark im engeren Sinne ist es auch nicht. Da ich dem 11. September aber im Verschwörungsmythen-Buch ein ganzes Kapitel gewidmet habe, möchte ich doch in der Art eines Online-Nachtrags auf die aktuelle Sau eingehen, die dazu durchs globale Dorf getrieben wird. Vorgehen werde ich dabei von der Frage, wer das verbreitet, über ein paar Hintergründe zu der Untersuchung, auf die sich die Meldungen beziehen und einige ganz grundsätzliche Fragen zu den Behauptungen, die in der Untersuchung aufgestellt werden, hin zu ein paar Schlaglichtern auf Details, die angeblich herausgefunden wurden. Das ganze 114seitige Werk auseinanderzunehmen, übersteigt sowohl meine Fachkompetenz in bauingenierwissenschaftlichen Detailfragen als auch meine verfügbare Freizeit, und es würde auch den Rahmen eines Blogartikels sprengen. Lang wird er trotzdem werden. Sollten Sie irgendwann das Gefühl haben, Sie hätten genug gelesen, steigen Sie jederzeit gerne aus – Sie verpassen keine Schlusspointe. Sollten Sie am Ende immer noch nicht genug haben, dann werden Sie sicherlich zu so ziemlich jedem der angesprochenen Themenbereiche detailliertere Analysen vor allem auf amerikanischen Seiten wie Metabunk finden. Dort werden in einer Forumsstruktur Informationen kollaborativ zusammengetragen, ausgewertet und diskutiert, was logischerweise weit über das hinausgeht, was ich als Einzelner an ein paar Abenden meiner Freizeit leisten kann.
Die Sensation: Ein „Entwurf“ für eine Veröffentlichung
Dass sich ausgerechnet die UAF an der Verbreitung von Verschwörungsmythen beteiligen soll, ist zumindest pikant: Diese Universität betreibt auch das Atmosphärenforschungszentrum HAARP, von dem unter anderem die Innsbrucker Professorin Claudia von Werlhof behauptet, es sei dazu geeignet, als Waffe gezielt Erdbeben in fernen Erdteilen auszulösen. Die UAF wird also selbst oft genug zur Zielscheibe derselben Szene, die sich jetzt auf eine Studie dieser Universität beruft. Es lohnt sich daher auf jeden Fall ein Blick auf diese Studie, die als „Entwurf“ von einer Unterseite der Universitätswebsite herunterzuladen ist. [Nachtrag 27. März 2020: Inzwischen ist aus dem „Entwurf“ ein „Final Report“ geworden, was nicht etwa heißt, dass da etwas in einem seriösen Journal veröffentlicht worden wäre, sondern einfach nur, dass der Autor meint, er sei jetzt fertig.] Sie trägt den Titel „Eine strukturelle Neubewertung des Einsturzes von World Trade Center 7“ und beschäftigt sich ausschließlich mit diesem kleineren Wolkenkratzer etwas abseits der Zwillingstürme. Zum World Trade Center 7 (WTC 7) hatte ich schon vor einigen Jahren einen Artikel im Skeptiker verfasst, der auch als Dreiteiler im GWUP-Blog veröffentlicht ist. Das Gebäude ist 2001 durch Brände eingestürzt, die beim Zusammenbruch der Zwillingstürme ausgebrochen waren. Genau diesen Zusammenhang zwischen den Bränden und dem Einsturz bestreitet die „Neubewertung“ aus Alaska.
Ein Autor im Ruhestand und Finanzierung aus der Schwurbelszene
Der Entwurf gibt drei Autoren von unterschiedlichen Institutionen (darunter einen außerordentlichen Professor der Technischen Universität Nanjing in China) an, was den Eindruck einer institutsübergreifenden Zusammenarbeit erweckt. Tatsächlich waren die beiden Koautoren zum Zeitpunkt ihrer Beteiligung jedoch Doktoranden des Hauptautors Leroy Hulsey an der UAF. Beide stammen aus China und sind erst nach ihrem Bachelorabschluss in die USA gekommen, direkt an die UAF. Der Entwurf war für die beiden auch nicht Teil ihrer Doktorarbeiten, sondern allenfalls eine Nebentätigkeit: Einer hat über die Feuerbeständigkeit von Gipsplatten promoviert, der andere über die Überwachung von Schäden an Brücken. Ob ihr Beitrag zu dem Entwurf über eine reine Datencodiertätigkeit hinausgeht, bleibt also unklar. Hulsey ist an der UAF offiziell Dozent und betreut laut Homepage auch noch wissenschaftliche Arbeiten, befindet sich jedoch mit 78 Jahren schon weit im Ruhestandsalter. Es handelt sich bei dem Text also nicht um eine Veröffentlichung in einem wissenschaftlichen Journal oder um eine offizielle Stellungnahme der Universität, sondern um die Forschungsfreiheit eines Pensionärs, der aufgrund seiner früheren Arbeit noch die Einrichtungen der Universität dafür nutzen darf. Ähnlich wie bei emeritierten Professoren in Deutschland ist es in den USA nicht unüblich, dass solche Professoren keine Lehrverpflichtungen mehr haben, die Ressourcen der Universität aber noch für eigene Forschungen nutzen können, bei deren Themenauswahl ihnen in der Regel niemand mehr hineinredet. Angesichts der katastrophalen Finanznot dieser Universität dürfte das erst recht für Projekte gelten, die aus Drittmitteln finanziert werden. Im Fall der „Neubewertung“ stammen diese Drittmittel ausgerechnet von der Verschwörungsgläubigen-Organisation Architects & Engineers for 9/11 Truth, womit das Ergebnis der Untersuchung dann auch nicht mehr sonderlich überraschend ist. Natürlich ist der Ausgang einer wissenschaftlichen Untersuchung nicht vom Geldgeber abhängig, solange sie seriös durchgeführt und veröffentlicht wird, aber dieser Propagandaverein hätte seine von besorgten Bürgern eingesammelten Spenden wohl kaum einem Wissenschaftler anvertraut, bei dem das Ergebnis der Untersuchung in Frage gestanden hätte.
Wie seine beiden Doktoranden ist Hulsey tatsächlich Bauingenieur. Es deutet jedoch nichts darauf hin, dass er irgendwelche Erfahrung im Bau oder der Untersuchung von Wolkenkratzern hätte: Seine Veröffentlichungsliste dreht sich, abgesehen von ein paar Arbeiten über Straßenbeläge, fast ausschließlich um die Konstruktion von Brücken unter subarktischen Bedingungen. Hulseys Arbeitsschwerpunkt bei eher horizontalen, frei tragenden Kontruktionen lässt sich in der „Neubewertung“ durchaus wiedererkennen: Mit großer Akribie wird die Modellierung einzelner tragender Teile in den vermutlich zuerst abgestürzten unteren Etagenböden beschrieben, und ihre Eigenschaften unter thermischer Belastung werden detailliert diskutiert. Wo es um die Statik des Gebäudes insgesamt geht, rezitiert er jedoch eher fahrig die Ergebnisse seiner Modellrechnung, ohne auf die Implikationen einzugehen oder auch nur ihre Plausibilität zu hinterfragen.
Der Wissensstand zu World Trade Center 7
Wie bereits erwähnt, geht es in der Studie ausschließlich um das Gebäude WTC 7. Es wurde am 11. September 2001 beim Einsturz des Nordturms schwer beschädigt und geriet in Brand. Nachdem die mit der Gesamtsituation überforderte Feuerwehr die Brände kaum bekämpfen konnte, wüteten diese über mehr als sechs Stunden, bis das Gebäude schließlich einstürzte. Dass Stahlkonstruktionen durch die Hitzeentwicklung bei längeren Bränden an Stabilität verlieren, war schon vor dem 11. September nichts Neues, einerseits weil Stahl bei Temperaturen über 600° weich wird, andererseits wegen der thermischen Ausdehnung von Bauteilen. Da so ein Hochhaus aber eben so unverrückbar stabil aussieht, ist das für viele Leute schwer zu verstehen, und die Behauptungen von Ganser & Co fallen auf fruchtbaren Boden. Die derzeit gründlichste Analyse, was in diesem Fall genau passiert sein dürfte, findet sich im Bericht der amerikanischen Standards- und Eichbehörde NIST aus dem Jahr 2008. Der dreiteilige, rund 920-seitige Bericht, an dem mehr als 100 Personen mitgearbeitet haben, stützt sich neben Bild- und Videoaufnahmen sowie Brandanalysen vor allem auf eine detaillierte Finite-Elemente-Simulation des gesamten Gebäudes. Bei einer solchen Simulation wird ein Bauteil oder ein ganzes Gebäude in eine Vielzahl fiktiver kleiner Einzelteile zerlegt, die sich durch einfache Kennzahlen wie Gewicht, Bruchfestigkeit und Elastizität beschreiben lassen. Diese notwendigen Vereinfachungen sind schwierig und niemals perfekt, weshalb schon im Titel des Abschlussberichts ausdrücklich von einem wahrscheinlichen Einsturzverlauf die Rede ist. Danach brachen durch thermische Ausdehnung vermutlich zuerst Deckenträger in den brennenden unteren Stockwerken aus ihren Halterungen, und durch die abstürzenden Decken verloren einzelne senkrechte Säulen im Gebäude ihre Stabilität. Daraufhin kollabierte zuerst der Gebäudekern und ein paar Sekunden später die Fassade. Etwas ausführlicher beschrieben ist das im entsprechenden Kapitel des Verschwörungsmythen-Buchs.
Jetzt also noch ein Versuch mit der gleichen Methode
Hulseys Studie kontrastiert sich in erster Linie mit dem NIST-Bericht und verfolgt das offensichtliche Ziel, diesen zu diskreditieren. Daneben vergleicht Hulsey seine Ergebnisse auch mit zwei weniger umfassenden Simulationen aus gegensätzlichen Gutachten zu einem Gerichtsverfahren aus dem Jahr 2013: Der Stromversorger Con Ed als Betreiber einer beim Einsturz zerstörten Transformatorstation unter dem Gebäude hatte gegen die Erbauer wegen vermeintlicher Baumängel geklagt. Beide Gutachten kamen zu abweichenden, aber im Grundsatz ähnlichen Ergebnissen wie das NIST, welche Deckenträger genau aus welchem Grund abgestürzt sind und den weiteren Einsturz ausgelöst haben. Hulsey nutzt ebenfalls Finite-Elemente-Simulationen und betont mehrfach, von gleichen Annahmen wie das NIST ausgegangen zu sein – er kommt aber zu ganz anderen Ergebnissen. Danach hätten weder die Etagenböden abstürzen noch deren Absturz den Einsturz der zentralen Gebäudesäulen auslösen sollen, und auch bei einem Einsturz dieser Säulen hätte nach Hulseys Simulation das Gebäude nicht in der beobachteten Form einstürzen dürfen. Hulsey schreibt, er hätte seine Berechnungen parallel mit zwei unterschiedlichen Simulationssoftwares vorgenommen, aber weitgehend gleiche Ergebnisse erhalten. Das ist nicht weiter überraschend: Die Hauptfehlerquelle bei Finite-Elemente-Berechnungen ist nicht die Simulation selbst, sondern die Modellierung der Eingangsparameter mit den unvermeidlichen Vereinfachungen. Bei identischer Modellierung sollten unterschiedliche Softwarepakete sehr ähnliche Ergebnisse liefern. Insgesamt ist die Methode jedoch mit hohen Unsicherheiten behaftet: Im Zusammenhang mit meiner Doktorarbeit hat ein sehr erfahrener Ingenieur solche Simulationen zur Deformation der relativ einfachen Aluminiumstruktur eines Detektorgerüsts unter seinem eigenen Gewicht ausgeführt. Dazu erinnere ich mich an Abweichungen von den später gemessenen Werten um rund ein Viertel. Da in solchen Softwarepaketen in der Regel zum Beispiel die Tragkraft eines Bauteils unabhängig von seiner Ausdehnung und seinem Gewicht definiert werden kann, ist es, wenn man nicht aufpasst, auch durchaus möglich, Modelle zu konstruieren, die grundlegenden Gesetzen der Physik widersprechen. Grundsätzlich gilt für die Finite-Elemente-Methode das einfache Prinzip jeder Simulationsrechnung: Shit-in – Shit-out. Das betrifft die NIST-Berechnung wie die anderen erwähnten Simulationen: Sie sind fehlerbehaftet und immer nur so gut wie ihre Annahmen.
Zumindest in Teilaspekten sollte Hulsey kompetent sein
Zur Qualität der Modellierung von Hulsey in ihren Details und im Vergleich zu den drei anderen Simulationen kann ich nichts sagen. Dazu fehlen mir nicht nur die Fachkompetenz und die Zeit, sondern auch die Detailinformationen, was er in seiner Modellierung eigentlich genau gemacht hat. Das grundsätzliche Problem der Konstruktion von Etagenböden und ihrer Träger erscheint mir jedoch durchaus Ähnlichkeiten zu Hulseys Fachgebiet, dem Brückenbau, zu haben. Man muss also davon ausgehen, dass er und seine Doktoranden grundsätzlich Ahnung hatten, was sie da taten. Der betreffende Teil der Arbeit ist im Text auch einigermaßen gut dokumentiert, wenngleich bei weitem nicht in dem Detailgrad wie im Bericht des NIST. Sofern er nicht bewusst manipuliert hat, sollten die Bewegungen der einzelnen Bauteile durch den Brand durch sein Modell also nicht völlig abwegig berechnet werden. Dasselbe gilt aber eben auch für die Simulationen der beiden Gutachterbüros aus dem Gerichtsverfahren und vor allem für die des NIST, das vor mehr als zehn Jahren zwar noch nicht die heutigen Rechner hatte, aber für Recherche und Modellierung auf wesentlich mehr Ressourcen zugreifen konnte. Hulseys Modellierung ist also nur eine weitere Berechnung, die von der Betrachtung der Modelle her im besten Fall halbwegs gleichwertig neben drei anderen stehen könnte. Auf dieser Detailebene ist ein Abgleich mit der Realität schwierig, weil es um zunächst kleine Verformungen tief im Inneren des Gebäudes geht, von denen keinerlei Aufnahmen existieren und deren Spuren beim endgültigen Einsturz und darauf folgenden Abriss zerstört wurden.
Die Interpretation der Ergebnisse unterstellt eine sehr wirre Verschwörung
Zu einer wesentlich aussagekräftigeren Einschätzung, wie realistisch Hulseys Berechnung ist, gelangt man, wenn man seine Ergebnisse für das Gesamtgebäude einschließlich seiner Schlussfolgerungen daraus ernst nimmt und sich überlegt, was das für die Realität bedeuten würde. Von einer Sprengung ist in diesen Schlussfolgerungen nicht ausdrücklich die Rede – eine solche kommt im gesamten Text überhaupt nicht explizit vor. Hulsey schreibt jedoch: „Das nahezu gleichzeitige Versagen aller Säulen ist das einzige Szenario, das wir gefunden haben, das in der Lage war, das beobachtete Verhalten zu produzieren.“ Dieses „beobachtete Verhalten“ identifiziert Hulsey als einen senkrechten Einsturz mit nahezu Fallgeschwindigkeit. Mit anderen Worten, Hulseys Modell stürzt nur dann senkrecht ein, wenn alle tragenden Säulen gleichzeitig versagen – wenn wie im NIST-Modell zunächst einzelne Säulen ausfallen, stürzt Hulseys Modell entweder gar nicht ein, oder es kippt zur Seite um.
Für ein solches gleichzeitiges Versagen von 81 Säulen, von denen die dickeren rund 60 Zentimeter Durchmesser hatten, auf Höhe der unteren Stockwerke lässt sich aber nun tatsächlich schwerlich eine andere Erklärung finden als eine präzise gesteuerte Zündung von mindestens 81 einzelnen starken Sprengvorrichtungen. Das wertet Ganser somit als Beweis für eine Sprengung des Gebäudes. Damit unterstellt er der ominösen Macht, die die Sprengung vorgenommen haben soll, allerdings eine ziemlich seltsame Vorgehensweise. Um Sprengmechanismen an allen 81 Säulen anbringen zu können, hätte man im laufenden Betrieb mindestens ein vermietetes Stockwerk vollständig entkernen müssen. Da die äußeren Säulen Teil der Fassadenstruktur sind, wäre es zudem kaum möglich gewesen, Schneidladungen, die eine solche riesige Stahlsäule durchtrennen können, so anzubringen, dass sie nicht außen auf der Fassade zu sehen gewesen wären. Der riesige Aufwand wäre zudem völlig überflüssig gewesen. Bei Abbruchsprengungen strebt man nur deshalb häufig einen senkrechten Einsturz an, weil man Schäden in der Umgebung minimieren will. Am Nachmittag des 11. September waren jedoch alle Gebäude zumindest an der Südseite von WTC 7 wenigstens abbruchreif, wenn nicht schon eingestürzt. Um WTC 7 zum Einsturz zu bringen, hätte es völlig ausgereicht, einige Säulen an der Südseite des Gebäudes zu zerstören, um das Gebäude zumindest nach Hulseys Modell zu dieser Seite umkippen zu lassen, was weitaus eher der naiven Erwartung der meisten Menschen entsprochen hätte, zumal die Schäden durch den Einsturz der Zwillingstürme auch auf der Südseite waren. Stattdessen müsste Gansers ominöse Macht einen gigantischen zusätzlichen Aufwand getrieben haben, nur um eine Sprengung, die nicht als Sprengung erkannt werden sollte, genau wie eine Sprengung aussehen zu lassen. Das wäre jedoch nicht die einzige höchst seltsame Entscheidung dieser Dunkelmänner. Wie auf vielen Videos zu erkennen ist, stürzte das sogenannte östliche Penthaus, ein Dachaufbau für die Gebäudetechnik, rund sieben Sekunden vor dem Rest des Gebäudes ein – und damit lange vor den von Ganser behaupteten und von Hulseys zumindest unterstellten Sprengungen. In der NIST-Berechnung ist dies einfach eine Folge des Zusammenbrechens der ersten Säulen im Gebäudekern. Hulsey schreibt jedoch selbst, dass dieser Penthaus-Einsturz nach seinem Modell nur durch das Versagen von drei Säulen oberhalb des 45. Stockwerks zu erklären ist. Die Verschwörer hätten also wenige Sekunden vor der Sprengung aller 81 Säulen auf der Höhe eines der unteren Stockwerke schon einmal drei dieser Säulen auf der Höhe eines der obersten Stockwerke sprengen müssen. Wozu das hätte gut sein sollen, erklären weder Ganser noch Hulsey. Man kann also entweder annehmen, dass im WTC 7 eine mächtige Verschwörung mit riesigem Aufwand völlig wirr irgendwelche sinnlosen Sprengungen vorgenommen hat – oder dass Hulseys Modell einfach die Statik des Gesamtgebäudes falsch wiedergibt.
Hulseys Modell beschreibt auch den Einsturz falsch
Will man Hulseys Berechnung ernst nehmen, dann muss man eine Verschwörung annehmen, die allerlei umständliche und überflüssige Handlungen vornimmt. Ein solches Überladen der vermeintlichen Abläufe mit immer neuen Wendungen, um die Widersprüche in der vorigen Version zu erklären, ist ein typisches Merkmal moderner Verschwörungsmythen. Es ist für sich genommen aber kein Beweis, dass Hulseys Modell nicht der Realität entspräche. Betrachtet man seine Ergebnisse jedoch genauer, dann finden sich eine ganze Anzahl unrealistischer Modellaussagen, vor allem bezogen auf das Gebäude als Ganzes.
Auf Metabunk sammelt Mick West unter anderem Informationen über Hulseys Berechnungen, auch mit der Unterstützung der anderen Forumsteilnehmer. Dazu hat West unter anderem die Folien aus einer Präsentation von Hulsey zur Vorstellung seines „Entwurfs“ vergrößert und als zweites Video zur Verfügung gestellt. Diese Präsentation ist interessant, weil sie nicht nur Animationen zu Hulseys Berechnungen enthält, sondern auch Ansichten, die im Entwurf selbst nicht vorkommen. In dieser Präsentation sieht man, dass die Gebäudestruktur in Hulseys kippender Simulation sogar bei weitaus größeren Neigungswinkeln noch vollkommen unbeeinträchtigt zu sein scheint:
WTC 7 verfügt also in Hulseys Berechnung über eine höchst erstaunliche innere Stabilität. Dass der Erdboden in der Berechnung nicht existiert, das Gebäude also im Boden versinken kann, ist für die eigentliche Fragestellung in der Tat unerheblich. Entscheidend ist jedoch die Frage: War das wirkliche WTC 7 auch so stabil? Die Antwort gibt Hulsey in seiner Präsentation unfreiwillig selbst. Mit einer Gegenüberstellung einer eigenen Animation zu einem Video vom 11. September will er offenbar zeigen, dass das abstürzende Gebäude in seiner Simulation ähnlich schnell fällt wie die abstürzende Fassade von WTC 7 im Video. Wozu das gut sein soll, erschließt sich mir nicht – niemand dürfte bezweifeln, dass er in seinen Berechnungen die korrekte Gravitationskonstante verwendet hat. In dem Video sieht man jedoch deutlich, wie sich während des Einsturzes von WTC 7 nicht nur die Dachkante, sondern auch die darunterliegenden Stockwerke in der Mitte der Nordfassade um mehrere Meter tiefer befinden als an den Seiten. Die Mitte der Gebäudefront beginnt Sekundenbruchteile früher abzustürzen als die Seiten und fällt daher auch schneller. Auf anderen Videos sieht man außerdem, dass die Fassade schon in den Sekunden vor dem Einsturz (und damit vor der von Hulsey unterstellten Sprengung) deutlich vor- und zurückschwankt und Fenster zerbrechen. Während das Gebäude also von außen noch weitgehend aussieht wie ein massives Objekt, hat es seine innere Stabilität längst verloren und die größeren Strukturelemente wie Fassadensäulen sind nur noch vergleichsweise locker miteinander verbunden, während sie unter ihrem eigenen Gewicht nebeneinander her in die Tiefe stürzen. In Hulseys Simulation bildet das Gebäude jedoch weiterhin einen kein bisschen deformierten monolithischen Block, der einfach wie ein Bauklotz nach unten wegsackt.
Was in der Simulation weiter unten passiert, wo dieser Bauklotz ja mit dem darunterliegenden Gebäudestumpf kollidieren muss, zeigt Hulsey vermutlich aus gutem Grund weder in seinem „Entwurf“ noch in der Präsentation.
Die von Hulsey selbst mit verächtlichem Stöhnen vorgeführten NIST-Simulationen entsprechen der auf Videos zu sehenden inneren Instabilität des einstürzenden Gebäudes weitaus realistischer, wenngleich die einzelnen Bewegungen der Fassade möglicherweise nicht in jedem Detail getroffen werden. Alle Details in einer Simulation zu reproduzieren, ist bei einem solchen chaotischen Prozess schlicht unmöglich – Hulseys Simulation ist jedoch nicht chaotisch, weil sich sein Gebäude beim Einsturz überhaupt nicht verformt. Obwohl Hulsey die eigentlichen Daten zu seiner Simulation nicht veröffentlicht hat, kann man also schon aus ihren Ergebnissen deutlich erkennen, dass sein simuliertes Gebäude eine unglaubliche Formstabilität hat, die das tatsächliche Gebäude nicht hatte. Die Ursache dieser Fehler zu finden, ist Hulseys Aufgabe. Bis dahin macht es jedoch genau diese Formstabilität unmöglich, aus Hulseys Simulation irgendwelche Schlussfolgerungen zu ziehen, aus dem Einsturz welcher Säulen sich ein Einsturz eines Gesamtgebäudes in welcher Form ergeben sollte. Mehr noch: Die unrealistische Formstabilität betrifft nicht die senkrechten Säulen des Gebäudes selbst, sondern vor allem die horizontalen Verbindungen zwischen diesen Säulen. Da diese horizontalen Verbindungen vor allem aus den Etagenböden mit ihren Trägern und Fußbodenelementen bestehen, muss man auch Hulseys Simulationen zur Stabilität dieser Bodenkonstruktionen und damit ihre Rolle beim Beginn des Einsturzes mit großem Zweifel betrachten. Anders ausgedrückt: Hulseys Berechnungen beschreiben ein fiktives Gebäude, das mit der am 11. September zu beobachtenden tatsächlichen Stabilität von WTC 7 nur wenig Gemeinsamkeiten hat. Somit ist es fraglich, ob man aus Hulseys Modell überhaupt irgendetwas über den Einsturz von WTC 7 lernen kann.
Das ist noch lange nicht alles
Diese grundlegenden Probleme in den Ergebnissen von Hulseys merkwürdiger Modellierung sind, unabhängig von der Methodik durch die sie entstanden sind, eigentlich hinreichend, um keine weitere Zeit mehr darauf zu verschwenden und den ganzen „Entwurf“ in dem Müll zu werfen. Es ist daher durchaus verständlich, wenn Sie auch keine weitere Zeit auf diesen Artikel verschwenden möchten. Die Forumsteilnehmer bei Metabunk haben jedoch auch eine ganze Anzahl systematischer Probleme in Hulseys Methodik gefunden, sofern diese aus dem, was er öffentlich macht, überhaupt nachvollziehbar ist. Diese Probleme möchte ich hier nur der Vollständigkeit halber stichpunktartig aufführen:
In der Bildunterschrift zu diesem Ausschnitt aus dem „Entwurf“ erklärt Hulsey, das Bild sei das Ergebnis einer „linear-statischen Analyse“. Linear heißt in diesem Zusammenhang, dass das Modell voraussetzt, dass wie bei einer Sprungfeder die doppelte Kraft auf ein Bauteil auch die doppelte Verformung auslöst. Eine nichtlineare Analyse würde auch berücksichtigen, dass Bauteile bei zu großer Belastung irgendwann brechen oder dass ein Teil, wenn es gegen ein anderes gedrückt worden ist, nicht weiter nachgeben kann. Statisch bedeutet, dass das Modell nur unveränderliche Kräfte wie Gewichte oder Federkräfte berücksichtigt. Ein dynamisches Modell müsste auch kurzzeitige Kräfte berücksichtigen, die zum Beispiel beim Aufschlag eines fallenden Teils auf ein anderes entstehen. Eine linear statische Analyse ist auf ein einsturzgefährdetes Gebäude also nur anwendbar, bis das erste Bauteil anfängt, sich zu bewegen. Den Verlauf eines Einsturzes mit einem linear statischen Modell zu berechnen, ergibt zwangsläufig vollkommenen Müll. Bei anderen Darstellungen spricht Hulsey zwar von einer dynamischen Analyse, erwähnt aber nicht, ob diese auch die nötigen nichtlinearen Effekte berücksichtigt. Der Begriff der Nichtlinearität kommt in seinem Entwurf nur in dem Zusammenhang vor, dass einzelne Verbindungen in einem ansonsten linearen Modell als „nichtlineare Federn“ modelliert sind.
Hulsey erklärt im Entwurf und in der Präsentation ausdrücklich, das „Versagen“ von Säulen im Gebäude sei dadurch modelliert worden, dass diese Säulen über jeweils acht Stockwerke aus dem Modell entfernt worden seien. Ob dieses Versagen auch zum Einsturz benachbarter Säulen führt, leitet er dann nur daraus ab, wieviel zusätzliches Gewicht diese Säulen nach dem Wegfall der Nachbarn tragen müssen. So kommt er zu der Schlussfolgerung, das vom NIST als Beginn des Einsturzes identifizierte Einstürzen von drei Säulen im Gebäudekern hätte unmöglich den Einsturz der benachbarten Säulen und schließlich des gesamten Gebäudes nach sich ziehen können. Eine brechende Stahlsäule (mit Sprengung oder ohne) löst sich aber nicht in Luft auf: In der Regel knickt sie zur Seite ein. Im ungünstigsten Fall trifft sie dabei eine der benachbarten Säulen und knickt diese ebenfalls ab. Aber selbst im günstigsten Fall, dass der obere Teil der Säule einfach neben dem Stumpf des unteren abgleitet, entstehen über die Querverbindungen wie Deckenträger und Fußböden erhebliche seitwärtige Zugkräfte auf die benachbarten Säulen. Solche 190 Meter hohen und nur 60 cm dicken Säulen (bezogen auf die Länge eines Streichholzes entspricht das gerade der Dicke von zwei menschlichen Haaren) können zwar extreme Gewichtskräfte in senkrechter Richtung aufnehmen, sind aber sehr anfällig gegen Kräfte von der Seite. Die absehbaren Folgen sind in Hulseys Modell nicht enthalten, vermutlich weil sie eben eine nichtlinear-dynamische Analyse erfordert hätten, wie sie das NIST vorgenommen hat.
Aufgrund dieser Angaben im Text und in Hulseys Vortrag sowie der präsentierten Resultate geht der Metabunk-Autor Mick West davon aus, dass Hulseys Berechnungen überhaupt keine tatsächliche dynamische Analyse enthalten. Das würde auch die bemerkenswerte innere Stabilität der simulierten Gebäudestruktur erklären: In diesem Fall würde sich das Gebäude nicht verformen, weil diese Verformungen schlicht nicht berechnet werden. Aufgrund der Ergebnisse einer statischen Berechnung (Überlastung bzw. Entfernen tragender Säulen) wäre der über der Schadenstelle liegende Gebäudeteil einfach gemäß der im ersten Moment herrschenden Kräfte entweder zur Seite gekippt oder senkrecht im Boden versenkt worden. In diesem Fall wäre Hulseys „Simulation“ natürlich eine reine Farce und eine bewusste Täuschung der Öffentlichkeit. Tendentiell bestätigt wird Wests Mutmaßung durch eine Videoanalyse einzelner Bildpunkte, nach der sich die einzelnen Strukturelemente in Hulseys Animationen nicht nur sehr wenig, sondern tatsächlich gar nicht bewegen:
Wests Vermutung würde auch ein extrem seltsames Verhalten des östlichen Penthauses in Hulseys Simulation erklären. Hulsey unterstellt ja, um den Einsturz dieses Dachaufbaus überhaupt erklären zu können, die Zerstörung von drei inneren Säulen in einem der obersten Stockwerke mehrere Sekunden vor der Zerstörung aller Säulen auf Höhe der unteren Stockwerke. Während nach der NIST-Simulation (im Bild unten auf der linken Seite) das Penthaus einfach dem schon einstürzenden Gebäudekern folgt, zerbricht es bei Hulsey (rechts) in zwei große Teile, die durch mehrere noch intakte Betondecken und deren Stahlträger hindurch abstürzen, aber dann ein paar Stockwerke weiter mehr oder weniger in ihrer ursprünglichen Form steckenbleiben. Dabei handelt es sich beim Penthaus um eine im Vergleich zu anderen Teilen des Gebäudes relativ leichte Konstruktion. Das kann nicht das Ergebnis einer Simulation sein, die Kollisionen zwischen den einzelnen Bauteilen des Penthauses und den durchflogenen Betondecken berechnet. Damit stellt sich natürlich die Frage, was Hulseys „Simulation“ überhaupt berechnet.
West verweist in seiner Analyse gleich auf mehrere Stellen in Hulseys Text und Vortrag, an denen er die NIST-Simulation in einer Weise kritisiert, die nur dadurch zu erklären ist, dass Hulsey die Arbeit des NIST nicht verstanden hat oder nicht verstehen will. So verwendet er einen beträchtlichen Teil seines Textes darauf, das Abrutschen eines einzelnen Trägers vermeintlich zu widerlegen, den das NIST beispielhaft als einen möglichen Auslöser des letztlichen Einsturzes modelliert hatte. Im NIST-Gesamtmodell des Einsturzes ist dieser Träger für den Ablauf jedoch gar nicht entscheidend. An anderer Stelle kritisiert Hulsey unterschiedliche Strukturen zwischen unterschiedlichen Gebäudeteilen in der NIST-Simulation. Die feiner aufgelöste Struktur für einen Gebäudeteil diente jedoch nur für eine Detailanalyse innerhalb dieses Teils. Bei der Simulation des Gesamteinsturzes wurde das komplette Gebäude mit einer einheitlichen Simulationsstruktur berechnet.
Zusammenfassend muss man sagen, dass Hulseys Modell, was immer es tatsächlich intern tut, offensichtlich völlig ungeeignet ist, um daraus irgendwelche Rückschlüsse auf die Vorgänge am 11. September 2001 zu ziehen. Es beschreibt eine Phantasiewelt, die grundlegendsten Gesetzen der Mechanik widerspricht, in der komplexe Gebäude sich verhalten wie massive Klötze und Stahlträger durch Betonplatten fallen, ohne dabei auch nur abgelenkt zu werden. Man muss auch eigentlich kein Bauingenieur sein, dass einem diese Fehler geradezu ins Auge springen, und Hulsey darf sie aufgrund seiner Qualifikation und Erfahrung eigentlich unmöglich übersehen. Offen bleibt jedoch, ob es sich bei seiner Vorstellung um ein bewusstes politisch motiviertes Täuschungsmanöver handelt (weil möglicherweise eine realistischere Berechnung nicht das gewünschte Ergebnis gebracht hat) oder ob er es einschließlich seiner beiden Doktoranden tatsächlich nicht besser hinbekommen hat.
Als ich meinen letzten Artikel angefangen habe, wollte ich die Geschichte über den Wodka aus Tschernobyl eigentlich nur als kleinen Aufhänger benutzen, um etwas über veröffentlichte Radioaktivitätsmesswerte und den dabei verwendeten Wust von Einheiten zu schreiben. Dann ist doch wieder eine typische Relativer-Quantenquark-Tirade daraus geworden, und die Erklärung der Einheiten wäre am Schluss einfach zu kurz gekommen – also habe ich da einen Folgeartikel angekündigt, den ich auch ganz schnell liefern will. Allerdings sind mir die tagesaktuellen Nachrichten auch da wieder zuvorgekommen: Aktuell häufen sich in den Medien Berichte über eine Freisetzung von radioaktiven Substanzen in Nordwestrussland. Da man das oft nicht so richtig einordnen kann, der Ort des Geschehens in Nyonoska liegt bei der roten Markierung, also ziemlich abgelegen, aber nicht wahnsinnig weit von Finnland entfernt.
Welche Gefährdung von den in den Artikeln genannten 1,78 bis 2 Mikrosievert gemessener Dosis pro Stunde über einen Tag hin ausgehen sollte, sollte man am Ende dieses Artikels ganz gut einschätzen können. Dass in der Region viel Gemüse aus dem eigenen Garten verzehrt wird, was, wie im letzten Artikel schon erklärt, die Bewertung beeinflussen sollte, halte ich dort für eher unwahrscheinlich. Die Bilder in russischen Medien sehen primär nach einem Großbrand eines ganz normalen Brennstoffs aus, aber wenn in diesem Brand irgendwo radioaktives Material freigesetzt wird, muss man natürlich schon davon ausgehen, dass das mit dem aufsteigenden Rauch einigermaßen großräumig verteilt wird. Videos auf Youtube, die den Vorfall zeigen sollen und eine riesige, ziemlich offensichtlich von konventionellem Brennstoff stammende, schwarze Rauchwolke zeigen, kursieren allerdings, wie Correctiv herausgefunden hat schon seit 2015 im Netz, so dass nähere Informationen weiterhin rar sind.
Die Annahme derzeit ist, dass die Explosion bei Tests für den experimentellen russischen Flugkörper SSC-X-9 Skyfall (russische Bezeichnung 9M730 Буревестник „Sturmvogel“) ereignet haben dürfte. Das interessante an diesem Flugkörper, der nach amerikanischen Informationen allerdings bislang nur Abstürze produziert hat, ist, dass er über einen nuklearen Antrieb verfügen soll. Mit dem großen Energievorrat soll er nach einem russischen Video in der Lage sein, jedes Ziel auf der Welt im Tiefflug auf beliebigen Umwegen zu erreichen, was eine Abwehr erschweren soll. Das Video besteht allerdings zum größten Teil aus Computeranimationen – die echten Aufnahmen darin zeigen nur die Startphase, in der ziemlich offensichtlich eine konventionelle Feststoffrakete eingesetzt wird:
Als Physiker interessiert mich natürlich, wie so ein Antrieb funktionieren soll – und das müsste man auch wissen, um die Folgen eines Unfalls einschätzen zu können. Da muss ich zum Glück nicht wieder ausufern und mein eigentliches Thema wieder verschieben, denn dieser lange, aber wirklich gute Artikel mit dem Titel „The Best Bad Idea Ever?“ beleuchtet die wichtigsten technischen Aspekte und die Geschichte der Erforschung nuklear getriebener Flugzeuge und Flugkörper – und er erklärt, warum nie ein solches Flugzeug geflogen ist und wohl besser auch nicht sollte. In dem Artikel wird auch deutlich, was gemeint sein dürfte, wenn in diesem Kontext immer wieder mal eine ähnliche Technologie aus den USA erwähnt wird. Donald Trump twittert sogar, diese sei fortschrittlicher als die russische Skyfall, womit er offensichtlich die höhere Einsatzgeschwindigkeit der amerikanischen reaktorbeheizten Project-Pluto–Staustrahltriebwerke meint. Dabei fällt in der Regel unter den Tisch, dass diese amerikanischen Versuche vor 55 Jahren aufgegeben wurden…
Entscheidend für die Einschätzung eines Unfalls ist das enthaltene Material. Wenn man davon ausgeht, dass ein typischer Marschflugkörper im geraden Flug (abgeschätzt nach dem amerikanischen Tomahawk) etwa 3000 Newton Schub braucht und ungefähr 250 Meter pro Sekunde (900 km/h) schnell fliegt, dann leistet das Triebwerk etwa 750 Kilowatt. Rechnet man typische Wirkungsgrade dazu, dann müsste der Reaktor ungefähr ein Zehntel der Leistung des Forschungsreaktors München II haben, der durch Verwendung von hoch angereichertem Uran mit 8 kg Brennstoff auskommt. Der Reaktor des Flugkörpers müsste bei ähnlicher Masseneffizienz also ungefähr ein Kilogramm Uran enthalten. Sollte ein solcher Reaktor außer Kontrolle geraten und von seiner eigenen thermischen Leistung zerrissen werden, dann sollte sich das meiner Ansicht nach in der Umgebung durch weitaus mehr Fallout als die gemessenen 2 Mikrosievert pro Stunde äußern. Ich bin jedenfalls gespannt, was wir zu diesem Unfall noch erfahren werden. Im günstigsten Fall beendet er die Entwicklung dieser skurrilen Höllenmaschine, die heutzutage nun wirklich kein Mensch braucht.
Und damit zum eigentlich geplanten Thema, den Einheiten, die einem in Berichten über genau solche Ereignisse begegnen:
Im letzten Artikel habe ich nur die Einheiten Becquerel (Bq) und Sievert (Sv) verwendet, und das sind meines Erachtens auch die einzigen Einheiten zur Radioaktivität, die man in der Kommunikation mit Nichtphysikern verwenden sollte. Ich muss auch selbst jedesmal nachschlagen, wenn mir jemand Messwerte in antiquierten Einheiten wie Curie oder Milliröntgen um die Ohren haut, nur weil er zu faul ist, die Anzeige seines Messgeräts in aussagekräftige, zeitgemäße Einheiten umzurechnen. Becquerel und Sievert sind die einzigen Einheiten, die es sich meines Erachtens lohnt zu merken. Dazu lohnt es sich dann auch, sich ein paar Vergleichswerte zu merken, um Zahlen, die einem irgendwo begegnen, halbwegs einordnen zu können. Was die anderen Messwerte bedeuten und wie man sie umrechnet, möchte ich am Ende dieses Artikels kurz zusammenstellen.
Zunächst einmal muss man sich bei einer Messung zur Radioaktivität fragen, was man überhaupt messen möchte. Grundsätzlich können Radioaktivitätsmessungen Antworten auf drei ganz unterschiedliche Fragen liefern:
Wieviel Radioaktivität ist da überhaupt? Besser wäre noch die Formulierung „wieviel Radioaktivität passiert da“, denn es geht ja schließlich um eine Aktivität. Anzugeben ist also, wie viele radioaktive Zerfälle (Umwandlungen eines Atomkerns in einen anderen unter Aussenden von Strahlung) in einem Material innerhalb eines gewissen Zeitraums passieren. Wählt man als Zeitraum eine Sekunde, dann kommt man genau auf die Einheit Becquerel (Bq), nämlich Zerfälle pro Sekunde. Wenn man nicht eine genau abgegrenzte Strahlenquelle, sondern ein in größerer Menge vorkommendes Material betrachtet, wird häufig die Aktivität pro Menge in Becquerel pro Kilogramm (Bq/kg) angegeben. Nun ist ein Atom in Größenordnungen unseres Alltags sehr klein, und entsprechend klein sind die bei Zerfällen freigesetzten Energiemengen. Beim Zerfall eines Kern des WasserstoffisotopsTritium (das vor allem im Kühlwasser von Reaktoren entsteht) werden zum Beispiel 0,000000000000003 Joule Energie frei, davon etwa ein Drittel in Form von biologisch relevanter Betastrahlung (der Rest verbleibt im umgewandelten Atomkern oder verschwindet im nicht mehr nachweisbaren Neutrino auf Nimmerwiedersehen). Da man sich unter einem Joule auch nicht so viel vorstellen kann: Ein Joule ist etwa die Fallenergie von einem halben Pfund Butter, das aus 40 cm Höhe auf den Boden klatscht. Wenn man das halbe Pfund Butter hingegen aufisst, hat es einen Nährwert von etwa 8000 Kilojoule, also 8 Millionen Joule. Für eine physikalisch relevante Gesamtaktivität braucht man also schon einiges an Becquerel. Wenn man im Labor mit einer radioaktiven Quelle arbeitet, mit der man vernünftig etwas messen kann, ohne dass man im Umgang damit besondere Schutzausrüstung braucht, dann hat die in der Regel einige Kilobecquerel. Wenn man liest, dass beim Reaktorunfall von Three Mile Island (Harrisburg) 1979 geschätzte 1665 Terabecquerel (also Billionen Bq) Radioaktivität in Form von Gasen freigesetzt wurden, dann klingt das gigantisch. Zur Einordnung muss man sich allerdings klarmachen, dass auch ältere Bestrahlungsanlagen zur Krebstherapie in Krankenhäusern Kobalt-60-Quellen von einigen hundert Terabecquerel enthalten. Was eine Becquerel-Zahl für den Menschen bedeutet, hängt stark davon ab, um welche Art von Strahlung es sich handelt und wo die Zerfälle auftreten, insbesondere ob die Strahlenquelle sich außerhalb oder innerhalb des Körpers befindet und wie lange sie dort verbleibt. Mit dem 2015 in ein Überlaufbecken auf dem Werksgelände ausgetretenen Reaktorkühlwasser im Kraftwerk Temelin mit einer Tritium-Aktivität von 272 Becquerel pro Liter würde ich mir zum Beispiel bedenkenlos die Hände waschen oder auch darin baden. Trinken würde ich es dagegen nur im Notfall – allerdings immer noch lieber als zum Beispiel ungefiltertes Flusswasser. Gelangt radioaktives Material in den Körper, ist die Frage, wie lange es dort wo verbleibt. Bei der Ventilationsszintigraphie zur Untersuchung der Lunge atmet man 400 bis 800 Megabecquerel eines radioaktiven Edelgases ein. Da ein Edelgas mit praktisch nichts chemisch reagiert, wird es aber auch direkt wieder ausgeatmet. Die 55 Becquerel Tritiumaktivität aus einem Glas Temelin-Kühlwasser würden über den normalen Stoffwechsel des Körpers über die nächsten Tage wieder ausgeschieden. Jod-131, ein Produkt der Kernspaltung, ist der wichtigste Problemstoff in den ersten Wochen nach einem Reaktorunfall. Da bei den meisten Mitteleuropäern, die nicht regelmäßig Fisch essen oder mit Jodsalz kochen, der Jodbedarf des Körpers allenfalls knapp gedeckt ist, wird dieses radioaktive Jodisotop vom Körper gut aufgenommen, in der Schilddrüse eingelagert und kaum wieder ausgeschieden, sondern zerfällt mit einer Halbwertszeit von acht Tagen. Daher können auch relativ kleine Becquerel-Zahlen von Jod-131 im kleinen Volumen der Schilddrüse ein erhebliches Krebsrisiko verursachen. So ist der sonst seltene Schilddrüsenkrebs die einzige Krebsart, für die nach Tschernobyl in der allgemeinen Bevölkerung der Anliegerstaaten Ukraine und Weißrussland (außerhalb der an den Aufräumarbeiten beteiligten Liquidatoren) tatsächlich ein Anstieg erkennbar ist. Glücklicherweise ist Schilddrüsenkrebs zwar eine schwere Erkrankung, die erhebliche Einschränkungen der Lebensqualität mit sich bringt, verläuft aber nur in rund einem Zehntel der Fälle tödlich. Die Einlagerung von Jod in der Schilddrüse ist auch der Grund, weshalb man nach Reaktorunfällen bei gefährdeten Personen versucht, durch hochdosierte Jodtabletten ein Überangebot an nicht radioaktivem Jod zu schaffen, so dass ein möglichst großer Anteil des insgesamt verfügbaren (somit auch des radioaktiven) Jods wieder ausgeschieden wird. Radioaktive Problemstoffe, die sich über viele Jahre in den Knochen oder der Leber anreichern, sind die Brennstoffe Uran und Plutonium sowie die Spaltprodukte Cäsium-137 und Strontium-90. Da sie auch über viele Jahre nur zu kleinen Teilen zerfallen, können sich von diesen Stoffen selbst kleine Becquerel-Zahlen mit der Zeit zu erheblichen Belastungen aufsummieren. Das gilt insbesondere, wenn über einen langen Zeitraum die tägliche Nahrung belastet ist, was den im letzten Artikel erwähnten extrem niedrigen Strontium-90-Grenzwert in der Ukraine erklärt. Wegen dieser Unterschiede in der biologischen Relevanz der Aktivität unterschiedlicher Stoffe ist es auch so problematisch, wenn in dem in Fukushima aus den Reaktorruinen gepumpten Sickerwasser neben den rund einer Million Bq/l Tritium auch nach der Entsalzung noch Mengen von jeweils rund 100 Bq/l von anderen Isotopen gefunden werden. Ginge es nur um die insgesamt 760 Terabecquerel Tritiumaktivität des in Fukushima gespeicherten Wassers, dann könnte ich beim besten Willen nicht verstehen, warum man so zögert, diese einfach ins Meer abzuleiten: Tritium ist chemisch einfach Wasserstoff und reichert sich daher nirgends an, und verglichen mit der natürlichen Radioaktivität und selbst mit sonstigen menschlichen Einleitungen in die Weltmeere wäre diese Menge vernachlässigbar. Wenn man es aber tatsächlich nicht schafft, die Verunreinigungen mit radioaktiven Isotopen von Strontium, Cäsium oder anderen Substanzen, die sich in Fischen anreichern könnten, hinreichend gut zu entfernen, wäre das Verdampfen die teurere, aber sicherere Variante, weil diese Stoffe dabei in sehr kompakter Form zurückblieben. Die Aktivität in Becquerel ist also eigentlich nur in Verbindung mit anderen Informationen zur Beurteilung der Gefährlichkeit geeignet. Aussagekräftiger ist schon die folgende Frage:
Welche Strahlendosis wird von einem (lebenden) Material aufgenommen? Hier handelt es sich um eine absorbierte Energiemenge pro Material, gemessen in Joule pro Kilogramm, bezeichnet als die Einheit Gray (Gy). Die Dosis ist keine zeitbezogene Größe, kann sich also über Jahre aufsummieren. Will man die laufende Belastung an einem bestimmten Ort beschreiben, so verwendet man die Dosisleistung in (gegebenenfalls Milli- oder Mikro-) Gray pro Sekunde, Stunde oder Jahr. Geht es um Strahlungsschäden in technischen Geräten, zum Beispiel bei Halbleitern in Teilchendetektoren oder auf Satelliten, ist die Gesamtdosis über die Einsatzdauer die relevante Kennzahl. Bei lebendem Material, also auch in gesundheitlichen Fragen, ist die Situation komplexer. Für das Auftreten von akuter Strahlenkrankheit ist die innerhalb eines Zeitraums weniger Tage aufgenommene Dosis maßgebend. Über das Krebsrisiko und das Auftreten von Mutationen in der nächsten Generation entscheidet nach der bereits im letzten Artikel erwähnten Linearen Hypothese LNT ausschließlich die Gesamtdosis über die bisherige Lebenszeit ohne jegliche Heilungs- und Reparaturchancen. Wer sich mit der Frage beschäftigen will, wie realistisch das ist, dem empfehle ich den schon dort verlinkten Bericht des zuständigen wissenschaftlichen Ausschusses der Vereinten Nationen. Es wird aber, wie so oft in Gesundheitsfragen, noch komplizierter: Alle drei gesundheitlichen Folgen (Strahlenkrankheit, Krebs und Mutationen) entstehen durch Schäden des Erbguts, also der DNA, durch die absorbierte Energie der Strahlung. Die DNA bildet aber einen Doppelstrang, an dem die Erbinformation jeweils spiegelbildlich hinterlegt ist. Entsteht ein Schaden nur an einem Strang der DNA, so haben die zelleigenen Reparaturmechanismen wesentlich bessere Erfolgschancen, als wenn beide gegenüberliegenden Basen beschädigt oder gar beide Stränge durchtrennt sind. Es macht also einen Unterschied, ob die Energie der Strahlung an lauter isolierten Punkten durch das Gewebe verteilt wird oder ob elektrisch geladene Teilchen im Gewebe jeweils eine Spur der Verwüstung hinterlassen. Das führt zu der Frage:
Welcher Schaden entsteht durch die Strahlung in lebendem Gewebe? Diese Frage beantwortet die Äquivalentdosis in der Einheit Sievert (Sv). Sie errechnet sich einfach durch die Strahlungsdosis in Gray multipliziert mit einem Wichtungsfaktor, der sich nach der Art der Strahlung richtet. Für Teilchenstrahlung direkt aus einem Reaktor oder Beschleuniger sind diese Wichtungsfaktoren recht kompliziert, aber bei der Strahlung aus radioaktiven Zerfällen sind sie ganz einfach: Alphastrahlung, also die geladenen Heliumkerne, die nur von sehr schweren Kernen wie Uran oder Plutonium emittiert werden, hat den Wichtungsfaktor 20, sonstige radioaktive Strahlung den Wichtungsfaktor 1. Alphastrahlung kann die menschliche Haut nicht durchdringen und ist nur schädlich, wenn das radioaktive Material in den Körper gelangt. Daher ist für jede Strahlung, die von außen in den Körper hinein wirken kann, der Wichtungsfaktor 1 und damit die Äquivalentdosis in Sievert gleich der Strahlungsdosis in Gray. Neben den Wichtungsfaktoren für die Strahlungsart gibt es Gewebe-Wichtungsfaktoren, die eine Umrechnung zwischen den Äquivalentdosen einzelner Organe und der Ganzkörperdosis ermöglichen sollen. Da die Wichtungsfaktoren erkennbar den Charakter von Abschätzungen haben, hat es offensichtlich wenig Sinn, sich bei Äquivalentdosen Gedanken um die zweite oder dritte von Null abweichende Ziffer zu machen. Daher gibt es auch eine deutlich komplexere Berechnung der Äquivalentdosis nach sogenannten Qualitätsfaktoren, die für Teilchenstrahlung auf dem zu messenden Energieverlust beruhen, wenn man es wirklich genau wissen will. Für die Einschätzung von Risiken ist es aber eher entscheidend, die wievielte Ziffer einer Äquivalentdosis überhaupt von Null abweicht. Auch für die Äquivalentdosis wird häufig die Dosisleistung, zum Beispiel in Mikrosievert pro Stunde, angegeben.
Nachdem also die entscheidenden Fragen gestellt und grob charakterisiert sind, auf die Messwerte antworten sollen, können wir uns jetzt den einzelnen Einheiten zuwenden, die einem in den Medien begegnen können, wenn es um Radioaktivität geht – angefangen mit den beiden, die man tatsächlich kennen sollte und dafür jeweils ein paar Vergleichsgrößen zur Interpretation solcher Werte.
Becquerel (Bq): Das Becquerel ist, wie oben erläutert, eine Einheit für die Aktivität und bezeichnet einen Zerfall pro Sekunde. Angegeben sind häufig auch Becquerel pro Menge eines Materials in Kilogramm oder Liter. Die Aktivitäten unterschiedlicher radioaktiver Substanzen sind hinsichtlich ihrer biologischen Relevanz nur bedingt vergleichbar. Ungefähre Vergleichswerte:
130 Bq: Natürliche Aktivität einer Banane.
4000 Bq: Natürliche Aktivität im Körper eines Erwachsenen.
1 GBq = 1.000.000.000 Bq: Größenordnung der Aktivität, die einem Patienten bei der Positronen-Emissions-Tomographie (PET) injiziert wird (Halbwertszeit maximal wenige Stunden).
100 TBq = 100.000.000.000.000 Bq: Größenordnung der Aktivität in einer älteren Strahlungsquelle zur Krebstherapie.
50.000 TBq = 50.000.000.000.000.000 Bq: Freisetzungsschwelle zur höchsten Unfallstufe der IAEO-Skala für nukleare Ereignisse (Mayak 1957, Tschernobyl 1986, Fukushima 2011).
Sievert (Sv): Das Sievert ist eine Einheit für die Äquivalenzdosis, also die nach biologischer Wirkung gewichtete absorbierte Strahlendosis und hat die Dimension Energie pro Masse. Sie ist die beste bekannte Annäherung an den tatsächlich entstandenen Schaden. Im Gegensatz zum Becquerel ist das Sievert eine sehr große Einheit, so dass in der Regel Millisievert (mSv) oder Mikrosievert (μSv) angegeben werden. Ungefähre Vergleichswerte für die Ganzkörperdosis:
50 μSv = 0,05 mSv: Ein Langstreckenflug.
500 μSv/Jahr = 0,5 mSv/Jahr: Variation der natürlichen Radioaktivität zwischen unterschiedlichen Wohnorten in Deutschland.
5 mSv/Jahr: Durchschnittliche Gesamtstrahlenbelastung in Deutschland (ca. 50% natürlich, 50% medizinisch).
1.000 mSv = 1 Sv in kurzer Zeit: Einsetzen der akuten Strahlenkrankheit
7.000 mSv = 7 Sv in kurzer Zeit: 100% tödlich.
Neben diesen beiden Einheiten, die man sinnvollerweise kennen sollte, um Informationen aus den Medien einordnen zu können, begegnen einem dort immer wieder auch andere Einheiten, die man nicht unbedingt kennen muss, deren Bedeutung und Umrechnung man aber bei Bedarf (z.B. hier) nachschlagen kann:
Gray (Gy): Das Gray ist wie schon erwähnt die Standardeinheit für die Dosis, also die aufgenommene Strahlungsenergie pro Masse eines Materials, ohne Gewichtung der biologischen Wirksamkeit. Insofern ist sie zwar nicht veraltet, aber für gesundheitliche Fragen eher uninteressant, und die Werte sind häufig identisch mit denen in Sievert. Für Alphastrahlung aus Uran oder Plutonium gilt 1 Gy = 20 Sv, für alle andere Strahlung aus radioaktivem Material 1 Gy = 1 Sv.
Rad (rd): Das Rad (radiation absorbed dose) ist eine seit mehr als 40 offiziell nicht mehr verwendete Einheit für die ungewichtete Dosis. Gerade Autoren mit, sagen wir, überschaubarer Sachkompetenz und vor allem aus dem medizinischen Sektor geben jedoch immer noch regelmäßig Messdaten in Rad an. Mitunter finden sich auch in derselben Tabelle, gedankenlos irgendwo abgeschrieben, untereinander Daten in Gray und in Rad ohne die wirklich triviale Umrechnung: 100 rd = 1 Gy; das entspricht 20 Sv für Alphastrahlung oder 1 Sv für sonstige Radioaktivität.
Roentgen (R): Das Roentgen ist eine noch antiquiertere Einheit (es stammt aus der Frühzeit der Atomphysik und gilt schon seit 1953 als veraltet) und beschreibt eine Art Strahlungsintensität von Gamma- oder Röntgenstrahlung, die an einem Ort ankommt, gemessen an ihrer Fähigkeit, elektrische Ladungen aus Luftmolekülen herauszulösen. Das Problem dabei ist, dass die Umrechnung von Roentgen in eine Dosis vom Material abhängt, auf die die Strahlung auftrifft. Trotzdem stirbt auch das Roentgen in den Medien irgendwie nicht aus. In weichem Körpergewebe, das bei Strahlenschäden in der Regel interessiert, entsprechen 100 Roentgen knapp einem Sievert.
Rem (rem): Mit dem Rem (Roentgen equivalent in man) wird es endgültig wirr, weil sich das Rem, wie aus dem Namen noch hervorgeht, ursprünglich von der Einheit Roentgen herleitete, es dann aber irgendwann als Äquivalentdosis zum Rad umdefiniert wurde. Dennoch erfreut sich das Rem vor allem in den USA bis heute großer Beliebtheit, wo man ja auch sonst der Meinung zu sein scheint, internationale Standardeinheiten machten das Leben zu einfach. Immerhin ist seit der Anlehnung an das Rad die Umrechnung überschaubar: 100 rem = 1 Sv.
Curie (Ci): Das Curie ist eine Einheit für die Aktivität, die allen Ernstes 1910 noch unter Mitwirkung von Marie Curie selbst festgelegt wurde, und zwar als die Aktivität von einem Gramm Radium. Es wird seitdem hartnäckig immer noch benutzt, möglicherweise weil 10 Mikrocurie für eine radioaktive Quelle im Labor oder 45 Megacurie für die Jod-131-Freisetzung in Tschernobyl einfach weniger bedrohlich gigantisch klingen als die gleichen Werte in Becquerel. Leider gibt es für die Umrechnung keine einfach zu merkende Faustregel: 1 Curie entsprechen circa 37 Gigabecquerel…
Insgesamt schreibe ich hier ja über Radioaktivität und vor allem über Kernenergie eher selten, einfach weil es sich um ein hoch emotional aufgeladenes politisches Thema handelt, bei dem sich Positionen, wie immer in der Politik, nicht nur nach wissenschaftlichen Fakten, sondern eben auch nach persönlichen Wertvorstellungen richten: Ich möchte schlicht keine wissenschaftlich interessierten Leser abschrecken, nur weil sie zur Energiepolitik andere Auffassungen haben als ich. An der Uni hatten wir einen Dozenten, der es mit seinem Sendungsbewusstsein geschafft hat, seine anfangs gut besuchte Vorlesung „Physik und Technologie der nichtkonventionellen Energiegewinnung“ in wenigen Wochen bis auf zwei verbliebene Hörer leerzulesen. Falls sich jemand für meine Meinung dazu interessiert, das Umfallen der CDU nach Fukushima war einer der Hauptgründe, warum ich nach mehr als 24 Jahren Mitgliedschaft aus der Partei ausgetreten bin. Inzwischen bin ich Gründungsmitglied bei Ökomoderne e.V.. Damit bin ich mit dem Thema für diesen Artikel auch durch und werde mich im Folgenden auf Hintergrundwissen beschränken, bei dem es genügend Missverständnisse gibt, dass es sich lohnt, darauf einzugehen.
Was mich jetzt wieder auf das Thema gebracht hat, waren Berichte, dass Professor Jim Smith von der Universität Portsmouth beabsichtigt, einen Wodka namens Atomik aus Getreide zu vermarkten, das in der Sperrzone von Tschernobyl angebaut wurde. Den Prototypen bezeichnet Smith als „die wichtigste Flasche Schnaps der Welt“. Web.de generierte daraus die (inzwischen offenbar geänderte) Schlagzeile „Wodka aus Tschernobyl ist trotz Radioaktivität keine Gefahr für die Gesundheit“, und auch der Spiegel textete: „Der Atomik-Wodka soll harmlos sein“. Mein erster Gedanke war: „Hey, gut für die Ukraine und gut für die Menschen in der Gegend, wenn sich da wirtschaftlich etwas tut. Wenn ich denn überhaupt Alkohol trinken würde, wäre das doch was für mich.“ Mein zweiter Gedanke war: „Moment – Wodka ist keine Gefahr für die Gesundheit?“ Und der dritte: „Wie radioaktiv ist dieses Getreide eigentlich?“ Und genau das war in den deutschen Medien dazu nicht zu lesen.
Zunächst einmal: Warum funktioniert das überhaupt, dass Wodka aus radioaktivem Getreide nicht radioaktiv ist? Normalerweise werden Lebensmittel aus radioaktiv belasteten Rohstoffen ja eher nicht zum Verzehr empfohlen. Dazu muss man sich zunächst einmal ansehen, was da eigentlich radioaktiv ist. Die Radioaktivität, die nach einem Reaktorunfall außerhalb des unmittelbaren Reaktorumfeldes (das auch mit dem schweren und daher wenig mobilen Plutonium kontaminiert sein kann) noch nach mehreren Jahren gemessen wird, stammt fast ausschließlich von den Metallen Cäsium-137 und Strontium-90. Beide sind chemisch von normalem, für den Menschen völlig unschädlichen, Cäsium und Strontium nicht unterscheidbar und liegen im Boden und den darauf wachsenden Pflanzen in Form von Salzen, zum Teil auch in komplexeren Molekülen wie Metalloproteinen, vor. Bei der Wodkaherstellung wird die im Getreide enthaltene Stärke zu Zucker gemaischt, anschließend zu Alkohol vergoren und destilliert. Bei der Destillation wird die Flüssigkeit auf unter 100°C erhitzt, so dass der Alkohol verdampft, das Wasser aber nicht. Aus dem verdampften und separat kondensierten Alkohol entsteht dann der Wodka. Salze und Metalloproteine verdampfen bei solchen niedrigen Temperaturen natürlich nicht, bleiben also mit dem Wasser zurück. Beim Wodka wird das Destillat zudem besonders gründlich gefiltert, um andere leicht verdampfende Bestandteile wie Aromate aus dem Alkohol herauszuholen. Was aus dem Getreide im Wodka landet, ist also tatsächlich nur der besonders reine Alkohol. Alkohol besteht aber eben chemisch nur aus Kohlenstoff-, Wasserstoff- und Sauerstoffatomen, alles kleine Atomkerne, von denen es kaum radioaktive Isotope gibt (Isotope sind Varianten eines Atomkerns mit unterschiedlicher Zahl von Neutronen darin), und sie entstehen auch nicht in Reaktoren als Produkte der Kernspaltung. Radioaktiv wäre beim Kohlenstoff lediglich Kohlenstoff-14, der natürlicherweise in immer gleicher Menge in der hohen Atmosphäre entsteht und daher zur Altersdatierung archäologischer Fundstücke verwendet werden kann. Im Kühlwasser von Kernreaktoren entsteht auch das radioaktive Wasserstoffisotop Tritium, das sich, falls es freigesetzt wird, aber nicht irgendwo niederschlägt oder anreichert, sondern sich mit dem Wasserkreislauf verteilt und in den Unmengen Wasser auf der Erde im Vergleich zu natürlicher Radioaktivität schlicht verschwindet. Der Alkohol kann also rein chemisch keine radioaktiven Substanzen aus dem Reaktorunfall enthalten. Dementsprechend berichten auch die Portsmouther Forscher, sie hätten im Vodka lediglich den schon erwähnten Kohlenstoff-14 gefunden. Der Wodka wäre also tatsächlich kein bisschen radioaktiver als jeder andere Wodka (und jedes andere Lebensmittel außer reinem Wasser) durch den natürlicherweise enthaltenen Kohlenstoff-14 zwangsläufig auch. Wie sieht es nun aber mit dem Getreide aus?
Laut der Pressemeldung der Universität Portsmouth ist der Grund, warum dieses Getreide nicht einfach so gegessen werden darf, dass die Aktivität durch Strontium-90 „leicht“ über dem ukrainischen Grenzwert von 20 Bq/kg (Becquerel pro Kilogramm) liegt. Was 20 Bequerel und diverse andere Messgrößen zur Radioaktivität physikalisch bedeuten wird – versprochen – schon in den nächsten Tagen ein Thema eines Folgeartikels sein, sonst wird das hier wieder viel zu lang. Zu einer ersten Einordnung können aber ein paar Vergleiche dienen. Ein beliebter Vergleich für die Radioaktivität von Lebensmitteln sind Bananen. Bananen sind reich an Kalium, und alles Kalium auf der Welt enthält noch von der Entstehung der Erde her einen Anteil des langlebigen radioaktiven Isotops Kalium-40. Die Kalium-40-Aktivität von Bananen liegt bei rund 130 Bq/kg. Biologisch betrachtet hinkt der Vergleich allerdings, weil überschüssiges Kalium vom Körper schnell wieder ausgeschieden wird. Der Kaliumgehalt im menschlichen Körper führt allerdings auch bei normalem Kaliumgleichgewicht schon zu einer Aktivität von rund 50 Bq/kg Körpergewicht. Strontium, das einmal in den Blutkreislauf gelangt ist, kann dagegen anstelle von Calcium in Knochen eingebaut werden und dort sehr langfristig verbleiben. Allerdings wird auch nur ein sehr kleiner Teil des in der Nahrung enthaltenen Strontiums im Darm überhaupt aufgenommen. Die Interpretation solcher Werte ist also kompliziert. In Deutschland gibt es einen laufenden Grenzwert für Strontium-90 in Lebensmitteln nicht, weil dieses Radioisotop in hier produzierter Nahrung aktuell schlicht keine Rolle spielt. In Notstandssituationen läge er allerdings bei 750 Bq/kg, und in den Monaten nach dem Unfall von Fukushima galt dieser Wert auch für Importe aus Japan. In der Schweiz gibt es einen „Toleranzwert“ von 1 Bq/kg, über dem man anfangen würde, nach Ursachen für eine solche unerwartete Kontamination zu suchen – im Katastrophenfall und für Importe gilt aber auch dort der Grenzwert von 750 Bq/kg. Der extreme Unterschied der Grenzwerte erklärt sich sehr einfach daher, dass man in der Ukraine davon ausgehen muss, dass jemand, der Getreide aus dem Umland von Tschernobyl verzehrt, das dauerhaft tut, während man in Deutschland eben nur sehr gelegentlich importierte Lebensmittel aus einem solchen Notstandsgebiet essen würde.
Das Festlegen solcher Grenzwerte ist schwierig, weil sich, anders als bei vielen Giften, für radioaktive Spurenstoffe keine Schwelle festlegen lässt, unterhalb derer sie mit Sicherheit vollkommen unschädlich sind. Angesichts der vielen Faktoren, die das Entstehen einer Krebserkrankung beeinflussen können, lässt sich eine minimale Erhöhung des Erkrankungsrisikos für die meisten Krebsarten kaum von der normalen Schwankungsbreite unterscheiden. Mangels belastbarer besserer Informationen geht man im Strahlenschutz bis heute von der linearen Hypothese (linear no threshold model, LNT) aus, nach der ein Tausendstel der über das Natürliche hinausgehenden Strahlendosis, der hochbelastete Hiroshima-Opfer ausgesetzt waren, genau zu einem Tausendstel von deren über das Natürliche hinausgehendem Krebsrisiko führen sollte – und zwar unabhängig davon, ob man dieser Dosis innerhalb eines Tages oder über Jahre verteilt ausgesetzt ist. Dieser Ansatz ist umstritten und die Datenlage fragwürdig, die Daten geben aber auch keine klaren Indizien für andere plausible Formen eines Zusammenhangs her, zum Beispiel für einen Schwellenwert, unter dem Strahlenschäden im Erbgut größtenteils repariert werden könnten und damit harmlos wären. Grenzwerte sind somit immer eine Abwägung dazwischen, entweder minimale und möglicherweise nur auf dem Papier existierende Risiken weiter zu minimieren oder wertvolle Lebensmittel zu vernichten oder gar Menschen den Belastungen einer Evakuierung auszusetzen. Eine objektiv richtige Antwort gibt es dabei nicht. Eindeutig falsch wäre es nur, wenn durch eine Evakuierung mehr Menschen zu Schaden kämen als selbst bei der extrem pessimistischen linearen Hypothese durch die Strahlung zu erwarten wären – und zumindest im Fall von Fukushima deutet einiges genau darauf hin. Auch mindestens die Hälfte der 30-Kilometer-Sperrzone von Tschernobyl ist heutzutage – wenn überhaupt – nur noch durch die Sorge zu rechtfertigen, dort wieder lebende Bürger könnten regelmäßig Produkte aus ihrem eigenen Garten verzehren: Die Strahlung, der Menschen von außen ausgesetzt sind, ist dort mit bis zu 0,12 Mikrosievert pro Stunde (auch die Erklärung dazu kommt im nächsten Artikel) nicht höher als von Natur aus in großen Teilen des Schwarzwaldes oder des Bayerischen Waldes, wo sich niemand Gedanken darüber macht, weil Menschen dort schon seit Jahrtausenden damit leben. So ist es auch nicht sonderlich überraschend, dass das erste halblegal in der Sperrzone geborene und aufgewachsene Kind diesen Sommer angefangen hat zu studieren. Ich ärgere mich übrigens bis heute maßlos, dass ich bei einem Ukraine-Urlaub 2011 die Gelegenheit ausgelassen habe, eine Tour durch die damals gerade für Besucher eröffnete Sperrzone zu buchen. Übertriebene Angst vor Strahlung beeinträchtigt also nicht nur die Lebensqualität, sie kann zu schädlichen, im schlimmsten Fall tödlichen, Fehlabwägungen führen.
Auch wenn ich selbst Alkohol allenfalls sehr selten und nur in kleinen Mengen als Geschmacksträger konsumiere (gute Weine finde ich einfach zu interessant, um sie nicht wenigstens mal zu probieren): Es liegt mir fern, jemandem einen gelegentlichen Wodka-Martini, vielleicht auch mal einen mäßigen Rausch, ausreden zu wollen, der daraus Genuss und Lebensqualität zieht. Die Forderung, ein langes Leben mit Freudlosigkeit zu erkaufen, darf man ruhig mit der Frage „Wozu eigentlich?“ erwidern. Man sollte nur nicht an alltägliche und an weniger vertraute Risiken völlig unterschiedliche Maßstäbe anlegen. Und wenn man mir ganz persönlich den Atomik-Wodka anbieten würde, muss ich sagen, da würde ich dann genau dieses Getreide doch lieber als Brot zu mir nehmen.