Mein Problem mit (bestimmten Vertretern) der „evidenzbasierten Medizin“ – zum Beispiel der heutigen STIKO

Regelmäßige Leser meines Blogs wissen ja, dass ich eine Tendenz zu einer gewissen, äh, Ausführlichkeit habe… Wer also direkt zu meiner Meinung zum aktuellen Problem der Covid-Impfung für Kinder und Jugendliche kommen möchte, kann einfach zur entsprechenden (nämlich der letzten) Zwischenüberschrift vorspringen. Wer wissen möchte, warum ich die aktuelle, fragwürdige Haltung der Ständigen Impfkommission (STIKO) dazu nicht für einen Zufall, sondern für den Ausdruck eines grundsätzlich problematischen Wissenschaftsverständnisses halte, sollte sich Zeit für den ganzen Text nehmen.

Von einem engagierten Skeptiker und gelegentlichen Unterstützer des Informationsnetzwerks Homöopathie sollte man eigentlich eine Eloge auf die „evidenzbasierte Medizin“ erwarten. Und natürlich lege ich tatsächlich großen Wert darauf, dass die Methoden der Medizin auf soliden wissenschaftlichen Ergebnissen beruhen. Ärzte oder Apotheker, die mir unter Berufung auf ihre subjektive Erfahrung Homöopathie, Anthroposophische „Medizin“, Akupunktur oder ähnliche überteuerte Placebos als wirksame Medizin verkaufen wollen, dürfen sich gerne andere Kunden suchen.

Mein Problem mit der „evidenzbasierten Medizin“ hat auch nicht wirklich etwas mit den Anführungszeichen zu tun, die dem einen oder anderen aufgefallen sein dürften. Die benutze ich einfach nur deshalb, weil es sich bei dem Begriff ganz vorsichtig ausgedrückt um eine ziemlich unglückliche Übersetzung des englischen evidence-based medicine (EBM – ich kann es mir immer noch nicht verkneifen, bei dem Kürzel erst mal an electronic body music zu denken) handelt, basierend auf dem, was man in der Sprachwissenschaft einen falschen Freund nennt. Auch wenn es dasselbe Wort zu sein scheint, Evidenz (also die Offensichtlichkeit eines Sachverhalts) bedeutet etwas anderes als evidence (Beweise). Wenn evidence in der medizinischen Wissenschaft evident wäre, könnte man sich einen großen Teil der Literatur zur EBM sparen.

Ich möchte der EBM auch nicht die Serie von haarsträubenden Stellungnahmen zur Pandemiepolitik ankreiden, die das „Netzwerk evidenzbasierte Medizin“ auf Betreiben seines inzwischen endlich zurückgetretenen damaligen Vorsitzenden Andreas Sönnichsen abgegeben hat. Darin hat sich kein grundsätzliches Problem der EBM gezeigt, sondern schlichtweg die Tatsache, dass auch wissenschaftliche Vereinigungen nicht davor gefeit sind, sich faktenresistente Querulanten in den Vorstand zu holen – und dann mitunter überraschend lange brauchen, um sie wieder loszuwerden. Letzteres dürfte in vielen Fällen damit zu tun haben, dass man dann wieder einen neuen Dummen (m/w/d) finden muss, der bereit ist, den in der Regel unbezahlten Vorstandsposten zu übernehmen.

Um auch das noch vorwegzuschicken: Ich weiß natürlich, dass ich mich als Nichtmediziner mit diesem Artikel auf relativ dünnes Eis begebe. Es ist immer problematisch, als fachfremde Person einen zumindest scheinbaren Konsens der Experten eines Themas hinsichtlich Methoden oder Inhalten ihres Fachgebiets zu kritisieren. Nachher kommt noch jemand auf die Idee, mich mit Clemens Arvay zu vergleichen, was ich wirklich gruselig fände. Ganz so gewagt, wie sie auf den ersten Blick scheint, ist meine Kritik allerdings nicht: Vom Grundsätzlichen her geht es nämlich nicht um originär medizinische Themen, sondern um allgemeine Fragen der Wissenschaftlichkeit und des Umgangs mit Wissenslücken, und in den konkreten Einzelfragen gibt es eine ganze Reihe von Medizinern, medizinischen Fachwissenschaftlern und sogar engagierte Verfechter der EBM, die dieselben Kritikpunkte vorbringen.

Was mich stört, ist, dass es unter Vertretern der EBM eine Tendenz gibt, Patientenstudien zum Maß aller Dinge zu machen und andere Informationen schlicht zu ignorieren. Beispiele dafür kommen gleich – einen Moment Geduld bitte noch. Rein menschlich ist das völlig verständlich. Gerade bei vielen Medizinern in der medizinischen Wissenschaft (in der zum Beispiel auch Physiker, Chemiker, Biologen und Mathematiker tätig sind) besteht ihre Forschungstätigkeit fast ausschließlich aus Patientenstudien. Ein großer Teil der wissenschaftlichen Diskussionen in der EBM beschäftigt sich mit den Fragen, wie eine gute Patientenstudie aussehen sollte und wie man aus einer Vielzahl in der Regel nicht übereinstimmender Patientenstudien die richtigen Schlüsse zieht. Wenn man sich den ganzen Tag damit beschäftigt, die perfekten Klebstoffe zu entwickeln, kann man leicht den Blick dafür verlieren, dass man manche Dinge doch besser einfach festschraubt.

Die perfekten Klebstoffe der EBM sind nach heutigem Stand randomisierte, doppelblinde, placebokontrollierte Studien (randomized controlled trial, RCT) sowie nach klar festgelegten Regeln durchgeführte Metaanalysen aus vielen einzelnen Patientenstudien. Beides sind in langjährigen wissenschaftlichen Diskussionsprozessen ausgefeilte, trickreiche Methoden, um bekannte Fehlerquellen beim Experimentieren mit Menschen zu minimieren.

Wer die Methodik solcher Studien und die dadurch berücksichtigten Fehlerquellen schon gut kennt und auf den Punkt kommen möchte, kann gerne bis zur folgenden Zwischenüberschrift („Wo ist also das Problem?“) vorspringen. Da diese Methoden der EBM aber tatsächlich ziemlich genial sind und immer noch viel zu oft ignoriert werden, möchte ich sie an dieser Stelle doch noch einmal kurz rekapitulieren. Zunächst einmal, welche Probleme kann man bei der Durchführung einer einzelnen Patientenstudie durch eine RCT vermeiden?

  • Gesundheitliche Parameter eines Menschen ändern sich im Zeitverlauf von ganz allein; vor allem viele Krankheiten bessern sich zumindest zeitweilig. Um die Wirkung einer bestimmten Maßnahme erkennen zu können, taugt ein vorher-nachher-Vergleich also nicht. Man muss eine behandelte mit einer unbehandelten Patientengruppe vergleichen (kontrollierte Studie).
  • Begleitumstände einer Maßnahme wie die Aufmerksamkeit und Zeit behandelnder Personen, der Weg zur Behandlung oder die Einnahme eines Mittels können nicht nur die wahrgenommene Gesundheit, sondern auch objektiv messbare Parameter beeinflussen. Die Begleitumstände sollten also zwischen behandelter Gruppe und Kontrollgruppe möglichst identisch sein (Placebokontrolle).
  • Das Wissen, ob man zur behandelten oder zur Kontrollgruppe gehört, beeinflusst nicht nur die Wahrnehmung, sondern auch das Verhalten und letztlich messbare Parameter wie Blutdruck oder Hormonspiegel. Die Probanden dürfen das also während der Studie nicht wissen (Verblindung).
  • Wenn Mitarbeiter der Studie, die Probanden behandeln oder die Ergebnisse erheben, wissen, wer zu welcher Gruppe gehört, können sie, auch unbewusst, unterschiedlich mit den Probanden umgehen oder die Ergebnisse verzerren. Wer mit den Probanden oder mit den Daten einzelner Probanden zu tun hat, sollte die Gruppenzuordnung also ebenfalls nicht kennen (Doppelverblindung).
  • Jede systematische Zuordnung der Probanden zur behandelten oder der Kontrollgruppe (Ort, Zeit, Krankenhausstation…) kann zu einem ungewollten Einfluss auf die Ergebnisse führen. Man muss diese Zuordnung also auslosen (Randomisierung).

Diese Maßnahmen definieren den Standard bei den erwähnten RCTs, die nach heutigem Stand die  verlässlichste Form sogenannter Interventionsstudien (also Studien, bei denen man den Effekt einer kontrollierbar einzusetzenden Maßnahme untersucht) sind. Wenn man den zu untersuchenden Einfluss zum Zeitpunkt der Studie nicht (mehr) kontrollieren kann, dann ist man auf Beobachtungsstudien angewiesen. Diese sind zwangsläufig fehleranfälliger als RCTs. Auch hier hat die EBM allerdings Handwerkszeug, um die unvermeidlichen Fehler wenigstens einigermaßen im Griff zu halten. So kann ein case matching, also eine 1:1-Zuordnung von Probanden mit gleichen Eigenschaften den Effekt der Randomisierung in Teilen ersetzen. Will man also zum Beispiel den Krankheitsverlauf bei trotz Impfung erkrankten Covid-Patienten mit dem bei Ungeimpften vergleichen, dann würde man jeweils Patienten gleichen Alters und Geschlechts gegenüberstellen. Da das matching zwangsläufig unvollständig ist (man kann in der Regel nicht auch noch sämtliche einzelnen Vorerkrankungen, Rauchverhalten, sozialen Status und Freizeitgestaltung gegenüberstellen), hat aber auch dieses Verfahren Grenzen.

Schließlich versucht die EBM in aller Regel, ihre Schlussfolgerungen nicht nur aus einer einzelnen Studie zu ziehen. Da unterschiedliche Studien zur selben Fragestellung sich in der Regel in ihrer Methodik und in ihren Ergebnissen unterscheiden, nutzt man systematische Reviews um ein Gesamtbild der relevanten Datenlage zu bekommen. Als verlässlichste Form eines solchen Gesamtbilds gelten Metaanalysen, in denen die Daten aus vielen Patientenstudien statistisch zusammengeführt werden. Hierzu gibt es Regeln, nach denen die Qualität unterschiedlicher Studien bewertet und unzureichende Studien ausgeschlossen werden. RCTs haben danach einen höheren Wert als kontrollierte Studien ohne Verblindung, Beobachtungsstudien oder Einzelfallbeschreibungen, große RCTs einen höheren Wert als solche mit nur wenigen Probanden. Bei Metaanalysen gibt es sogar statistische Methoden, die berücksichtigen und in Teilen kompensieren können, dass Studien mit negativem oder uneindeutigem Ergebnis häufig nicht publiziert werden. Gründe für diesen sogenannten publication bias können darin liegen, dass Forschende eine Bestätigung für ihre eigenen Überzeugungen erhoffen und Studien ohne solches Ergebnis eher selbst für fehlerhaft halten – sie erhalten aber auch als Forschungsleistung allgemein weniger Anerkennung und werden mitunter auch als Doktorarbeit oder ähnliche Qualifikationsleistung nicht angenommen. Effektiv verhindert wird ein solcher publication bias aber nur bei den Zulassungsstudien für neue Arzneimittel. Dafür muss eine Studienbeschreibung mit Umfang, Methoden und Zielgrößen vor Studienbeginn öffentlich einsehbar registriert werden, so dass es nicht möglich ist, eine ganze Studie oder einzelne Auswertungen darin unbemerkt verschwinden zu lassen.

Wo ist also das Problem?

Angesichts dieses umfangreichen Instrumentariums, um Fehler bei Patientenstudien zu eliminieren, wo ist dann das Problem damit, sich bei medizinischen Fragen ganz an Patientenstudien orientieren zu wollen? Schließlich geht es in der Medizin immer darum, was Patienten hilft.

Im Spätsommer des Jahres 2000, in den letzten Wochen vor der Stillegung des damals leistungsstärksten Beschleunigers am CERN, des Large Electron Positron Collider (LEP), wurde die Strahlenergie über die normale Leistungsgrenze der Beschleunigerelemente hinaus gesteigert. Das Ziel war, ohne Rücksicht auf mögliche Schäden an der bereits ausgereizten Anlage doch noch einen Blick zu wenigstens etwas höheren Energien zu erhaschen und dort möglicherweise neue Teilchen zu entdecken. Tatsächlich meldeten im September 2000 mehrere Detektoren an dem Beschleuniger ungewöhnliche Ereignisse, entsprechend der Entdeckung eines neuen Teilchens der Masse 113 GeV und mit Eigenschaften passend zum lange gesuchten Higgs-Teilchen. Insgesamt wurden mehr als dreimal so viele dieser Ereignisse entdeckt als aufgrund der Streubreite des Untergrundrauschens durch Zufälle zu erwarten gewesen wäre – ein sogenannter 3-Sigma-Effekt. Die Messungen hätten damit ohne ein neues Teilchen nur mit einer Wahrscheinlichkeit von weniger als 1:300 zufällig zustande kommen können.  Die Leitung des CERN verlängerte auf Bitten der Experimente den Betrieb des Beschleunigers noch um wenige Wochen. Als die Daten dann noch nicht genauer waren, wurde die Anlage stillgelegt, um Platz für den 2010 in Betrieb genommenen Large Hadron Collider (LHC) zu schaffen. Ein 3-Sigma-Effekt lockt in der Teilchenphysik niemanden hinter dem Ofen hervor. Damit man von der Entdeckung eines neuen Teilchens ausgeht, braucht man mindestens einen 5-Sigma-Effekt, wie er nur mit einer Wahrscheinlichkeit von 1:3,5 Millionen zufällig zustande kommt. Und die Zweifler hatten Recht: Als am 4. Juli 2012 das CERN erklärte, am LHC sei endlich das Higgs-Boson gefunden worden, lag seine Masse bei 125 GeV und damit weit außerhalb der Reichweite des LEP. Das mysteriöse Teilchen bei 113 GeV, das in den letzten Wochen des LEP beobachtet worden war, existiert nicht.

Was hat diese kleine Geschichte aus der jüngeren Historie der Teilchenphysik mit Patientenstudien zu tun? In der Medizin, aber auch in der Psychologie gilt ein 2-Sigma-Effekt, der immerhin mit einer Häufigkeit von 1:20 einfach durch Zufall auftreten kann, als „statistisch signifikant“ und als akzeptierter Beleg für die Existenz eines Effekts, also zum Beispiel für die Wirksamkeit eines Arzneimittels. Heute wissen wir auch aus der Praxis sehr sicher, dass alle gegen Covid-19 zugelassenen Impfstoffe extrem wirksam sind, aber bei der Zulassungsstudie für den Impfstoff von AstraZeneca gab es eine Gewissheit, dass der Schutz durch den Impfstoff besser als 50% ist, auch nur auf dem Niveau eines 2-Sigma-Effekts. Dieses schnelle Akzeptieren eigentlich noch recht unsicherer Ergebnisse ist kein Zeichen schlechten wissenschaftlichen Arbeitens, sondern ergibt sich mit einer gewissen Zwangsläufigkeit aus dem Untersuchungsgegenstand. Echte, lebende Menschen sind so ungefähr der beschissenste Untersuchungsgegenstand, mit dem Wissenschaftler zu tun haben können. Sie sind nicht nur komplexe biologische Systeme; sie wissen auch, dass sie Teil einer Untersuchung sind und beeinflussen absichtlich und unabsichtlich das Ergebnis. Man kann auch nicht wie in der Teilchenphysik einfach die Zahl der Versuche erhöhen, um statistisch belastbarere Aussagen zu bekommen. Selbst wenn man im Prinzip genug Patienten hätte – wenn eine Therapie in einer Studie „statistisch signifikant“ gezeigt hat, dass sie für kranke Menschen erhebliche Vorteile bietet und vielleicht lebensrettend ist, wird kaum eine Ethikkommission erlauben, dass man einer Placebogruppe diese Therapie noch vorenthält, nur um noch einmal zu überprüfen, ob die Ergebnisse dieser ersten Studie auch wirklich stimmen. Natürlich gibt es auch bei Untersuchungen an Patienten immer wieder Ergebnisse, die auch statistisch sehr, sehr eindeutig sind. So war vom BioNTech/Pfizer-Impfstoff schon bei der Zulassung klar, dass seine Wirksamkeit gegen symptomatische Erkrankungen mit sehr hoher Wahrscheinlichkeit über 90% und mit absoluter Sicherheit über 80% liegt. Auch dass die Infektionssterblichkeit von Covid (der ursprünglichen Variante, aktuelle sind gefährlicher) bei der in Deutschland vorliegenden Altersstruktur der Bevölkerung nicht wie von Querdenkern gerne behauptet bei 0,3%, sondern bei fast 1% liegt, ist mit einer Wahrscheinlichkeit von eins zu Milliarden sicher. So eindeutige Ergebnisse sind aber in Patientenstudien nicht unbedingt die Regel. Das liegt zum Teil auch einfach daran, dass Forschung an menschlichen Probanden sehr teuer ist und es gerade bei selteneren Krankheiten nicht einfach ist, viele geeignete Patienten zu finden, die auch noch bereit sind, an einer Studie teilzunehmen.

Zu diesen statistischen Problemen, die sich wenigstens halbwegs solide beziffern lassen, kommt eine ganze Reihe von systematischen Verzerrungen, die sich aus der Arbeit mit Menschen ergeben. Die offensichtlichsten Probleme werden durch gute Randomisierung zu statistischer Streuung umgewandelt – das schützt aber nicht vor absichtlicher Manipulation durch Beteiligte der Studie. Bei Interessenkonflikten, die Anlass zu solchen Manipulationen bieten können, denken die meisten Menschen zuerst an finanzielle Faktoren, zum Beispiel wenn Studien von Pharmaunternehmen finanziert werden. Diese sind jedoch veröffentlichungspflichtig und leicht nachvollziehbar. In Gesundheitsfragen, gerade bei der Forschung an Patienten, gibt es jedoch noch ganz andere Interessenkonflikte. So kann Ärzten, die an einer Patientenstudie beteiligt sind, unter Umständen das Wohlergehen ihrer eigenen Patienten näher liegen als ein wissenschaftlich sauberes Ergebnis der Studie insgesamt. Auch Querdenkerprofessoren wie John Ioannidis oder Luc Montagnier dürften bei ihren haarsträubenden Pseudostudien zur Pandemie oder ihrer Desinformation über Impfungen zumindest in einigen Fällen der Überzeugung gewesen sein, das Beste für die Menschheit zu bezwecken, auch wenn ihnen eigentlich klar gewesen sein muss, dass ihre Aussagen wissenschaftlich lächerlich sind.

Ein besonderes Problem in Patientenstudien ist der richtige Umgang mit Probanden, die ihre Beteiligung an der Studie vorzeitig abbrechen. Da eine solche Entscheidung neben externen Faktoren auch von fehlender Wirkung oder auftretenden Nebenwirkungen beeinflusst sein kann, lässt sich dieses Problem nicht durch Randomisierung und Verblindung in den Griff bekommen. Die korrekte Berücksichtigung solcher Studienaussteiger hängt daher von der exakten Fragestellung ab und ist entsprechend umstritten. Weitere Probleme, darunter eins, das in der Pandemie auftauchte, eine unüberschaubare Zahl viel zu kleiner, unkoordinierter und dadurch auch in der Summe wenig aussagekräftiger Studien zu sich überlagernden Themen, wurden im Mai in einem Artikel in Nature thematisiert.

Die Methoden, die im Rahmen der EBM für Patientenstudien entwickelt wurden, sind also nicht etwa das Nonplusultra der Wissenschaftlichkeit, sondern eher eine Krücke, die es ermöglichen soll, unter ausnehmend schwierigen Bedingungen wenigstens halbwegs belastbare Ergebnisse zu liefern. Letztlich können Patientenstudien selbst bei sorgfältigster Durchführung nicht die Verlässlichkeit guter Labordaten erreichen. Sie bleiben aber unverzichtbar, weil in der Medizin bei rein laborbasierten Studien immer die Frage der Übertragbarkeit auf das Gesamtsystem Mensch bleibt. In der Zulassung neuer Arzneimittel ist das kein Widerspruch: Bei neuen Substanzen, die heute als Arzneimittel zugelassen werden, sind die zugrundeliegenden chemischen Reaktionen verstanden, die Wirkung in der einzelnen Zelle ist im Labor mit höchster Genauigkeit geprüft, und die Übertragbarkeit auf einen Gesamtorganismus ist Tierversuchen nachgewiesen worden, bevor überhaupt die erste Patientenstudie genehmigt werden kann. In den klinischen Studien der Phasen II und III, in denen die Wirksamkeit nachzuweisen ist, geht es also nur noch darum, zu zeigen, dass das, was im Reagenzglas, in der einzelnen Zelle und im Tiermodell funktioniert, im Menschen auch noch funktioniert. Das ist nicht selbstverständlich, und auch hier müssen immer wieder Wirkstoffkandidaten aufgegeben werden, aber der verbleibende Schritt ist relativ klein. Nur deshalb ist es vertretbar, ein Arzneimittel schon nach zwei „statistisch signifikanten“ Patientenstudien (die unter Umständen auch in eine große Studie zusammengefasst werden können) für wirksam zu erklären.

Ganz anders sieht es aus, wenn Sachaussagen mit wissenschaftlichem Anspruch ausschließlich mit Studien am Menschen begründet werden, wie das neben der Medizin auch in der Psychologie oft unvermeidbar ist. Man kann und muss das mitunter tun, nur darf man dabei eben nicht das wackelige Fundament einer solchen Methodik vergessen. Genau das liest man aber immer wieder auch bei Vertretern der EBM, womit ich jetzt endlich bei meinen Beispielen bin.

Die sogenannte Alternativmedizin

2013 forderte Christian Weymayr unter dem Begriff der Scientabilität und damals konkret mit Bezug auf die Homöopathie, Patientenstudien nur dann durchzuführen, wenn die zu prüfende Wirkung nicht im Widerspruch zu sicheren wissenschaftlichen Erkenntnissen steht. Eine ähnliche Stoßrichtung hatte die Forderung nach einer science based medicine anstelle der heutigen evidence based medicine, die 2014 von den amerikanischen Medizinern David Gorski und Steven Novella erhoben wurde. Kritik an diesen eigentlich selbstverständlichen Forderungen hagelte es nicht nur von Vertretern antiwissenschaftlicher Positionen wie Harald Walach, sondern auch von namhaften Vertretern der EBM wie Heiner Raspe und Jutta Hübner, bizarrerweise sogar aus der Skeptikerszene. Eine Zusammenfassung der Diskussion um die Scientabilität findet sich in der Homöopedia. Selbst gestandene Naturwissenschaftler sind immer wieder bereit, sich auf Patientenstudien als einzigen Beleg einer Wirkung einzulassen. So betonte der von mir sehr geschätzte 2020 verstorbene Physikprofessor Martin Lambeck immer wieder, wie viele Nobelpreise nicht nur für Medizin, sondern auch für Physik und Chemie fällig wären, wenn diverse alternativmedizinische Verfahren wirksam sein sollten. In seinem Buch „Irrt die Physik?“ schlug er, um diese zu testen, jedoch ausgerechnet Patientenstudien vor. Ich bezweifle allerdings, dass Martin Lambeck es tatsächlich für sinnvoll gehalten hätte, einen Nobelpreis für Physik auf der Basis von Patientenstudien zu vergeben.

Selbstverständlich macht es für die Aussagekraft einer Patientenstudie einen erheblichen Unterschied, ob sie nur die Anwendbarkeit gesicherter Laborergebnisse im Menschen bestätigt (wie bei der Arzneimittelzulassung), ob sie Thesen prüft, die naturwissenschaftlich unbelegt, aber im Prinzip möglich sind (das gilt für viele Naturheilverfahren), ob das zu prüfende Verfahren an sich wirken könnte, aber auf einer komplett unsinnigen Theorie fußt (wie Ayurveda oder die „traditionelle chinesische Medizin“ samt der Akupunktur) oder ob schon die Wirkung selbst durch Naturgesetze ausgeschlossen ist, wie bei homöopathischen Hochpotenzen oder der Geistheilung. Keine Ansammlung noch so vieler Patientenstudien kann Naturgesetze widerlegen. Natürlich können wir auch Naturgesetze falsch verstanden haben. Natürlich können Physik und Chemie falsch oder grob unvollständig sein. Dafür müsste aber sehr, sehr, sehr vieles in der Natur ganz zufällig gerade so herauskommen, als wären unsere Naturgesetze eben doch fast immer richtig. Um das zu überprüfen, wären Studien am Menschen aber ein vollkommen untaugliches Mittel.

Eine Wirksamkeit der Homöopathie und damit die Ungültigkeit von Naturgesetzen aus Patientenstudien belegen zu wollen, ist ungefähr so sinnvoll, als wolle man die Bahn des Mondes aus Messungen der Gezeiten am Meer berechnen: Man kann das irgendwie machen, aber es ist so ziemlich das untauglichste Mittel, das man sich vorstellen kann, wenn das Ergebnis wesentlich verlässlicheren Methoden widerspricht. Das absurd klingende Beispiel ist übrigens nicht ganz willkürlich gewählt: 1692 berechnete Edmond Halley basierend auf Gezeitenmessungen an der englischen Küste, Newtons Mechanik und seinen eigenen Messungen von Mondbahn und Monddurchmesser die Dichte der Erde im Verhältnis zu der des Mondes und kam zum Ergebnis, dass die Erde innen hohl sein müsse.

Die HPV-Impfung

2008 forderte eine Gruppe angesehener Medizinprofessoren eine Rücknahme der Empfehlung der Ständigen Impfkommission (STIKO), Mädchen gegen menschliche Papillomaviren (HPV) zu impfen, „und ein Ende der irreführenden Information“. Zu den Unterzeichnern des Aufrufs gehörten mit Norbert Schmacke und dem heutigen Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) Jürgen Windeler auch prägende Vertreter der EBM in Deutschland. HPV verursachen Genitalwarzen und ähnliche Zellveränderungen auf Schleimhäuten und sind in der Folge für einen großen Teil der oft tödlich verlaufenden Erkrankungen mit Gebärmutterhalskrebs verantwortlich. Zwei Impfstoffe (Gardasil und Cervarix) verhindern eine Infektion mit den HPV-Untertypen, die am häufigsten für Gebärmutterhalskrebs verantwortlich sind (und wie man inzwischen weiß auch recht gut mit anderen Untertypen). Die Argumentation des Aufrufs basierte darauf, dass zu diesem Zeitpunkt die Wirksamkeit der Impfung nur gegen Krebsvorstufen nachgewiesen war. Ein direkter statistischer Nachweis, dass geimpfte Frauen weniger Tumore bekommen, war noch nicht erbracht. Das lag aber nicht an den Impfstoffen, sondern einfach an der Natur der Sache: Geimpft wurden damals weibliche Jugendliche von 12 bis 17 Jahren (sinnvollerweise vor dem ersten Geschlechtsverkehr, weil die Viren sexuell übertragen werden), und das mittlere Erkrankungsalter für Gebärmutterhalskrebs liegt bei 52 Jahren. Für den direkten Nachweis hätte man also einfach nur sehr lange warten müssen, während mehr junge Frauen ungeimpft geblieben, mit HPV infiziert worden und später an Krebs gestorben wären. Was die Zulassungsbehörden in allen entwickelten Ländern und eben auch die STIKO stattdessen getan haben, war, die Informationen aus Patientenstudien zur Wirkung der Impfstoffe mit anderen Patientenstudien und Laborforschung über die Entwicklung der Krebszellen zusammenzufassen und entsprechende Schlüsse zu ziehen.

Ich bin kein Mediziner. Ich war damals tatsächlich neugierig und hätte gerne von jemandem vom Fach eine Erklärung gehabt, wie denn nach Meinung der Unterzeichner des Aufrufs die Tumore plötzlich trotzdem entstehen sollten, wenn die Viren, von denen sie ausgelöst werden, und die Krebsvorstufen, aus denen sie entstehen, nicht mehr da sind. Auf diese Frage konnte mir Professor Windeler in einem E-Mail-Wechsel keine nachvollziehbare Antwort geben. Stattdessen kam von ihm ein Beharren darauf, dass nach den Regeln der EBM ein direkter Wirksamkeitsnachweis in Patientenstudien erforderlich sei, um die Impfung empfehlen zu können.

Ich weiß, hinterher ist man immer klüger. Ich weiß, es hätte irgendeine (zwangsläufig extrem seltene, weil weder in den Zulassungsstudien noch in den ersten zwei Jahren der Anwendung entdeckte) schwere Nebenwirkung der Impfungen geben können. Ich weiß, die Tumore hätten durch irgendeinen verrückten Mechanismus auch ohne die Viren und die Krebsvorstufen entstehen können. Ich weiß nur bis heute nicht, wie man das damals für wahrscheinlich oder für entscheidungsrelevant halten konnte. Inzwischen, da wir klüger sind, wird die Impfung nicht nur für Mädchen schon im Alter von 9 bis 14 Jahren empfohlen, sondern auch für Jungen – weil die Impfstoffe so gut vertragen werden, weil dadurch auch ungeimpfte Frauen geschützt werden können, weil auch Peniskrebs und sogar der häufige Prostatakrebs mit HPV in Verbindung gebracht werden und weil eben auch Genitalwarzen bei Männern nicht toll sind.

Die Forderung nach dem „Ende der irreführenden Information“ schlug damals hohe Wellen durch die deutschen Publikumsmedien. Sie verunsicherte Eltern, die eine Impfentscheidung für ihre Töchter und später auch für ihre Söhne hätten treffen müssen. Sie verunsicherte aber auch die Politik, die sich nie zu systematischen Impfkampagnen in den Schulen, wie ich sie aus meiner Kindheit gegen Polio kenne, aufraffen konnte. 2018 lag die Impfquote gegen HPV unter 15jährigen Mädchen in Deutschland bei erbärmlichen 31%. An unverbesserlichen Impfgegnern lag das nicht: Die agitieren viel stärker gegen die Masernimpfung, und dort hatten wir bei der Einschulung schon vor der Einführung der Impfpflicht 2020 Impfquoten um 95% mit zwei Impfungen und über 98% Erstimpfungen.

Inzwischen kommen immer mehr Daten aus der realen Anwendung, die zeigen, wie wichtig es gewesen wäre, schon vor 12 Jahren weitaus konsequenter gegen HPV zu impfen, aus Australien, aus Finnland (wo inzwischen auch eine direkte Wirkung der Impfung gegen Tumore nachgewiesen ist), aus Schweden…  Und während es in den USA, Großbritannien, Kanada, Australien und Skandinavien längst völlig normal ist, dass Jugendliche unabhängig vom Geschlecht gegen HPV geimpft werden, werden in Deutschland in 20 oder 30 Jahren Frauen mittleren Alters an Tumoren sterben, die sie nicht haben müssten.

AstraZeneca für Senioren

Die Absurditäten, die unter Berufung auf die EBM verbreitet wurden, haben in der Pandemie einen neuen Höhepunkt erreicht; wieder geht es um Impfstoffe, nur anders als 2008 ist es dieses Mal die STIKO selbst mit ihrem jetzigen Vorsitzenden Thomas Mertens, die einseitig den Patientenstudien verfallen ist.

Der Covid-Impfstoff von AstraZeneca (Vaxzevria/ChAdOx1/AZD1222) wurde am 29.1.2021 in der EU zugelassen. Schon einen Tag vorher hatte die STIKO die Empfehlung abgegeben, den neuen Impfstoff nur für die Altersgruppe unter 65 und damit nicht für die am meisten gefährdete Risikogruppe über 80 einzusetzen. Der Grund für die kuriose Empfehlung waren nicht etwa konkrete Bedenken. Die Begründung war schlichtweg die hier schon bekannte: Zur Wirksamkeit in dieser Altersgruppe gäbe es in den Zulassungsstudien keine hinreichenden Daten für einen direkten Nachweis. Der STIKO waren schlicht zu wenige Senioren in den Studien. Etwas zugespitzt hätte man mit derselben Begründung empfehlen können, den Impfstoff nicht für Rothaarige, für Linkshänder oder für Beamte zu verwenden.

Es ist natürlich bekannt, dass ein Immunsystem im hohen Alter nicht mehr so gut lernt, sich an neue Bedrohungen anzupassen, was auch den Effekt von Impfungen reduziert. Man wusste aber aus Laboruntersuchungen in den frühen klinischen Studienphasen, dass durch alle drei zu diesem Zeitpunkt zugelassenen Impfstoffe eine robuste Immunreaktion auch bei alten Probanden erzeugt wurde, und von den beiden anderen Impfstoffen wusste man auch aus dem direkten Nachweis an Probanden, dass diese Immunreaktion auch alte Menschen vor einer Erkrankung schützt. Es gab keinen vernünftigen Grund für die Annahme, dass die Altersabhängigkeit der Wirkung bei dem AZ-Impfstoff anders sein sollte. Die Empfehlung basierte ausdrücklich nur auf dem Fehlen eines direkten Nachweises durch zu wenige alte Probanden in den Studien.

Die STIKO-Empfehlung trug auch dazu bei, dass das durch Verzögerungen und die (nach der Papierform) etwas geringere Wirksamkeit bereits beschädigte Image des AZ-Impfstoffs weiter geschwächt wurde. Einer der wichtigsten Erfolgsfaktoren für eine Impfkampagne, das Vertrauen der Bevölkerung in die Sicherheit und Wirksamkeit der eingesetzten Impfstoffe, wurde leichtfertig aufs Spiel gesetzt. Die fragwürdige Stellungnahme von Deutschlands wichtigstem Expertengremium zu diesem Thema befeuerte auch die haltlosen Gerüchte, der AZ-Impfstoff sei bei älteren nur zu 8% wirksam (tatsächlich stammte die absurde Zahl daher, dass in den Zulassungsstudien nur 8% der Probanden über 65 war).

Ich weiß, hinterher ist man immer klüger. Niemand konnte zu diesem Zeitpunkt wissen, dass der psychologische Schaden noch viel größer werden würde. Niemand konnte wissen, dass gerade der AZ-Impfstoff möglicherweise in sehr seltenen Fällen zu ernsten Nebenwirkungen in Form von Sinusvenenthrombosen führen könnte, die, wie es aktuell aussieht, vor allem junge Menschen betreffen könnten – ausgerechnet die jungen Menschen, die gerade in Deutschland ganz überwiegend mit AZ geimpft wurden, weil die STIKO sich gegen eine Anwendung bei alten Menschen ausgesprochen hatte. Das konnte niemand wissen.

Was man aber wissen konnte: Zu diesem Zeitpunkt hatten in Deutschland weniger als zwei Millionen Menschen eine Erstimpfung gegen Covid erhalten, erst rund 500.000 waren voll geimpft. Der weit überwiegende Teil der über 80jährigen hatte noch nicht einmal einen Impftermin. In Hessen waren viele Impfzentren noch gar nicht eröffnet. Die Intensivstationen waren noch voll von der zweiten Welle; in Großbritannien wütete die Alpha-Variante, und jeder (außer vielleicht den Ministerpräsidenten der Bundesländer) konnte wissen, dass uns durch Alpha eine üble dritte Welle bevorstand. Die Nutzung der AZ-Impfung für Jüngere mag dazu geführt haben, dass die eine oder andere Pflegekraft früher geschützt war – für die (nach der eigenen Analyse der STIKO) am dringendsten zu schützenden Personen hat die STIKO die Aussicht auf einen Impftermin aber weiter nach hinten geschoben. So sind unnötig viele alte Menschen ungeschützt in die dritte Welle geraten, und auch wenn sich das nach den strengen Regeln der EBM nicht wird beziffern lassen – es müssen unnötig viele dadurch gestorben sein.

Covid-Impfung für Jugendliche

Am 31.5. genehmigte die Europäische Kommission auf Empfehlung der europäischen Arzneimittelagentur (EMA) den Einsatz des ersten Covid-Impfstoffs (Comirnaty von BioNTech/Pfizer) für Jugendliche ab 12 Jahren. Zu diesem Zeitpunkt war der Impfstoff in den USA bereits seit drei Wochen bei Jugendlichen im Einsatz, mit dem erklärten Ziel, die entsprechende Altersgruppe bis zum Ende der Sommerferien möglichst flächendeckend geimpft zu haben. Schon in den ersten Medienberichten über die Zulassung tauchten jedoch Gerüchte auf, in Deutschland werde die STIKO den tatsächlichen Einsatz der Impfung für Jugendliche nicht empfehlen.

Einen Tag später erschien die bislang wohl skurrilste Folge des NDR-Podcasts Coronavirus Update. Die Frankfurter Virologin Sandra Ciesek und die aus diversen Folgen mit Ciesek und Christian Drosten erfahrene NDR-Journalistin korinna Hennig versuchten mit mäßigem Erfolg, ihre Fassungslosigkeit zu überspielen, als der als Gast zugeschaltete STIKO-Vorsitzende Thomas Mertens die zu diesem Zeitpunkt noch nicht einmal offiziell beschlossene Entscheidung seines Gremiums verteidigte. Auch wenn das sicherlich nicht Mertens‘ Absicht war – seine Argumentation wäre auf der Bühne einer Querdenker-Demo nicht sonderlich aufgefallen.

5.7.21: Angesichts Mertens‘ aktueller Äußerungen zum Testen von Schülern würde ich meine Einschätzung „Auch wenn das sicherlich nicht Mertens‘ Absicht war“ in Frage stellen. Das lässt auch Mertens‘ bizarre Äußerungen im NDR-Podcast, dass er die noch völlig ungetesteten Lebendimpfungen gegen Covid für sicherer hält als die inzwischen hunderte-millionenfach erfolgreich eingesetzten modernen Impfstoffe, in einem anderen Licht erscheinen. Letztlich muss man wohl einfach konstatieren, dass wir in der STIKO ein Personalproblem haben

4.7.21: Inzwischen beruft sich, wenig überraschend, die AfD genüsslich auf diese Glanzleistung der STIKO:

So erklärte Mertens, sachlich nicht falsch, die in den Studien geimpften 1100 Jugendlichen seien zu wenig, um seltene Nebenwirkungen ausschließen zu können, blieb aber jede Antwort dazu schuldig, wie man einen solchen Nachweis denn erbringen könne, wenn nicht dadurch, dass man eben mehr Jugendliche impft. In der Praxis wird das dazu führen, dass dann eben amerikanische, israelische und britische Jugendliche das Versuchskaninchen für Mertens‘ Sicherheitsanforderungen sein werden, weil in diesen Ländern die wissenschaftlichen Berater realistischer sind. Weitaus schlimmer war aber Mertens‘ folgende Aussage: „So […] wissen wir natürlich, dass bestimmte Spätfolgen einer Impfung schon auch nach Monaten sehr selten natürlich, aber möglich sind.“ Praktisch alle Fachwissenschaftler und seriösen Wissenschaftskommunikatoren, die sich öffentlich zu Covid äußern, reden sich seit einem halben Jahr den Mund fusselig, dass es solche „Spätfolgen“ bei Impfungen noch nie gegeben hat und dass auch kein halbwegs plausibler Mechanismus vorstellbar ist, wie ein im Körper längst abgebauter Impfstoff solche Folgen haben könnte. Dass ausgerechnet der Vorsitzende der STIKO diesen Gerüchte-Zombie wieder aus der Impfgegner-Gruft wanken lässt, ist, gelinde gesagt, enttäuschend.

Während sich Mertens zu vollkommen hypothetischen (und zumindest zum Teil vollkommen unrealistischen) Nebenwirkungen also – sachlich nicht falsch – auf die unzureichende Datenlage beruft, stuft er die aus den USA  berichteten, sehr seltenen Fälle von Myocarditis in zeitlicher Nähe zu einer Impfung als entscheidungsrelevant ein, obwohl ihm selbst klar ist, dass die Datenlage ebenfalls unzureichend ist, um zu beweisen, dass es da überhaupt einen kausalen Zusammenhang gibt. Erst mit den nach dem Podcast zusätzlich eingetroffenen Daten sprechen die amerikanischen Centers for Disease Control (CDC) inzwischen von einem „wahrscheinlichen Zusammenhang“, verweisen aber gleichzeitig auf die sehr kleine Zahl überwiegend harmloser Fälle. Am 11. Juni waren von 1226 Fällen von Myocarditis, die bei 300 Millionen Impfungen aufgetreten waren, fast alle schon wieder gesund. Nur neun waren noch im Krankenhaus, zwei auf Intensivstationen. Kurz gesagt präsentiert Mertens, unter Berufung auf die EBM, jede Wissenslücke und jede Unsicherheit als Argument fürs Nichtstun und vergrößert diese Wissenslücken noch, indem er, wie wir es hier jetzt schon mehrfach hatten, jede Überlegung beiseite wischt, die sich nicht unmittelbar aus Patientenstudien ergibt. Und, nochmal, ich kritisiere hier nicht als medizinischer Laie einen Konsens von Fachwissenschaftlern. Vielmehr ist es, wie zuvor bei der Altersempfehlung für den AZ-Impfstoff, die STIKO, die gegenüber internationalen Fachkreisen eine Außenseitermeinung vertritt. Die Experten der CDC kommen auch aufgrund der heutigen Datenlage zur exakt gegensätzlichen Einschätzung wie die STIKO. 5.7.21: Ebenso eindeutig ist die Einschätzung des Nationalen Impfgremiums, des Gegenstücks der STIKO in Österreich:

Auch in Frankreich werden nach einem entsprechenden Votum des wissenschaftlichen Beratergremiums seit dem 15.6. alle Jugendlichen ab 12 geimpft. In Israel läuft die Impfkampagne für Jugendliche ab 12 seit dem 6.6., in den Niederlanden seit dem 2.7.. Neben Deutschland zögert in Europa ausgerechnet UK, wo die Inzidenz von 257 (am 5.7.) nicht unbedingt eine Empfehlung für die dortige Seuchenpolitik abgibt.

So wie Mertens die Risiken der Impfung durchgängig zur Obergrenze des gerade noch Denkbaren abschätzt, erklärt er sämtliche Risiken der Krankheit, die nicht durch Patientenstudien an Jugendlichen eindeutig statistisch belegt sind, für nicht existent. Während ein aktueller britischer Artikel in The Lancet zur multisystemischen Entzündungserkrankung bei Kindern und Jugendlichen (PIMS) auf 26 Todesopfer in den USA sowie die noch ungeklärten Spätfolgen verweist und betont, wie wichtig es ist, die Infektionszahlen in diesen Altersgruppen niedrig zu halten, weiß Mertens: „Das Risiko für PIMS ist gering. Die Prognose ist gut.“ Seine Begründung ist einmal mehr, wie jetzt schon des Öfteren bei EBM-Vertretern aufgezeigt, der klassische Denkfehler des Argumentum ad Ignorantiam: Das Gegenteil lässt sich (noch) nicht beweisen. Dem gleichen Muster folgt er zu Long Covid, also den, für Erwachsene klar belegt, teilweise sehr hartnäckigen Spätfolgen einer Covid-Infektion: Die Datenlage bei Jugendlichen ist unzureichend, und damit ist das Thema abgehakt. Er schiebt dann noch das Scheinargument nach, dass ja nur wenige Kinder wegen Covid intensivmedizinisch behandelt werden müssten, obwohl er mit Sicherheit weiß, dass Long Covid bei Erwachsenen auch bei milden und sogar asymptomatischen Verläufen belegt ist. Dass die Datenlage bei Jugendlichen schlecht ist, überrascht nicht, wenn man bedenkt, dass typische, bei Erwachsenen gut verfolgbare, Long-Covid-Symptome wie Erschöpfung, Kopf- und Gliederschmerzen, Schlaf- und Konzentrationsstörungen bei Jugendlichen gerne auf Wachstum oder Pubertät geschoben werden. Man kann sich leicht vorstellen, dass dieselben Symptome, wenn sie zu alterstypischen Problem noch zusätzlich auftreten, auch für die weitere Entwicklung von Jugendlichen problematisch sein können. Wenn man über „die Datenlage ist unzureichend“ hinausschaut und versucht, das Beste aus den vorhandenen Daten herauszuholen, stellt man fest, dass das britische Statistikamt bei fast 10% der infizierten (nicht etwa nur der ernsthaft erkrankten) Kinder und Jugendlichen Langzeitfolgen meldet. Ob es, wie eine italienische Studie ausweist, sogar über 40% sind, kann man natürlich kritisch hinterfragen, aber eine unzureichende Datenlage heißt eben nicht 0%.

20.8.21: Inzwischen hat die STIKO viel zu spät ihre katastrophale Fehlentscheidung korrigiert und begründet das mit „neuen Erkenntnissen“. Wie neu die tatsächlich sind und was die Begründung der STIKO über Mertens‘ Medienauftritte in den letzten Monaten aussagt, habe ich mir in einem Kommentar unten in der Diskussion angesehen.

Ganz abgesehen von problematischen Auslegungen der EBM ist Mertens‘ Haltung, dass man Kinder und Jugendliche nur impfen dürfe, wenn für sie selbst der unmittelbare medizinische Nutzen eventuelle, hypothetische Risiken überwiegt, auch grundsätzlich problematisch. Bei sehr vielen (nicht allen) Impfungen liegt ein erheblicher Teil des Nutzens darin, durch Herdenschutz auch (noch) nicht impfbare oder trotz Impfung nicht geschützte Personen vor einer Infektion abzuschirmen. Warum dieser gesamtgesellschaftliche Nutzen nur innerhalb der eigenen Altersgruppe berücksichtigt werden soll, erschließt sich mir nicht, zumal natürlich auch mild erkrankte Kinder mitbetroffen sind, wenn ihre Eltern auf der Intensivstation oder ihre Großeltern auf dem Friedhof landen. Das ist auch eine ganz normale gesellschaftliche Praxis: Während der gesamten Pandemie wurde auch das Leben von Kindern eingeschränkt, um primär hochgradig gefährdete Ältere vor Covid zu schützen. Warum sollte dieses gesamtgesellschaftliche Handeln ausgerechnet bei einer Impfung enden, die letztlich alle schützt? Die nichtpharmazeutischen Maßnahmen, auch und gerade in Schulen, werden auch nicht mit den Sommerferien enden. Der Nachwuchs hat also durchaus auch ein über das rein Medizinische hinausgehendes Interesse an der Impfung: Indem wir Jugendliche und möglichst bald auch Kinder impfen, ersparen wir es ihnen, zweimal wöchentlich Unterrichtszeit für Antigentests zu verlieren und (wie die aktuellen Entwicklungen in schon stärker von der Delta-Variante betroffenen Ländern erwarten lassen) wahrscheinlich mehrfach pro Halbjahr wegen erkrankter Mitschüler unter Quarantäne gestellt zu werden.

Im Podcast hat Sandra Ciesek noch versucht, die Situation zu retten, indem sie betont hat, dass die Impfung von Kindern eine private Entscheidung ist und Eltern ihre Kinder natürlich auch ohne entsprechende Empfehlung der STIKO impfen lassen können. Zudem hat sich auch Mertens im Podcast die Hintertür offen gehalten, dass die STIKO ihre Empfehlungen anpassen kann, wird und das auch schon getan hat, wenn sich wissenschaftliche Erkenntnisse (oder vielmehr das, was er als wissenschaftliche Erkenntnisse akzeptiert) ändern. Insofern ist vorauszusehen, was passieren wird: Mit immer mehr Daten aus der Anwendungsbeobachtung in den USA, Israel und Großbritannien wird die STIKO wahrscheinlich eher früher als später umschwenken und doch eine Covid-Impfung für Jugendliche ohne Vorerkrankung und nach der entsprechenden Zulassung wahrscheinlich wieder mit einer unnötig langen Verzögerung auch für Kinder im Grundschulalter empfehlen. Der (einmal mehr) von der STIKO verursachte Vertrauensschaden wird sich aber auch hier nicht wiedergutmachen lassen. Verunsicherte Eltern sind das Schlimmste, was einer Impfkampagne passieren kann.

Tatsächlich hatte die STIKO zum aktuellen Zeitpunkt noch nicht einmal die geringste Notwendigkeit, diesen Flurschaden anzurichten. Sie hätte sich, wie es eigentlich ihre Aufgabe ist, überhaupt nicht öffentlich äußern müssen. Sie hätte die Frage der Impfung von Jugendlichen auch zurückstellen und sich problemlos noch mindestens sechs bis acht Wochen Zeit erkaufen können, wenn sie einfach nur gefordert hätte, den Impfstoff vor den gesunden Jugendlichen für alle impfbereiten Erwachsenen zu reservieren. Das wäre so oder so ohne jeden Zweifel die richtige Priorisierung gewesen. Damit hätte man noch bis irgendwann im August Zeit gehabt, eine Empfehlung abzugeben und hätte in vielen Bundesländern trotzdem noch vor Ende der Sommerferien mit einer Impfkampagne für Jugendliche starten können. Wahrscheinlich werden wir das so oder so tun, wenn die STIKO ihre Entscheidung ändert, was durchaus auch schon im August passieren kann – nur eben jetzt mit (zu Recht) völlig verunsicherten Eltern.

5.7.21: In dem Punkt muss ich meine Aussage revidieren. Anscheinend sind wir schon im Juli an dem Punkt, dass mRNA-Impfstoff nicht mehr knapp ist, weil die Impfbereitschaft sich insgesamt langsam ausschöpft. In dem Punkt freut mich die überraschend schnelle Bereitschaft der STIKO, für die AZ-Erstgeimpften eine Zweitimpfung mit einem mRNA-Impfstoff zu empfehlen. Interessanterweise ist auch hier der Wirksamkeitsvorteil nur in Labordaten zu erkennen, und direkte Informationen über die Sicherheit einer solchen heterologen Impfung sind kaum deutlicher als vor ein paar Wochen, als die STIKO das noch mit eben dieser Begründung abgelehnt hat. Das Argument der fehlenden Datenlage scheint bei der STIKO also recht selektiv zu greifen…
Ich persönlich hätte allerdings ohne mich zu beschweren die paar Wochen bis zum geplanten Zweittermin mit AZ (oder eben gegebenenfalls bis zur hinreichenden Verfügbarkeit von mRNA-Impfstoff) gewartet, wenn das notwendig gewesen wäre, um die Jugendlichen zu impfen. Da ganz offiziell genug da sein soll, habe ich die Gelegenheit aber auch genutzt und werde in Kürze heterolog geimpft sein. Da ist der lange Abstand nicht unbedingt erforderlich, weil man keine Gefahr einer Vektorimmunität hat.  

Gesamtgesellschaftlich ist das aber ohnehin erst der zweite Schritt. Das nächste, was die Wissenschaftskommunikation in Deutschland zu leisten hat, ist vollkommen unabhängig von der Frage, wann und mit welcher Durchschlagskraft wir die Impfkampagne bei Jugendlichen starten, weil sie dafür ohnehin zu spät greift: Wir müssen den Schulpolitikern (schnellstmöglich) den Zahn ziehen, dass man nach den Sommerferien an den Schulen einfach zum Regelbetrieb zurückkehren kann, damit wir nicht wieder völlig unvorbereitet in ein Schuljahr voller Einschränkungen, Tests und Quarantänen rutschen.

9.12.21: Ich muss meine beim Entstehen des Artikels noch eher differenzierte Sicht zu Thomas Mertens revidieren. Man erfährt doch immer wieder neues. Wer sich vor den Karren eines anthroposophischen Impfgegnervereins spannen lässt und auf einem Kongress mit Leuten wie Angelika Müller, Martin Hirte und Harald Walach auftritt, wie Mertens und sein Kollege Martin Terhardt, war als STIKO-Mitglied schon lange vor der Pandemie nicht mehr tragbar. Mit dem Wissen muss ich ganz nüchtern feststellen, dass das BMG bei der Ernennung mindestens dieser beiden wirklich den Bock zum Gärtner gemacht hat. 

Der Screenshot stammt aus diesem (an seiner ursprünglichen Stelle nach dem Tweet von Jan Hartmann ganz plötzlich gelöschten) Dokument. Eine Übersicht von Rednern auf dem Impfgegnerkongress mit Verweis auf eine DVD mit Aufzeichnungen findet sich hier.

Was wir wissen, was nicht, und was das nicht bedeutet

Es ist immer wieder lustig, wenn einem als Physiker vorgeworfen wird, wir würden behaupten, alles zu wissen, während man eigentlich ständig erklärt, was wir alles nicht wissen. Wissenschaft wäre auch ziemlich öde, wenn man schon alles wüsste.

Klar, in gewisser Weise haben wir (also, die Physik als Ganzes natürlich, nicht ich) schon ziemlich viel Wissen – nur eben nicht unbedingt die Art von Wissen, die typischerweise die Hobbyphilosophenrunde kurz nach Mitternacht und drei Gläsern Wein gerne mit uns diskutieren möchte.

Was wir als Faktum der Natur wissen

Wir wissen zum Beispiel, dass bei Kollisionen mit hohen Energien, wie am Large Hadron Collider (LHC) des CERN, ein Teilchen mit einer Masse von gut 125 GeV entsteht – das entspricht etwa der Masse eines ganzen Cäsium- oder Bariumatoms. Für ein einzelnes Elementarteilchen ist das schon sehr massig. Dieses Teilchen zerfällt nach extrem kurzer Zeit auf eine von mehreren, in ihrer Art und Häufigkeit genau bestimmten Arten in andere Teilchen. Es ist elektrisch nicht geladen, und es hat keinen Spin. Stellen Sie sich den Spin bitte nicht als Drehung vor, lieber als eine Art Magnetismus; das erzeugt weniger falsche Bilder im Kopf. Aber ich schweife ab, und ich will ja eigentlich weniger abschweifen, also weiter. Diese Dinge wissen wir ganz sicher über das Teilchen, denn wir haben sie, erstmals 2012, gemessen (also, wieder nicht ich, sondern die „Kollegen“ am CERN, mit denen ich mich immer noch irgendwie verbunden fühle, obwohl ich da nur vor Ewigkeiten ein paar Monate für meine Diplomarbeit verbracht habe).

Da gibt es auch so gut wie keinen Spielraum, dass diese Messung irgendwann als nicht mehr richtig gelten könnte. Es könnte sich allenfalls noch herausstellen, dass unterschiedliche Teams von Wissenschaftlern an unterschiedlichen Instituten zu unterschiedlichen Zeiten alle denselben wahnsinnig blöden Fehler in der Datenauswertung gemacht haben – aber das ist nach sechseinhalb Jahren von Folgeexperimenten und -auswertungen wirklich extrem unwahrscheinlich, dass das noch nicht aufgeflogen wäre. Solche Fälle hat es gegeben, und weil Physiker Menschen sind, hören sie das in der Regel nicht gerne, aber das gab es nie bei so vielen Beteiligten zum Teil unabhängig voneinander. Insofern, ja, dass da ein Teilchen mit diesen Eigenschaften ist, wissen wir sicher.

Man könnte aber auch sagen, das ist es auch schon mit unserem Wissen über das Teilchen.

Was wir als wissenschaftliche Theorie wissen

Es gibt aber noch mehr, was wir auch zumindest ziemlich sicher über dieses Teilchen sagen können. In den 1960er Jahren haben nämlich Peter Higgs, François Englert und eine ganze Anzahl von heute meist übergangenen Kooperationspartnern sich einen Mechanismus überlegt, wie man in den sogenannten Eichtheorien dessen, was wir heute Standardmodell nennen, das Entstehen von Masse erklären kann. Masse kommt in solchen Theorien nämlich eigentlich nicht vor, das heißt, alles würde sich eigentlich mit Lichtgeschwindigkeit bewegen. Der Higgs-Mechanismus, auf den sie dabei gekommen sind, ist in einer kleinen Bilderserie vom CERN ganz nett dargestellt worden, die man samt Texten zum Beispiel hier ansehen kann. Und es gibt vom CERN auch eine kleine Animation dazu:

Man sollte sich natürlich immer im Klaren sein, dass solche Visualisierungen nur ganz grobe Vorstellungen der eigentlichen Theorie sind und man aus solchen Vereinfachungen vor allem keine weitergehenden Schlüsse ziehen darf. Sie sollen erst einmal eine Vorstellung geben – um daraus etwas abzuleiten, müsste man sich mit der eigentlichen Theorie im Detail beschäftigen.

Aus diesem Higgs-Mechanismus hat man schon vor Jahrzehnten abgeleitet, dass es ein Teilchen geben sollte, das genau die Zerfallsarten, die Ladung und den Spin haben müsste, wie das Teilchen, das man dann 2012 am CERN messen würde. In Verbindung mit den anderen Theorien des Standardmodells und Messungen an verschiedenen Beschleunigern konnte man dann auch die Masse dieses Higgs-Teilchens schon vor der Messung immer weiter eingrenzen: In den 1980er Jahren dachte man noch, es könne mehrere hundert GeV schwer sein. Gegen 1990 zeichnete sich ab, dass die Masse zwischen 100 und 200 GeV liegen sollte. Damit war auch klar, dass man keinen neuen Riesenbeschleuniger für mehr als 10 Milliarden Dollar in der Wüste von Texas würde bauen müssen, um das Teilchen zu suchen: Der damals in der Entwicklung befindliche LHC am CERN sollte dafür locker ausreichen. Als ich Mitte der 1990er Jahre am CERN war, war man schon ziemlich sicher: Wenn es das Higgs-Teilchen tatsächlich gäbe, müsste seine Masse zwischen 110 und 130 GeV liegen. Im Jahr 2000 meinte man kurzzeitig, vage Anzeichen für ein neues Teilchen bei 114 GeV entdeckt zu haben, was sich aber nicht bestätigt hat. Schließlich kam die große Erleichterung, als man das Teilchen 2012 bei 125 GeV genau im vorhergesagten Massenbereich gefunden hat. Die Ernüchterung kam dann später, als sich abzeichnete, dass man am LHC neben dem Vorhergesagten (bis jetzt) irgendwie gar nichts Unvorhergesagtes findet, das Ansatzpunkte für neue Theorien bieten könnte – aber das ist eine andere Geschichte.

Diese Vorhersage und die dazu passende Messung geben uns ein ziemlich sicheres Wissen, dass es sich bei dem 2012 gemessenen Teilchen wohl um das gesuchte Higgs-Teilchen handelt. Das ist aber eine andere Art von Wissen als die Messung selbst: Die Theorie des Higgs-Mechanismus kann (und wird wahrscheinlich) irgendwann überholt sein, aber das Teilchen nicht. Jede neue Theorie, die später den Higgs-Mechanismus und das Standardmodell ersetzen will, wird nicht nur das Entstehen von Masse erklären müssen, sondern muss auch eine Erklärung dafür liefern, was für ein Teilchen man da seit 2012 beobachtet.

Das Higgs ist aber nicht das einzige Phänomen, das auf Basis der Theorien des Standardmodells (Elektroschwache Theorie, Quantenchromodynamik, Allgemeine Relativitätstheorie und Higgs-Mechanismus) vorhergesagt und später gemessen wurde. Das gleiche gilt für die W- und Z-Teilchen der schwachen Wechselwirkung, für alle aus Quarks aufgebauten Teilchen, die charm– und bottom-Quarks enthalten, sowie für das top-Quark und das tau-Neutrino. Alle wurden aufgrund des Standardmodells vorhergesagt und erst später nachgewiesen. Hinzu kommen unterschiedliche Arten sogenannter Jets, also Teilchenbündel, aus Kollisionen von Protonen oder leichten Atomkernen, die als Produkte der Quarks und Gluonen vorhergesagt wurden, aus denen die Protonen aufgebaut sind. Noch kein Teilchennachweis im eigentlichen Sinne, aber eine sehr frühe spektakuläre Bestätigung einer Vorhersage des Standardmodells war der Nachweis sogenannter neutraler schwacher Ströme am CERN 1973.

Das Standardmodell ist also nicht deshalb, nun, eben das Standardmodell der Physik, weil es besonders schön oder besonders praktisch wäre – gerade das ist es nach Ansicht der meisten Physiker eben nicht. Schließlich besteht es aus mehreren einzelnen Theorien, die auf den ersten Blick wenig miteinander zu tun zu haben scheinen und unter denen sich zumindest die Relativitätstheorie auch strukturell deutlich von den anderen unterscheidet. Der Standard ist es, weil es eine Vielzahl experimenteller Ergebnisse vorhergesagt hat. Dabei hat es nicht nur Messwerte wie die Masse des Higgs-Teilchens ziemlich gut eingegrenzt, sondern sogar die Existenz ganzer Phänomene und Teilchen vorhergesagt. Was immer irgenwann an die Stelle des Standardmodells treten soll, muss also in vielerlei Hinsicht zunächst einmal die gleichen Ergebnisse liefern wie das Standardmodell – sonst passt es schlicht und einfach nicht zur messbaren Realität.

Wie man nicht zu Wissen gelangt

Die Anhänger „alternativer“ Physiker wie Nassim Haramein oder Burkhard Heim (Heim war immerhin tatsächlich Physiker) behaupten jetzt, ihre Idole hätten das Standardmodell widerlegt, indem sie einzelne Messwerte mit größerer Genauigkeit vorhergesagt hätten. Sowohl Haramein als auch Heim waren hier schon an anderer Stelle Thema. Ironischerweise haben diese beiden Geistesgrößen Messwerte „vorhergesagt“, die schon längst gemessen und ihnen bekannt waren. Das ist ungefähr so, als wollte ich meine Kenntnisse in meteorologischer Synoptik (also Wetterbeobachtung und -vorhersage, das habe ich in meinem Nebenfach tatsächlich mal gelernt) dadurch unter Beweis stellen, dass ich das Wetter von gestern vorhersage. Im Fall von Heim mussten einige der von ihm genau „vorhergesagten“ Messwerte (wie die Masse des Eta-Mesons) aufgrund späterer, genauerer Messungen korrigiert werden, so dass sich seine Nachhersagen auch noch als falsch herausgestellt haben. Da beide „Theorien“ außer diesen Pseudobelegen nicht viel Überprüfbares zu bieten haben, will ich hier auch gar nicht weiter darauf eingehen.

Wozu wir noch keine eindeutige Theorie haben

Natürlich gibt es aber auch in den Bereichen der Physik, mit denen sich das Standardmodell beschäftigt, Ergebnisse, die durch das Standardmodell nicht beschrieben werden. Ein Themenbereich ist die Masse von Neutrinos. Neutrinos sind eine Art elektrisch neutrales Gegenstück zu Elektronen sowie den schwereren elektronenähnlichen Teilchen, den Myonen und Tau-Leptonen, sowie zu deren Antiteilchen. Da Neutrinos elektrisch neutral sind, wirken elektromagnetische Felder nicht auf sie. Auch die sogenannte starke Kernkraft wirkt nicht auf Neutrinos. Nachgewiesen werden können sie also nur durch die schwache Kernkraft, die einen etwas irreführenden Namen hat, weil sie auf einzelne Teilchen nicht unbedingt schwach, sondern eher selten wirkt. In den allermeisten Fällen kann ein Neutrino durch die Erde hindurchfliegen, ohne dabei irgendeine Wechselwirkung mit der durchflogenen Materie auszulösen. Selbst die dichteste auf der Erde bekannte Materie, das Innere von Atomkernen, ist für Neutrinos durchlässig. Wenn sie aber (sehr, sehr selten) doch einmal mit einem Teilchen wechselwirken, an dem sie vorbeikommen, dann können sie in der Reaktion durchaus einen großen Teil ihrer Energie übertragen und in ein Elektron (oder Myon oder Tau oder deren Antiteilchen) umgewandelt werden. Die Frage ist, wenn andere Kräfte außer der schwachen Kernkraft nicht auf Neutrinos wirken, wirkt denn die Schwerkraft auf sie, haben sie also eine (von null verschiedene) Masse? Es gibt indirekte experimentelle Belege, dass die Neutrinomasse nicht null sein kann. Direkt gemessen hat die Masse aber noch niemand, wobei der momentan aussichtsreichste Versuch das nach vielen Verzögerungen 2018 endlich in Betrieb genommene KATRIN-Experiment in Karlsruhe sein dürfte. Nach dem Standardmodell müssen Neutrinos keine Masse haben – man kann aber eine von null verschiedene Neutrinomasse relativ problemlos ins Standardmodell einsetzen.

Eine Zeit lang, bis deutlich wurde, wie klein sie wirklich ist, galt eine von null verschiedene Neutrinomasse als mögliche Erklärung für einen physikalischen Effekt, der ebenfalls nicht durch das Standardmodell erklärt wird: die dunkle Materie. Letztlich braucht man nur relativ einfache Mechanik und die Annahme, dass Sterne, die gleich viel Strahlung bei denselben Wellenlängen aussenden, auch ungefähr gleich schwer sein müssen, um die Masse praktisch aller sichtbaren Objekte unserer Galaxie abzuleiten. Berechnet man jetzt die Bewegung dieser Objekte um das Zentrum der Galaxie, dann stellt man fest, dass die Galaxie viel mehr Masse enthalten muss, als alle sichbaren Objekte zusammen ausmachen. Das schließt nicht nur direkt sichtbare Objekte wie Sterne und Gasnebel ein, sondern auch Planeten und Staubwolken, die kein Licht emittieren, die man aber dadurch nachweisen kann, dass sie das Licht anderer Objekte verdecken. In der Summe ergibt sich, dass im Universum rund fünf mal so viel dunkle wie direkt oder indirekt sichtbare Materie vorhanden sein muss. Die Existenz dunkler Materie folgt also nicht aus irgendwelchen Theorien, sondern direkt aus Messungen und relativ einfachen Berechnungen. Massive, dunkle Himmelskörper, sogenannte MACHOs, die man nachweisen kann, wenn sie vor anderen Objekten vorbeiziehen, können nach aktuellen Messungen höchstens einen kleinen Teil dieser dunklen Materie ausmachen. Die plausibelste Vermutung erscheint zur Zeit, dass es sich um noch unbekannte, schwere Elementarteilchen, sogenannte WIMPs, handelt. Diese kommen im Standardmodell an sich nicht vor. Es gibt jedoch weitergehende Theorien wie die Supersymmetrie oder die Stringtheorie, die solche Teilchen vorhersagen und das Standardmodell mit einschließen. Zumindest für einfache Varianten der Supersymmetrie hätte man diese Teilchen aber inzwischen auch an Beschleunigern finden müssen, wenn diese Varianten denn zuträfen. In welcher Form das Standardmodell hier erweitert oder ersetzt werden muss, ist also noch ziemlich offen. Man kann aber auch durchaus argumentieren, dass es für unser Verständnis des Univerums ziemlich egal ist, ob die dunkle Materie aus diesen oder jenen Teilchen besteht – man muss einfach nur als Ergänzung zum Standardmodell annehmen, dass diese Masse irgendwie da ist und sonst nichts tut.

Etwas mehr (aber nicht viel mehr) theoretische Annahmen stecken hinter der dunklen Energie: Das Universum dehnt sich aus; das wissen wir, weil sich ziemlich direkt messbar fast alle anderen Galaxien von uns entfernen. Da die Schwerkraft immer als Anziehung wirkt, müsste sie diese Expansion allerdings im Lauf der Zeit immer mehr abbremsen. Das habe ich in den 1990er Jahren noch im Studium gelernt. Inzwischen kann man aber (wieder ziemlich direkt, durch die Beobachtung von sehr weit entfernten Supernovae, von denen das Licht Milliarden Jahre bis zu uns braucht) messen, dass sich die Expansion anscheinend sogar beschleunigt. Den Antrieb dieser beschleunigten Expansion bezeichnet man als dunkle Energie. Um das Universum so aufzublähen, braucht es ungeheuer viel Energie: Würde sich alle Materie im heutigen Universum einschließlich der dunklen Materie in Energie umwandeln, dann entspräche das nur rund einem Drittel der dunklen Energie, die nach heutiger Berechnung die Expansion des Universums antreibt. In der allgemeinen Relativitätstheorie und damit im Standardmodell kann man eine solche dunkle Energie als sogenannte kosmologische Konstante problemlos einsetzen. Das hat sogar Einstein schon getan, als er noch dachte, das Universum dehne sich nicht aus, sondern sei stationär. Das erfordert nämlich auch eine Energie, die der Schwerkraft entgegenwirkt, damit das Universum nicht unter seinem eigenen Gewicht zusammenstürzt. Das Standardmodell kann diese Energie berücksichtigen, erklärt aber nicht, woher sie kommt.

Welche Ansätze es zu diesen offenen Fragen gibt

Alle drei genannten Effekte widerlegen das Standardmodell nicht. Sie zeigen lediglich, dass es in der Teilchenphysik und der Kosmologie Fragen gibt, die das Standardmodell allein nicht beantwortet und die als Ergänzung zum Standardmodell angenommen werden müssen. Eine Theorie, die das Standardmodell irgendwann ablösen soll, sollte möglichst einen Teil dieser Fragen, im Idealfall alle, beantworten. An solchen Theorien wird schon gearbeitet, seit es das Standardmodell gibt. Es gibt eine ganze Anzahl von Ansätzen. Manche sind ambitionierter und versuchen, alle Kräfte in einer Theorie zusammenzufassen; andere klammern die Schwerkraft noch aus und überlassen deren Beschreibung noch der allgemeinen Relativitätstheorie. Manche dieser Theorien, wie die Stringtheorie oder die Quantengravitation, sind auch nach 40 Jahren noch nicht so weit, Aussagen zu machen, die sich mit heutiger Technik vernünftig experimentell prüfen ließen. Damit lässt sich erst recht nicht zwischen den denkbaren Varianten dieser Theorien unterscheiden. Andere, wie die zu meinen Schulzeiten noch mit großen Hoffnungen behaftete Grand Unified Theory (GUT), sind zumindest in ihren einfachen Varianten heute schon experimentell widerlegt. Alle solchen Theorien, aus denen spektakuläre neue Messergebnisse für bisherige Experimente abgeleitet wurden, sind daran jedenfalls gescheitert – was nicht notwendigerweise alle Varianten der jeweiligen Theorie ausschließt, aber in der Regel die favorisierte, weil einfachste. Das gilt zum Beispiel für die zu meinen Studienzeiten meist beachtete Theorie, die Supersymmetrie, deren einfachste Form neue Teilchen vorhersagt, die man im LHC am CERN schon hätte finden müssen. Es bleiben also viele Fragen offen, aber mangels entsprechender zu prüfender Vorhersagen gibt es aktuell wenige Ansätze, durch Experimente auf der Erde Antworten zu finden. Daher ist es auch umstritten, ob man neue, noch größere Beschleuniger bauen sollte. Die spannendsten neuen Erkenntnisse stammten in den letzten Jahren sicherlich aus den immer besseren Beobachtungen der Astronomie, vor allem durch Teleskope auf Satelliten.

Warum die experimentellen Erkenntnisse nicht von der Theorie abhängen

Eins ist bei diesen neuen Theorien jedoch zweifelsfrei klar: Sie müssen zu praktisch allen schon gemachten Experimenten der Teilchen- und Astrophysik zu den gleichen Ergebnissen kommen wie das Standardmodell mit den genannten Ergänzungen wie der Neutrinomasse, denn die Ergebnisse dieser Experimente würden sich ja durch eine neue Theorie nicht ändern. Anders von „alternativen Physikern“ oder postmodernen Philosophen und Wissenschaftstheoretikern gelegentlich behauptet wird, müsste man diese Experimente auch nicht völlig anders aufbauen, wenn man andere Theorien hätte, und es würde schon gar nichts anderes herauskommen. Hinter solchen Vorstellungen stecken typischerweise Fehlinterpretationen von Thomas S. Kuhns Untersuchungen zu Erkenntnisprozessen in der Wissenschaft und einmal wieder ein falsches Verständnis des Beobachtereffekts. Wenn in einem Beschleunigerzentrum wie dem CERN Kollisionen hochenergetischer Teilchen und damit letztlich Freisetzungen reiner Energie untersucht werden, sind die Experimente ohnehin so aufgebaut, dass praktisch alles gleichzeitig gemessen wird, was man dabei technologisch überhaupt messen kann. Es gibt auch keine andere Möglichkeit, unter kontrollierten Bedingungen zu messen, was passiert, wenn an einem Punkt große Energien frei werden. Die Teilchenphysik kann Experimente gar nicht darauf ausrichten, nur den einen Parameter gezielt zu messen, der zur Überprüfung einer einzelnen Theorie nötig ist – dafür sind die Entwicklungszeiträume viel zu lang. Als der LHC in den 1980er Jahren geplant wurde, ging man noch von einem viel schwereren Higgs-Teilchen aus, und die Supersymmetrie, nach deren Teilchen bislang erfolglos gesucht wird, galt noch als wesentlich unwahrscheinlicher als die inzwischen längst ausgeschlossenen einfachen GUTs. Hypothetissche Vorhersagen aus neuen Theorien ändern sich schneller, als man neue Beschleuniger und Detektoren planen und bauen kann. Der LHC am CERN wurde dementsprechend nicht nur gebaut, um das Higgs nachzuweisen, sondern um ganz allgemein zu erforschen, welche neuen Phänomene in einem gewissen Energiebereich auftauchen. Das macht die Experimente auch so groß und teuer. Wegen der großen Datenmenge pro Kollision kann man eine Vorauswahl der Kollisionsereignisse treffen, die man genauer untersucht, um zum Beispiel Eigenschaften des Higgs-Teilchens genauer zu bestimmen. Es wird jedoch immer auch eine große Zahl sogenannter Minimum-Bias-Ereignisse gespeichert, um auch nach noch ganz unbekannten und unerwarteten Phänomenen suchen zu können. Die Ergebnisse der Teilchenphysik sind also gerade nicht von der Theorie abhängig, sondern sie sind eine zwingende Grundlage für jede Theorie, die Aussagen über Teilchen machen will.

Was wir gar nicht wissen

Nun gibt es auch für eine sogenannte Theory of Everything wie die Stringtheorie, die alle Grundkräfte der Natur und alle Teilchen beschreiben soll, grundsätzliche physikalische Fragen zur Materie und dem Universum, die sie nicht beantwortet. Dazu gehört zum Beispiel die Frage nach Ereignissen „vor“ dem Urknall, sofern man außerhalb der Existenz unseres Universums überhaupt von zeitlichen Begriffen wie vor oder nach sprechen kann. Auch hierzu gibt es Ideen, die sich in der einen oder anderen Form in diese neuen Theorien oder auch das Standardmodell integrieren ließen. So könnte das ganze Universum als zufällige Fluktuation aus nichts entstanden sein, und es könnte sich auch zufällig wieder in nichts auflösen. Von einer experimentell prüfbaren Theorie kann man in Bezug auf solche Ideen aber zumindest aktuell noch nicht sprechen.

Vielleicht werden wir aber tatsächlich erst zu einer konsistenten neuen Theorie jenseits des Standardmodells kommen, wenn jemand zu ganz neuen Ideen für völlig anders strukturierte Theorien findet, die möglicherweise auch solche Fragen mit einschließen. Die heutigen Kandidaten als Nachfolger des Standardmodells sind ja in gewisser Weise recht konventionell: Sie versuchen, in Form von Eichtheorien die Ideen des Standardmodells so zu verallgemeinern, dass sich ein umfassenderes Bild ergibt. Vielleicht wird sich der richtige Weg als ein ganz anderer herausstellen. Auch für eine solche neue Theorie würden aber die gleichen Voraussetzungen gelten: Sie müsste erklären, warum für praktisch alles, was wir heute messen können, das herauskommt, was das Standardmodell vorhersagt, und sie müsste ihren eigenen Wert unter Beweis stellen, indem sie Dinge vorhersagt, die wir noch nicht anderweitig vorhergesagt und gemessen haben.

Schließlich gibt es auch Fragen, die sich gar nicht in einer physikalischen Theorie beantworten lassen. Hierzu gehören zum Beispiel Fragen nach einem eventuellen Sinn von Dingen oder ethische Fragestellungen, was man tun sollte oder nicht. Bei solchen Fragen kann naturwissenschaftliche Erkenntnis einen Hintergrund bieten und als Information dienlich sein – sie kann aber nicht die Antwort liefern. Dementsprechend problematisch ist es auch, aus der Physik heraus oder mit der Autorität des erfolgreichen Physikers Antworten auf solche Fragen geben zu wollen. Davor haben auch viele der großen Physiker des 20. Jahrhunderts (zum Beispiel Erwin Schrödinger, Max Born und Werner Heisenberg) ausdrücklich gewarnt – und so mancher konnte sich trotzdem genau das nicht verkneifen.

Was dieses Nichtwissen nicht heißt

Wenn wir die Antwort auf eine grundlegende naturwissenschaftliche Frage, sei es die Entstehung des Lebens oder die des Universums, nicht wissen, liegt offenbar für viele Menschen die Versuchung nahe, eine willkürliche Antwort zu behaupten. Die beliebteste dieser willkürlichen Antworten begegnet mir auch in Diskussionen nach meinen Vorträgen regelmäßig: „An der Stelle muss man dann wohl von Gott sprechen.“ Nein, muss man nicht, und sollte man auch nicht. Selbst Theologen wehren sich gegen eine solche Vorstellung, die Dietrich Bonhoeffer mit dem treffenden Begriff „Lückenbüßer-Gott“ bezeichnet hat. Für Wissenschaftler ist eine solche Vorstellung ein ernsthaftes Problem und im Extremfall sogar lebensgefährlich: Wenn naturwissenschaftliches Nichtwissen beliebig mit religiösen Behauptungen aufgefüllt wird, dann wird jede neue wissenschaftliche Erkenntnis zwangsläufig zur Häresie. Das gilt insbesondere dann, wenn es um Schöpfungsmythen oder um die grundlegenden Zusammenhänge der Welt geht. Die historischen Beispiele von Galileo und Darwin drängen sich auf, aber grundsätzlich ist nicht auszuschließen, dass sich auch die Vorstellung von Gott als Auslöser des Urknalls über die Jahrzehnte zu einem Dogma entwickeln könnte, dessen Widerlegung Empörungsstürme bis hin zu Morddrohungen auslösen würde.

Noch bizarrer wird es, wenn religiöse Gruppierungen pseudo-naturwissenschaftliche Elemente in ihr Weltbild aufnehmen und in der Folge versuchen, diese als „neue Physik“ an der Öffentlichkeit – zum Teil buchstäblich – zu verkaufen. In gewohnt unterhaltsamer Form tun sich hier immer wieder die transzendental meditierenden Maharishis hervor, deren Quantenquark fast noch unfreiwillig komischer ist als ihr yogisches Fliegen oder die Wahlwerbespots ihrer Naturgesetz-Partei. So ist bei Thomas J. Routt in einer Veröffentlichung der Maharishi University of Management nachzulesen, dass im digitalen Universum die kosmische Weltregierung alle Aspekte des Lebens mittels Quantencomputern steuert.

An der Maharishi European Research University (MERU) wollte der Chemiker Klaus Volkamer 1987 in vermeintlichen minimalen Gewichtsschwankungen verschweißter Glasampullen die Wirkung dunkler Materie nachgewiesen haben. Eine Erklärung, warum die dunkle Materie nur in bestimmte, aber nicht in andere Glasampullen kriechen sollte, blieb er schuldig. In den folgenden 30 Jahren tourte er mit „feinstofflichen“ Erweiterungen praktisch aller Naturwissenschaften durch die Esoterikszene. Neben den Maharishis taucht Quantenquark in letzter Zeit auch zunehmend im Umfeld der Hare-Krishna-Bewegung auf.

Pseudowissenschaft in neureligiösen Bewegungen beschränkt sich jedoch nicht auf Gruppen aus dem hinduistischen Umfeld und, offensichtlich, die Scientologen, wenn man diese denn wirklich als religiöse Gruppierung betrachten will. Einige Anhänger von Christian Science betrachten ihren Kult offensichtlich allen Ernstes als Medizin und sehen – das hingegen wenig überraschend – Zusammenhänge vor allem mit der Homöopathie. In einer Zeitschrift der dem Christentum nahestehenden Bewegung Universelles Leben erklärte der Arzt Manfred Doepp, hinter Antibiotika und Impfungen stecke „mangelndes Vertrauen zur Führung durch Gott“.

Das Prinzip, dass man nicht jeden Unsinn für wahr erklären darf, nur weil die Wissenschaft etwas nicht weiß, gilt natürlich nicht nur für die Religion. Das gleiche trifft auch auf Nassim Haramein zu, wenn er die Tatsache, dass zwei unterschiedliche Messmethoden unterschiedliche Ergebnisse für den Radius eines Protons ergeben, nutzt, um seine absurden Vorstellungen vom Proton als schwarzem Loch für valider als das Standardmodell zu erklären. Hohle-Erde-Gläubige argumentieren ähnlich, wenn sie wissenschaftliche Diskussionen unter Geophysikern über die Ursache einzelner Reflektionsherde von Erdbebenwellen im Boden, sogenannte bright spots, als Beleg für ihre kruden Thesen anführen. Kreationisten nutzen jede spannende Forschungsfrage innerhalb der Evolutionsbiologie, um zu erklären die Evolution sei umstritten.

Nein. Dass es irgendwo in der Wissenschaft offene Fragen gibt, über die diskutiert und an denen geforscht wird, heißt nicht, dass sämtliche Ergebnisse dieses Forschungsgebiets falsch sind. Es heißt auch nicht, dass man als Antwort auf diese Frage einfach irgendeine beliebige Behauptung als erwiesen hinstellen darf, auch nicht eine, an die schon vor 2000 Jahren irgendwer in Vorder- oder Südasien geglaubt hat. So leid es mir tut, es heißt auch nicht, dass stattdessen zwangsläufig Ihre ganz persönliche Privattheorie stimmt, nach der sämtliche Elementarteilchen winzige, in unterschiedlichen Pinktönen eingefärbte und telepathisch kommunizierende Einhörner sind. Es heißt noch nicht einmal, dass das Universum dadurch entstanden ist, dass es vom großen grünen Arkelanfall ausgeniest wurde.

Dass es in der Wissenschaft offene Fragen gibt, heißt einfach nur, dass die Wissenschaft noch lebendig ist, dass es noch etwas zu forschen und zu entdecken gibt – und genau das macht die Wissenschaft so viel interessanter als alle Dogmen und Heilslehren.

Paranoia, Verleumdung und der Spaß an der Wissenschaft

Schon im Juni hatte ich mich etwas ausführlicher mit der Shiva-Statue auf dem Gelände des Teilchenforschungszentrums CERN in Genf beschäftigt und die gar nicht esoterischen aber um so interessanteren Hintergründe beleuchtet, wie so ein Objekt in eine wissenschaftliche Einrichtung kommt. Dabei kamen auch so einige der zum Teil völlig absurden Verschwörungstheorien zur Sprache, die sich um diese Statue und um die Arbeit des CERN insgesamt ranken. Man hätte meinen können, verrückter als diese bizarren Weltuntergangsphantasien kann die Beschäftigung mit einem solchen Forschungszentrum ja nicht mehr werden. Das hat sich in den vergangenen Monaten als ziemlicher Irrtum herausgestellt.

Wenige Wochen nach dem Artikel kursierte in Verschwörungtheoretiker-Kreisen die Meldung, der Physiker und Whistleblower Dr. Edward Mantill hätte sich am 13. Juli in seinem Büro im CERN erschossen. Interessanterweise wurde schon an diesem 13. Juli ein fertig produziertes Video über den angeblichen Vorfall auf Youtube hochgeladen, bezeichnenderweise von einem Nutzer namens „Paranoid Times“:

mantill-video

Dr. Edward Mantill wird schon seit dem vergangenen Jahr, wenn überhaupt eine Quelle angegeben wird, als der Urheber der Behauptung zitiert, das CERN hätte das Ziel, ein Portal in andere Dimensionen zu öffnen und würde so irgendwelche dunklen Mächte in die Welt holen. Durch dieses Portal sollen auch schon allerlei merkwürdige Kreaturen auf die Erde gekommen sein:

mantill-creaturesBei dem abgebildeten Wesen handelt es sich übrigens vermutlich einfach um einen im sibirischen Winter mumifizierten Vielfraß.

Mantill wird als Physiker und CERN-Mitarbeiter zitiert, an anderer Stelle ist ausdrücklich von einem „renowned physicist“ die Rede. Mantill scheint auch recht vielseitig gewesen zu sein: Laut dem Video forschte er an Neutrinos, nach anderen Quellen (wie hier bei „Christ Michael“) beschäftigte er sich mit Wechselwirkungen von Quarks. Viel unterschiedlicher können Arbeitsgebiete innerhalb der Teilchenphysik kaum sein. Das kommt vor, gerade bei Professoren, die über mehrere Jahrzehnte Arbeiten vieler Studenten betreut haben, ist aber eher ungewöhnlich für die Forscher, die die tatsächliche Arbeit machen. Ein Blick auf Mantills Veröffentlichungsliste könnte da natürlich Aufschluss geben, nur dummerweise findet sich in den einschlägigen Suchportalen keine einzige wissenschaftliche Arbeit dieses „renommierten Physikers“. Ohne eine einzige wissenschaftliche Veröffentlichung stellt sich natürlich die Frage, wo hat er eigentlich den Doktortitel her? Die Antwort ist relativ einfach und wurde schon im April vom „Angry Ufologist“ recht ausführlich nachrecherchiert: Es gibt und gab keinen Dr. Edward Mantill, weder am CERN noch sonstwo in der Physik.

Woher stammt aber dann die Geschichte von Mantill und seinem Wissen über die Portale zu dunklen Mächten, die seit 2015 auf allen möglichen Verschwörungsseiten wiedergekäut wird? Die älteste Quelle, die ich gefunden habe (22.1.2015), ist auf dem Internetportal Reddit ein längerer Text mit dem Titel: „I’m a Physicist at CERN. We’ve done something we shouldn’t have“. Innerhalb von Reddit findet man diesen Text auf der Unterseite „Reddit No Sleep“, die laut Beschreibung dazu dient, dass Autoren dort ihre Gruselgeschichten posten können.

Als Gruselgeschichte ist das Mantill-Thema, naja, durchwachsen. Die Idee mit dem CERN ist recht kreativ, und mit dem Ich-Erzähler ist die Geschichte einigermaßen stimmungsvoll aufgebaut. Sie krankt leider daran, dass der Autor so gar keine Ahnung von Physik oder vom CERN hat. Unter anderem berichtet der angebliche Physiker Mantill von einem normalen Tag am CERN, an dem im LHC planmäßig zwei Kollisionen im Abstand von neuneinhalb Stunden stattgefunden hätten. Es wäre auch für einen Laien leicht nachzurecherchieren gewesen, dass im LHC je nach Strahlfokussierung und danach, was man als Kollision mitzählt, einige hundert Millionen Kollisionen pro Sekunde stattfinden. Eine lustige Idee ist immerhin der Name von Mantills Kollegin in der Geschichte, Celine D’Accord. Frau Einverstanden hätte ich am CERN auch gerne kennengelernt.

Die Mantill-Geschichte ist übrigens nicht der erste Fall, dass Verschwörungstheoretiker über die angeblichen dunklen Machenschaften des CERN erfundene Geschichten als Quellen zitieren. Schon seit 2009 wird immer wieder eine Glosse des Technologiemagazins The Register zitiert, die sich eigentlich über die Ängste vor dem Weltuntergang durch das CERN lustig macht. Der Text schwadroniert genüsslich über „hyperdimensionale Monstermänner“ und „parallele Globo-Nazis“ und betont auch noch wörtlich, das sei natürlich alles Unsinn. So genau scheint den Artikel aber nicht jeder gelesen zu haben, der ihn ausdrücklich zitiert. Dort scheint sich auch der Erfinder von Edward Mantill bedient zu haben, denn der Register-Artikel ist die ursprüngliche Quelle eines Zitats des damaligen CERN-Forschungsdirektors Sergio Bertolucci. In Bertoluccis Zitat taucht erstmals die Formulierung auf, der LHC könne möglicherweise eine Tür in andere Dimensionen öffnen, womit Bertolucci offensichtlich das Auftauchen neuer Teilchen oder einer unerwarteten Teilchenwechselwirkung meinte. Bertoluccis Zitat, entstanden im Überschwang der LHC-Eröffnung war auch der Ausgangspunkt der ganzen The Register-Glosse.

Mantill ist auch nicht der einzige frei erfundene CERN-Physiker, mit dem wissenschaftsfeindliche Propaganda gemacht wird. So berichteten im Frühjahr 2016 diverse Onlinemedien über die Bekehrung von Professor Gunther Scheizle zum fundamentalistischen Christentum. Bei Scheizle soll es sich um einen Deutschen handeln, der am CERN forscht und eine Professur an der ETH in Zürich hat. Auch Prof. Gunther Scheizle scheint nie irgendetwas zu publizieren, und die ETH oder das CERN wissen auch nichts von ihm. Quelle soll eine christliche Zeitung „Gemeinschaft des Herrn“ aus München sein, die offenbar keine Webseite hat und außer der Scheizle-Bekehrung auch sonst nie im Internet erwähnt wird.

Interessant ist auch das Photo des angeblich bekehrten Professors:

Erinnert doch irgendwie ziemlich an ein altes Pressebild des ehemaligen CERN-Generaldirektors Rolf-Dieter Heuer:

Wie geht man als Wissenschaftler oder auch nur halbwegs wissenschaftlich kompetenter Mensch mit so viel Unsinn um? Eigentlich kann man darüber nur lachen. Leute in einer Diskussion überzeugen zu wollen, die einen für einen Verbündeten des Satans halten, ist ohnehin sinnlos. Wenn man zu einer Gruppe gehört, für die ein gewisses Grundverständnis der Naturwissenschaft mehr oder weniger selbstverständlich ist,  ist die Versuchung groß, den Spinnern mit Satire zu begegnen. Das kann aber gewaltig nach hinten losgehen, vor allem wenn dabei ein Mangel an Lebenserfahrung mit einem offenkundigen Überschuss an Alkohol einhergeht, und auch das hatten wir diesen Sommer.

„Was soll das Menschenopfer-Ritual am CERN?“ titelte am 18. August der Verschwörungsblog „Alles Schall und Rauch“. Die amerikanische Freedom Fighter Times verkündete eine „Bombensensation am CERN“: Das Video eines satanischen Menschenopfer-Rituals vor der Shiva-Statue sei der Öffentlichkeit zugespielt worden. Das angesprochene Video gibt es tatsächlich, und es ist zwar für einen Kurzfilmpreis zu kitschig und klischeebeladen, aber es erreicht einen netten Gruseleffekt. Dazu benutzt es verwackelte Handybilder im „Blair-Witch“-Stil und eine theatralische Flucht des angeblichen Beobachters, bevor allzu aufwendige Spezialeffekte nötig geworden wären.

cern-ritual

Die dunkel verhüllten Gestalten und das blonde Opfer sind ein bisschen abgedroschen, aber dafür finde ich die klobigen Turnschuhe des Oberpriesters wirklich mal etwas Neues…

Keine Satire ist aber so überzeichnet, dass Verschwörungstheoretiker nicht noch etwas daraufsetzen könnten: Wenige Tage nach dem Auftauchen des Videos wurde die Behauptung verbreitet, der Urheber des Videos sei tot aufgefunden worden. In die Welt gesetzt wurde sie offenbar von einem Youtube-Nutzer namens Richie from Boston, der sonst auch gerne die absurdesten Verschwörungstheorien über Hillary Clinton verbreitet. Richie hat das Video am 11.8. verbreitet, behauptet aber selbst nicht, den Urheber getroffen zu haben, sondern zitiert eine arabische Facebook-Quelle, die bis heute noch sehr lebendig postet. Die Behauptung, der Urheber des Videos sei tot, taucht vielmehr in einem Besucherkommentar zu einem Video von Richie auf

isdead

und ist möglicherweise einfach eine Verwechslung mit dem älteren Dr.-Mantill-Mythos. Dennoch wurde die absurde Geschichte unter anderem von der britischen Boulevardzeitung Daily Mirror aufgegriffen und wurde danach von Anderen so zitiert, dass Richie aus Boston den Tod der Quelle dem Mirror in einem Interview persönlich bestätigt habe.

Gedreht wurde das Video ganz offensichtich tatsächlich im CERN vor der Shiva-Statue. Der Platz befindet sich innerhalb des CERN-Hauptgeländes in Meyrin und ist für jeden Mitarbeiter, Gastwissenschaftler oder Mitarbeiter beauftragter Unternehmen Tag und Nacht frei zugänglich. Das sind insgesamt weit über 10.000 Menschen. Viel Betrieb ist dort nachts nicht, aber es wundert sich auch niemand, wenn sich dort jemand aufhält. Die Fenster im Hintergrund gehören zum Gebäude 39, einem Gästehaus für Wissenschaftler, die sich nur kurzfristig am CERN aufhalten. Mit insgesamt 490 Zimmern in seinen Gästehäusern gehört das CERN  zu den größten Hotelbetreibern der Region, und ein guter Teil dieser Zimmer befindet sich auf dem Gelände in Meyrin. Aufgenommen wurde das Video, der Perspektive nach, aus dem ersten oder zweiten Stock des Gebäudes 40. In diesem Gebäude befinden sich Büros, die von den Experimenten am Großbeschleuniger LHC genutzt werden. Abgeschlossen sind solche Gebäude innerhalb des Geländes nachts in der Regel nicht, höchstens die einzelnen Büros; schließlich ist es nicht ungewöhnlich, dass dort auch zu ungewöhnlichen Zeiten jemand am Schreibtisch sitzt. Wer sich nur kurzfristig dort aufhält und im Gästehaus übernachtet, hat abends ohnehin meistens nichts besseres zu tun, und während der kostbaren Betriebszeit der Beschleuniger arbeitet in den Kontrollräumen der Experimentierhallen ohnehin immer jemand im Schichtbetrieb.

Als Urheber des schlechten Scherzes komen also grundsätzlich alle in Betracht, die Zugang zum Gelände haben. Festangestellte dürften aber für eine solche Schnapsidee kaum ihre Jobs riskieren – im Verhältnis zur spärlichen Bezahlung an Universitäten sind die steuerfreien Gehälter am CERN für viele Physiker ein Traum. Auch erwachsenere Gastwissenschaftler sollten sich der Tragweite eines solchen schlechten Witzes durchaus bewusst sein. Das gilt aber nicht unbedingt für die rund 300 Teilnehmer des Summer Student Programme, die sich zur fraglichen Zeit ebenfalls am CERN aufhielten und die dort die gleichen Freiheiten haben wie alle Anderen auch. Für viele der Summer Students hat der Aufenthalt am CERN eine gewisse Klassenfahrtatmosphäre, und nicht alle verbinden mit ihrer Teilnahme längerfristige berufliche Ziele. Das CERN bemüht sich natürlich, die Urheber der Aktion herauszufinden, aber solange sich nicht einer der Beteiligten outet, dürfte das schwierig sein. Die Summer Students sind längst abgereist, und für die CERN-Verwaltung arbeitet auch nicht gerade James Bond: Als ich einmal in unserer Experimentierhalle meine Scheckkarte verschlampt hatte (die man vor Arbeiten in Magneten besser aus der Tasche nimmt), wurde ich für die Verlustanzeige an die Werksfeuerwehr verwiesen, denn das CERN-Gelände ist ein exterritoriales Gebiet der UNESCO, und weder die Schweizer noch die französische Polizei fühlt sich zuständig. Die gleichen Feuerwehrmitarbeiter arbeiten nachts auch als Taxidienst, wenn die Pendelbusse zwischen den unterschiedlichen CERN-Standorten nicht mehr fahren…

Mehr als ein Ausschluss von zukünftiger Arbeit am CERN droht den Verantwortlichen ohnehin nicht – ein Video von einem schlechten Scherz zu drehen, ist ja keine Straftat.

Man kann natürlich fragen, wo eigentlich das Problem mit derlei missverständlicher Satire oder mit den veräppelten Verschwörungstheorien an sich liegt. Die Verschwörungstheoretiker selbst wird niemand bekehren, und interessierte Teile der Öffentlichkeit, die sich aktiv informieren, werden relativ schnell auf Klarstellungen stoßen, die weitaus plausibler sind als die Spinnereien selbsternannter amerikanischer Freiheitskämpfer. Das Problem liegt vielmehr bei Menschen, die sich gerade nicht für Grundlagenforschung interessieren, aber als Wähler und Steuerzahler natürlich dennoch betroffen sind. Eine falsch verstandene Anspielung oder ein gedankenlos platziertes „Umstritten“ in einem Zeitungsartikel können hier leicht den Eindruck erwecken, es gäbe mit dem CERN tatsächlich ein wie auch immer geartetes Problem. Das kann sehr relevant werden, wenn plötzlich in der Politik die CERN-Mitgliedschaft eines Landes ernsthaft in Frage gestellt wird, wie im Jahr 2009 in Österreich.

Ein Problem können solche Verschwörungstheorien aber vor allem für die Menschen sein, die am CERN arbeiten. Das muss nicht einmal so weit gehen wie 2008, als Nobelpreisträger Frank Wilczek wegen seiner öffentlichen Unterstützung für das CERN Morddrohungen bekam. Auch launige Bemerkungen abends in der Kneipe, wie viele Jungfrauen man denn im letzten Jahr geopfert hat, sind nur bei den ersten fünf Wiederholungen lustig. Ein viel größeres Problem wäre es, wenn Versuche der CERN-Verwaltung, schlechte Scherze wie das gezeigte Video künftig zu verhindern, zu Einschränkungen der Freiheit am CERN führten.

Ein Teil des Erfolgs des CERN liegt eben gerade in den Freiheiten, die die vielen Gastwissenschaftler dort genießen. Wenn man die Kontrollen an der Einfahrt passiert hat, wozu zu meiner Zeit eine Plakette an der Windschutzscheibe genügte, kann man sich innerhalb der CERN-Standorte völlig frei bewegen. Letztlich gibt es nur zwei Verwaltungsfelder, die einen in der praktischen Arbeit einschränken: Man muss aufpassen, dass man beim Transport CERN-fremder und mitunter teurer Geräte zu oder zwischen den CERN-Standorten nicht versehentlich mit dem französischen oder Schweizer Zoll in Konflikt gerät, und gelegentlich kontrolliert der Strahlenschutz, dass man sich oder seine Kollegen nicht fahrlässig zu hohen Strahlendosen aussetzt. Ansonsten gibt es natürlich Regeln, aber die beschränken sich (anders als ich das zum Beispiel in einem amerikanischen Nationallabor kennengelernt habe) auf Dinge, die einem auch der gesunde Menschenverstand sagt, und sie behindern in der Regel nicht die Arbeit.

Wenn man am CERN nachts um drei eine großartige Idee für eine Berechnung hat, hindert einen niemand daran, ins Büro zu gehen und sofort anzufangen. Das führt bei Manchen zu 70-Stunden-Wochen, aber wenn man ohnehin nach vier Wochen wieder ans heimische Institut fährt, findet man das möglicherweise gar nicht so schlimm. Wenn man sich von jemandem einen Rat erhofft, kann man die betreffende Person einfach fragen, egal ob sie für ein „konkurrierendes“ Experiment arbeitet oder Nobelpreisträger ist. Okay, letzteres tut man am Ende dann doch meist nicht – ein Nobelpreisträger ist eben auch am CERN… ein Nobelpreisträger – aber man könnte! Was zu regeln ist, wird in der Regel unbürokratisch innerhalb der Arbeitsgruppe oder des Experiments geregelt. In weiten Teilen arbeitet das CERN so informell wie ein Uni-Institut – nur eben wie eins mit über 10.000 Mitarbeitern… Das alles funktioniert nur, weil im Grundsatz erst einmal jeder jedem ein gewisses Vertrauen entgegenbringt.

Bemerkenswerte Möglichkeiten bietet das CERN auch für die Freizeitgestaltung. Die CERN-Homepage listet über 50 Clubs für Sport und Freizeitgestaltung auf – dazu existieren noch informelle Netzwerke für unterschiedliche Nationalitäten, die LGBT-Community sowie das Arbeiten und Leben am CERN mit Behinderungen. Hinzu kommen immer wieder offizielle und inoffizielle künstlerische Aktivitäten, wie ich sie schon im letzten Artikel angesprochen hatte. Das ist auch nötig: Wer mehr als ein paar Tage, aber nicht dauerhaft am CERN ist, möglicherweise auch noch als einziger Vertreter seiner Institution, ist dort in der Freizeit oft ziemlich isoliert. Die festangestellten oder dauerhaft abgeordneten Kollegen gehen abends nach Hause, und die einheimische Bevölkerung empfängt Fremde nicht unbedingt immer mit offenen Armen – vor allem, wenn sie auch noch relativ holprig oder gar nicht Französisch sprechen. Die Genfer Innenstadt ist rund zehn Kilometer entfernt, und die Busverbindung durch die Trabantenstadt Meyrin wird abends nicht attraktiver. Andere Freizeitmöglichkeiten sind ohne Auto kaum zu erreichen. Selbst für Berg- und Skifreunde hat der nahe französische Jura nur einen begrenzten Reiz, und beliebte Skigebiete wie Verbier oder Chamonix sind über zwei Fahrstunden entfernt. Nach zwei oder drei Wochen können auch ein relativ nettes Zimmer im Gästehaus und die bis spät geöffnete Cafeteria sehr traurige Orte werden, und manchmal kommt man sich vor wie in einer (immerhin recht komfortablen) Kaserne. In solchen Situationen sind die Clubs und Netzwerke eine ebenso willkommene wie notwendige Abwechslung. Auch diese Möglichkeiten beruhen aber auf dem gegenseitigen Vertrauen und der Offenheit, die durch Verschwörungstheorien und eventuelle Gegenmaßnahmen unterminiert werden.

Das ist ein entscheidender Punkt: Die Wissenschaftler, die in Forschungszentren wie dem CERN versuchen, ihre Arbeit zu machen, sind in erster Linie Menschen mit ganz normalen menschlichen Bedürfnissen. Das wird gerne vergessen, wenn selbst wohlmeinende Autoren beim Bekämpfen der Verschwörungstheorien CERN-Forscher als „geniale Männer und Frauen“ und „die besten Gehirne der Welt“ bezeichnen. Das ist schmeichelhaft, aber es ist eben auch entfremdend und dadurch gefährlich. Das CERN ist durchaus ein besonderer Ort mit besonderen Möglichkeiten, vielleicht auch mit ein paar besonderen Menschen. Aber auch die haben ganz normale Bedürfnisse und manchmal einen ziemlich schrägen Humor. Und es wäre wichtig, dass ihnen nicht der Spaß an der Wissenschaft vergeht.

 

 

Kein Esoterikkongress in Gießen – dafür drei sehenswerte skeptische Veranstaltungen

Wenn in diesem Blog in den vergangenen Wochen relativ wenig Neues aufgetaucht ist, dann  liegt das zu einem gewissen Teil an einer Indienreise, zum Teil an einem Buchprojekt und zum Teil an der Tatsache, dass man ja irgendwann auch noch Geld verdienen muss. Es liegt aber auch zu einem nicht unerheblichen Teil an einem tollen Projekt, das ein kleiner Kreis von Ehrenamtlichen seit Juli in Gießen auf die Beine gestellt hat: Den Aktionstagen gegen geistige Brandstiftung.

Im Laufe des Sommers wurde bekannt, dass ein Zusammenschluss von Esoterikern, Verschwörungstheoretikern und rechten Reichsbürgern einen Kongress in Gießen angekündigt hatte. Die Referentenliste war beeindruckend erschreckend: Zu den bekanntesten Angekündigten gehörten wohl Motivationsguru Robert Betz, Reichsbürger Jo Conrad, „die Ursache deiner Krankheit liegt in dir selbst“-Dahlke, und Franz Hörmann, ein Wirtschaftsprofessor, der empfiehlt, seine Kredite einfach nicht zurückzuzahlen und meint, dass Gaskammern nichts mit Gaskammern zu tun gehabt hätten. Quantenquark war auch reichlich im Angebot: Michael König bietet eine Ausbildung zum Quantenpraktiker an (und meint damit nicht Fußpflege), Konstantin Meyl will die Relativitätstheorie widerlegt haben, nimmt dafür aber die Existenz sogenannter elektromagnetischer Skalarwellen an, die nie jemand finden konnte, und Nassim Haramein wäre eigentlich einen ganzen eigenen Artikel wert. Tatsächlich gerne mal live hören würde ich Simon Parkes, dessen Gruppenmeditation im September 2015 dem Teilchenbeschleuniger am CERN nicht genügend Energie zuführen konnte, um das Raumtor zu öffnen, so dass dann einige außerirdische Reptilienwesen auf der Erde festsaßen – das schreibt er zumindest auf seiner Homepage. Später wurde dann auch noch der gerade Haft sitzende oberste Souverän des Reichsbürger-Königreichs Deutschland angekündigt.

chemtrails

Mit ein paar Leuten, die schon beim Protest gegen den Quer-Denken-Kongress 2015 in Friedberg dabei waren, ist es gelungen, ein Gegenprogramm zu planen und gleichzeitig die Stadtpolitik über den anstehenden Kongress und die Problematik damit aufzuklären. Irgendwie schaffen es rechtsesoterische Veranstalter  immer wieder, für ihre Unsinn öffentliche, aus Steuergeldern finanzierte Stadthallen anzumieten. In Friedberg und Neu-Isenburg dürfte die Verwaltung nach den dortigen Quer-Denken-Kongressen wachsamer sein, also hatte man dieses Mal in Gießen die Kongresshalle gemietet. Tatsächlich haben wir es aber auch in Gießen wieder geschafft, ein breites, parteiübergreifendes Bündnis von Junger Union bis Linksjugend und vom Humanistischen Verband bis zum Rat der Religionen für einen Protest gegen den Kongress zusammenzubekommen.

aktionstage-flyer-aussen

Erfreulicherweise hat es dann aber die städtische GmbH durchgesetzt, nach einem Wechsel des offiziellen Veranstalters ihre peinlichen Mieter wieder loszuwerden, so dass der Kongress in Gießen nicht mehr stattfinden kann. Es gibt aber andernorts trotzdem noch genug von der Sorte. Im November steigt wieder ein Quer-Denken-Kongress, diesmal in Köln, mit einem großen Teil der Redner, auf die Gießen nun glücklicherweise verzichten durfte. Vom Rest der Redner konnte man die meisten (nur Simon Parkes nicht, der würde mich wirklich interessieren…) schon Anfang Oktober beim Kongress des Kopp-Verlags in Stuttgart sehen.

kopp-kongress

Was aber (unter anderem auch wegen der vielen ähnlich gelagerten Kongresse) trotzdem in Gießen stattfinden wird, sind drei wunderbare Aufklärungsveranstaltungen, die eigentlich gegen den Kongress protestieren und über diesen aufklären sollten. Die Veranstaltungen werden vom ganzen Bündnis unterstützt – veranstaltet werden sie von der Gesellschaft zur Wissenschaftlichen Untersuchung von Parawissenschaften (GWUP), dem Allgemeinen Studierendenausschuss der Justus-Liebig Universität und dem Humanistischen Verband Deutschlands (HVD) Hessen. Also kein Esoterikkongress in Gießen, dafür drei richtig gute skeptische Veranstaltungen. Da kann man nur sagen, der Anspruch als Wissenschaftsstadt wird voll erfüllt.

aktionstage-flyer-innen

Schon am Donnerstag, 13.10.2016 um 20 Uhr läuft im kommunalen Kino im Jokus, Ostanlage 25 in Gießen der Dokumentarfilm Die Mondverschwörung. Wer sich beim Lesen dieses Artikels gefragt hat, was Esoterik eigentlich mit rechtsextremem Gedankengut zu tun hat, ist bei diesem Film genau richtig. Hier ist der Trailer, aber am 13.10. haben wir noch viel mehr zu bieten. Im Anschluss an den Film steht der Regisseur Thomas Frickel für eine ausgiebige Diskussion zur Verfügung, und die ist mit ihm erfahrungsgemäß ähnlich unterhaltsam wie der Film, nur eben mit der Möglichkeit, nachzufragen.

trailer-mondverschwoerung

Für Montag, den 17.10.2016 um 20 Uhr im Margarete-Bieber-Saal der Universität, Ludwigstraße 34, konnten wir einen juristischen Experten und engagierten Blogger über die Reichsbürgerszene gewinnen: Oliver Gottwald schreibt den Eisenfrass-Blog und macht Fortbildungen für hessische Justizbeamte zum Thema. Passend zu den Reichsbürger-Rednern, die Gießen erspart geblieben sind, spricht er über Peter Fitzek, das Königreich Deutschland und die Reichsbürger. Wer noch keine Ahnung hat, wer Peter Fitzek ist; das auf dem Screenshot unten ist nicht etwa der Prinz Karneval, sondern der oberste Souverän persönlich, und beim Draufklicken kommt man auf eine längere Doku des MDR, vielleicht zum Vorgruseln vor Olivers Vortrag. Infos zum Nachlesen finden sich auch bei unseren Unterstützern vom Sonnenstaatland.

krd

Unsere Hauptveranstaltung wird dann der große Infoabend am 20.10. um 19.30 im großen zoologischen Hörsaal der Universität, Stephanstraße 24. Unter dem Titel „Schwurbler, Nazis, Scharlatane?“ werfen wir einen unterhaltsamen Rundumblick auf das Gedankengut, das auf rechtsesoterischen Kongressen und Internetseiten so verbreitet wird. Ich stelle Kongresse dieser Art und ein paar der eher realsatirischen Referenten (hatte ich schon erwähnt, dass ich Simon Parkes auf eine gruselig-bizarre Art interessant finde?) kurz vor. Später am Abend werde ich dann auch noch eine Quantenheilung zelebrieren und damit hoffentlich ganz viele Zuhörer heilen – also, vom Glauben an Quantenheilung wenigstens. Die beiden großen Jungs vom Heißluftdampfer machen eine Live-Podcastaufzeichnung über Reichsbürger, bei der auch Experte Oliver Gottwald wieder mit an Bord sein wird. Der Physiker und skeptische Blogger (Nullius in Verba) Sebastian Schmalz, mit dem ich letztes Jahr in Friedberg viel Spaß als Vortragsduo hatte, knöpft sich populäre Mainstreamesoteriker wir Robert Betz und Rüdiger Dahlke vor und erklärt, warum deren Vorstellungen eben nicht sanft und harmlos sind. Der Ingenieur Dr. Norbert Aust, der auch gerne über Homöopathie schreibt, spricht über die angeblich unbegrenzt verfügbare Freie Energie, deren Aushängeschild Klaus Volkamer Gießen auch erspart geblieben ist. Der Gießener Satiriker und Autor Jörg Schneider liest: „So werde ich Nazi – Welcher Extremismus passt zu mir?“. Durch den Abend führt der Musiker und Kolumnist Frank Mignon.

Vielen Dank an alle Beteiligten, die mitgeholfen haben, das Programm auf die Beine zu stellen. Es hat schon im Vorlauf und bei unseren Treffen mit den vielen Leuten aus den ganz unterschiedlichen Parteien und Organisationen einen Riesenspaß gemacht.

Danke auch an Alexander von Alistration, der uns vier von seinen großartigen Comics für unsere Aktionstage zur Verfügung gestellt hat. Hier ist nochmal einer von seiner eigenen Seite:

Tanzende Götter am CERN und die Probleme der Wissenschaftskommunikation

Die Mehrheit der Menschheit hat keine Ahnung von der Bedrohung durch das CERN. Das behauptet zumindest der Verschwörungsblog Oppt-Infos zwischen rechtsextremer Reichsbürger-Idologie, angeblichen Wundermitteln gegen Krebs und Geschwurbel über Gedankenkontrolle durch Funkwellen. Laut der Weltuntergangsseite Dailycrow beschwören CERN-Experimente zur dunklen Materie Erscheinungen dunkler Gestalten herauf, und das CERN hat auch das Erdbeben im April 2015 in Nepal ausgelöst. Der antisemitische Socioecohistory-Blog sieht das CERN kurz vor dem Durchbruch in eine Parallelwelt, in der niemand anders als der Satan persönlich wartet. Die „Wissenschaft“, die der Menschheit den Turm von Babel beschert hat, treibe auch die Forscher am CERN, erklärt eine Seite mit dem bezeichnenden Namen „Now the End Begins“. Natürlich kann auch der widerwärtige Honigmann-Blog da nicht abseits stehen und schreibt vom CERN als „von den Illuminaten und dem Vatikan kontrollierten Raumhafenverstärker und Manipulationsanlage“.

Mitunter argumentieren solche Seiten einfach nur mit absurder Pseudophysik. „We are Anonymous“ erklärt zum Beispiel, die Ableitung von „16 TW“ Strahlenergie des CERN-Beschleunigers LHC hätte möglicherweise eine verheerende Schockwelle durch die Erde bis nach Nepal und so das Erdbeben verursacht. Hintergrund ist offensichtlich eine bizarre Vertauschung von Einheiten. Die Energie zweier kollidierender Teilchen im LHC hat nichts mit 16 Terawatt zu tun (das wäre die Leistung von zehntausend Kernkraftwerken), sondern liegt bei 16 TeV (Teraelektronenvolt). Das klingt nach viel, sind aber in normalen Einheiten gerade 0,0000025 Joule, entsprechend ungefähr der Aufprallenergie einer Biene, die gegen eine Fensterscheibe fliegt. Noch anders ausgedrückt, die Energie von 800 Milliarden LHC-Kollisionen entspricht etwa dem Nährwert eines schmalen Mittagessens. Nun kann ein 27 Kilometer langer Tunnel natürlich ziemlich viele Teilchen enthalten, so dass die Gesamtenergie eines LHC-Strahls dann doch ungefähr die Wucht eines fahrenden Personenzuges hat. Das ist verglichen mit einem Erdbeben aber immer noch sehr, sehr bescheiden.

Ein stetig wiederkehrendes Motiv in der Argumentation dieser Verschwörungspropheten hat das CERN allerdings selbst aufgestellt, nämlich eine zwei Meter hohe Statue des indischen Gottes Shiva als tanzender Zerstörer der Dummheit und Neuerschaffer des Universums. Die Dummheit hat diese Figur ganz offensichtlich nicht zerstört, sondern ihr vielmehr reichlich Futter verschafft. Die Figur steht nicht in einem Bereich, in den regelmäßig größere Besucherströme kommen, aber doch relativ prominent zwischen dem besseren der CERN-Gästehäuser für angereiste Wissenschaftler und dem Bürogebäude der LHC-Experimente. Als Kunst am Bau bereichert sie so ein Ensemble der architektonisch netteren und moderneren Gebäude am CERN – die meisten Verwaltungsbauten dort sehen eher nach 60er-Jahre-Plattenbau aus.

Foto: Wikimedia / Kenneth Lu

Poetisch oder philosophisch angehauchte Physiker inspiriert die Figur gerne einmal zu träumerischen Exkursen, zum Beispiel Aidan Randle-Conde auf dem eigentlich seriösen Quantum-Diaries-Blog. Das ist legitim und verständlich. Die Suche nach den Ursprüngen des Universums und den Vorgängen im Innersten der Materie ist ein Thema, das fast zwangsläufig zur Träumerei und Poesie anregt. Dazu bieten die Experimente am CERN Bilder von einer bizarren und mitunter majestätischen Ästhetik, die einem sonst kaum begegnen. Das Bedürfnis, sich über die rein wissenschaftliche Arbeit hinaus auszudrücken und zu inspirieren, ist unter den tausenden in Genf forschenden Physikern immer da, von AlpineKats höchst lehrreichem LHC-Rap bis zum Arts@CERN-Programm, das unter anderem Stipendien für im Forschungszentrum arbeitende Künstler vergibt. Gerade ein solches Projekt, der Ballettfilm Symmetry, wird aber in Verbindung mit der Shiva-Statue gerne zur Dämonisierung des CERN und der Teilchenforschung insgesamt missbraucht.

SymmetryOccult

Tatsächlich steckt hinter der Shiva-Statue eine spannende Geschichte, in der brilliante Köpfe, Machthunger und unglaubliche Zerstörungskraft eine Rolle spielen. Nur für die Außenkommunikation einer diplomatischen, multinationalen Organisation wie dem CERN ist sie möglicherweise weniger geeignet:

In Deutschland kaum zur Kenntnis genommen, ist Indien eine der großen Wissenschaftsnationen für die moderne Physik. Die Seite thefamouspeople listet zum Beispiel eine Anzahl bedeutender indischer Physiker auf (bizarrerweise mit ihren Sternzeichen): C.V. Raman entdeckte den quantenmechanischen Effekt der Aufnahme und Abgabe von Licht an Molekülen, der unter anderem erklärt, warum Gewässer oder Gletscher blau erscheinen. Satyendra Nath Bose leitete besondere statistische Eigenschaften bestimmter Teilchen her, die unter anderem für das Phänomen der Superfluidität verantwortlich sind (sogenannte Bose-Einstein-Kondensate). Für Boses Artikel darüber bot sich kein anderer als Albert Einstein als Übersetzer ins Deutsche an. Der Nobelpreisträger Subrahmanyan Chandrasekhar untersuchte die Entwicklung von Sternen unterschiedlicher Größe und fand, dass schwarze Löcher nicht nur rechnerische Ergebnisse der allgemeinen Relativitätstheorie sind, sondern tatsächlich als Überbleibsel sehr schwerer Sterne existieren.

Durch den Status als blockfreies Land konnten indische Wissenschaftler sowohl mit westlichen als auch mit sowjetischen Forschungseinrichtungen zusammenarbeiten. Ende des 20. Jahrhunderts war Indien in den großen internationalen Forschungskooperationen der Kern- und Teilchenphysik vertreten. In der Zeit des Internet-Hypes, als den Labors in Europa und den USA IT-kundige Physiker massenweise abgeworben wurden, bot Indien nicht nur hervorragend ausgebildete, sondern auch bezahlbare Fachkräfte.

Im Mai 1998 endeten viele dieser Kooperationen im wahrsten Sinne des Wortes mit einem Knall. Mit der Zündung einer Wasserstoffbombe in der nordindischen Thar-Wüste begann eine Serie von fünf indischen Kernwaffentests, die heftige internationale Reaktionen und zum Teil Handelssanktionen auslösten. Indische Kernphysiker bekamen kaum noch Einreisevisa in die USA, geschweige denn die Möglichkeit, ihre Arbeit an den oft vom US-Verteidigungsministerium geführten amerikanischen Grundlagenforschungszentren fortzusetzen. Das Internet war zwar als Kommunikationsmedium in der Wissenschaft schon gut etabliert, aber ohne persönliche Treffen kann man bis heute kaum produktiv in einer Forschungskooperation mitarbeiten. Ich erinnere mich, dass wir als deutsches Partnerinstitut in München vom New Yorker Brookhaven National Lab aufgefordert wurden, selbst in E-Mail-Kommunikation mit indischen Kollegen darauf zu achten, dass uns nicht eventuell Informationen durchrutschen, die das amerikanische Embargo unterlaufen könnten.

In Europa waren die Reaktionen weniger harsch, und in den Folgejahren wurde das CERN mit seinem besonderen völkerrechtlichen Status zu einem der wichtigsten Zentren, an denen indische Physiker noch international kooperieren konnten. 2002 erhielt Indien neben Russland, Japan und den USA den herausgehobenen Status eines Beobachterlandes am CERN. Inzwischen ist es allerdings von Pakistan überholt worden, das 2015 als drittes nichteuropäisches Land (nach dem Vollmitglied Israel und der Türkei) assoziiertes Mitglied des CERN wurde. Assoziierte Mitglieder haben mehr Mitspracherechte als Beobachter, müssen aber auch regelmäßige Beiträge zahlen. Vor diesem Hintergrund ist es zu sehen, dass das CERN 2004, sechs Jahre nach Beginn der wissenschaftlichen Isolation Indiens und zwei Jahre nach der Aufnahme als Beobachterland, von der indischen Regierung ein Denkmal geschenkt bekam.

Warum dieses Denkmal ausgerechnet die Form einer Shiva-Statue hat, darüber kann man natürlich trefflich spekulieren, aber es drängen sich einige Erklärungen auf, die wenig mit angeblichen spirituellen Bezügen der Teilchenphysik zu tun haben. Zum Einen wird ein Reisender, der zum Beispiel einem indischen Gastgeber eine Geste der Aufmerksamkeit aus good old Germany mitbringen will, mit einer gewissen Wahrscheinlichkeit zu einem Bierseidel oder einer Kuckucksuhr greifen, auch wenn er selbst möglicherweise aus Hannover stammt und wenig Bezug zu dieser Art von süddeutschem Kulturgut hat. Die Bundesregierung würde sich vielleicht für eine Goethe-Statue entscheiden. Wenn man bedenkt, welche Souvenirs deutsche Touristen aus Indien mitbringen, erscheint die Shiva-Statue als eine angemessene Entsprechung. Die Auswahl hat aber auch eine handfeste politische Dimension: Zum Zeitpunkt der Entscheidung über das Geschenk wurde Indien von Premierminister Vajpayee und der Hindu-nationalistischen BJP regiert. Die BJP hatte gerade den Physiker und Koordinator der Kernwaffentests von 1998 Abdul Kalam (selbst ein Moslem) zum Staatspräsidenten gemacht. Die Kernforschung und internationale Kooperation als Elemente des Nationalstolzes gedanklich mit hinduistischer Tradition zu verknüpfen, lag also durchaus im Interesse der Regierenden in Neu Delhi. Die CERN-Leitung konnte auf der anderen Seite die Geber auch nicht düpieren und das großzügige Geschenk in einem der reichlich vorhandenen Abstellräume unterbringen.

Hätte das CERN aber die Möglichkeit gehabt, Missinterpretationen der Statue wie die eingangs genannten Verschwörungstheorien zu vermeiden? Zumindest hätte man schon 2004 deutlicher sagen können, dass es sich bei dem Bronze-Shiva einfach um ein Kunstobjekt und eine politische Geste handelt. Man hätte schon in der ursprünglichen Pressemeldung religiöse Bezüge vermeiden können. Man hätte nicht die Skeptiker-Ikone Carl Sagan mit seinem rein metaphorisch gemeinten Vergleich zwischen dem Tanz Shivas und dem kosmischen Tanz der Teilchen als Repräsentanten pseudoreligiöser Spekulationen heranziehen müssen. Insbesondere wäre es aber hilfreich gewesen, neben der Shiva-Statue nicht auch noch eine „Erläuterungs“-Tafel dazu mit Zitaten des unsäglichen Quantenmystik-Schwurblers Fritjof Capra aufzustellen, was dieser genüsslich zur Selbstdarstellung benutzt. Dann hätte man es sich womöglich erspart, mit ungelenken Erklärungen reagieren zu müssen, nachdem das Kind in den Brunnen gefallen ist.

Ja, Physiker brauchen mitunter die Romantisierung und Überhöhung dessen, woran sie dort arbeiten. Manchmal ist es nötig, den Blick von der Verkabelung seiner Messapparatur und den Programmzeilen seiner Simulationssoftware zu heben und auf das Wunderbare zu richten, das es in der Welt der Teilchen zu entdecken gibt. In der Außenkommunikation ebnet diese Romantisierung aber nur zu oft den Weg zur Dämonisierung der Wissenschaft an sich.

Kein Quark: Schüler weisen Elementarteilchen nach und testen die Relativitätstheorie

Eigentlich geht es hier ja um Esoterik, Bullshit und Spekulatives, die sich als Quantenphysik oder Relativität tarnen, aber auf der Suche danach stößt man ab und zu auf Dinge, die noch viel verblüffender sind, gerade weil sie zur tatsächlichen, seriösen Physik gehören. Wenn diese verblüffenden Dinge von sehr jungen Menschen gemacht werden, die (zumindest noch) keine Physiker sind, dann ist das einfach großartig.

Meine erste Faustregel zum Erkennen von Quantenquark ist ja folgende: Wenn es mit Mitteln unseres Alltags zugänglich ist, hat es sehr wahrscheinlich nichts mit Relativitätstheorie oder Quantenmechanik zu tun. Ab und zu gibt es Ausnahmen, und eine hat vor zwei Jahren Rowina Caspary geschafft, damals Schülerin in der zwölften Klasse eines Dresdner Gymnasiums. Im Rahmen einer „Besonderen Lernleistung“ am Netzwerk Teilchenwelt hat sie einen Detektor für Elementarteilchen aus ganz normalen Materialien gebaut, die man im Supermarkt bekommt. Die so entstandene Nebelkammer gehört zwar zu den ältesten Detektortypen der Teilchenphysik, aber auch zu den beeindruckendsten, weil sie ganz ohne elektronische Geräte die Spur eines Teilchens, das viel kleiner ist als ein einzelnes Atom, mit bloßem Auge sichtbar machen kann. Das sieht dann, bei perfekter Beleuchtung photographiert, so aus:

Das Bild (Quelle: Wikimedia) stammt aus dem Jahr 1929 und zeigt den ersten Nachweis eines Positrons und damit des ersten Antimaterieteilchens, das Paul Dirac erst ein Jahr vorher theoretisch vorhergesagt hatte. Die lange, gekrümmte Spur von links unten nach links oben ist der Weg des Positrons, und die horizontale Platte in der Mitte hat es unterwegs abgebremst, so dass man aus der Krümmung der Spur erkennen kann, dass es von unten nach oben geflogen sein muss.

Nicht nur sichtbar, sondern auch noch hörbar machen kann man Teilchen in einer Funkenkammer, wie man sie in größeren Physikausstellungen zu bewundern ist, zum Beispiel im Microcosm am CERN (jedenfalls vor dem aktuellen Umbau, hoffentlich ist sie noch da). Nur braucht man für so eine Funkenkammer einen Hochspannungsgenerator, jede Menge Edelgase für die Zwischenräume, höchst präzise montierte und isolierte Metallplatten und so weiter. In diesem Video sieht man eine an der Universität Birmingham:

Wie funktioniert aber nun Rowina Casparys wunderbar einfache Nebelkammer? Wie mit allen Spurdetektoren kann man damit nur elektrisch geladene Teilchen nachweisen. Wenn die durch Materie, zum Beispiel durch Luft oder Dampf, hindurchfliegen, reißen ihre elektromagnetischen Kräfte Elektronen aus den Atomen, an denen sie vorbeikommen. Sie hinterlassen also eine Spur von freigesetzten Elektronen und positiv geladenen Atomrümpfen (Ionen), die Sekundenbruchteile brauchen, um sich wieder zusammenzufinden. In dieser Zeit kann man die Spur mit den richtigen Tricks sichtbar machen oder elektronisch nachweisen. In der heutigen Teilchenphysik macht man das meistens, indem man Signale der Elektronen durch Hochspannung verstärkt und elektronisch ausliest. Das geht schnell und lässt sich direkt im Computer weiterverarbeiten.

Viel eleganter geht das in der Nebelkammer: In einem dünnen Alkoholdampf, der gerade heiß genug ist, dass sich noch keine Tropfen niederschlagen, bilden sich die ersten Nebeltröpfchen genau entlang der Spur der vom Teilchen freigesetzten Elektronen, und diese Tröpfchen kann man im richtigen Licht sehen oder mit der Kamera für die Nachwelt festhalten. Um den Dampf genau an diesem Kondensationspunkt zu halten, gibt es zwei Möglichkeiten. In Verbindung mit einer Kamera kann man den Druck in der Kammer mit einem Kolben kurzzeitig verändern und genau in diesem Moment eine Aufnahme machen. Will man dagegen die Spuren mit dem Auge sehen, verwendet man eine Diffusionsnebelkammer, in der sich zwischen einer heißen Ober- und einer kalten Unterseite der Kammer in der Mitte eine Schicht mit gesättigtem Dampf bildet. Normalerweise verwendet man für so eine Diffusionsnebelkammer Heizdrähte, Trockeneis zum Kühlen und für den Dampf Aceton oder wenigstens Isopropanol. Das ist alles teuer, schwer zu bekommen und in Handhabung problematisch, also nicht unbedingt zum Vorführen im Klassenzimmer geeignet. Rowina Caspary hat in ihrer Arbeit gezeigt: Es geht auch mit Wärmflaschen, Kühlkompressen und Brennspiritus. Eine Bauanleitung nebst umfassenden Erläuterungen zu den physikalischen Hintergründen und Bildern von Aufbau und Ergebnissen findet sich in der schriftlichen Ausarbeitung zu den Messungen. Sie ist für jemanden, der noch nicht mal angefangen hat zu studieren, auch noch hervorragend geschrieben und beim Netzwerk Teilchenwelt herunterzuladen.

Mit der Messung von Elementarteilchen ist der Bezug zur Quantenphysik recht offensichtlich, aber ich hatte ja auch noch die Relativitätstheorie versprochen. Die spielt bei der Herkunft der beobachteten Teilchen eine Rolle. Die können einerseits aus radioaktiven Quellen stammen. Da man einzelne Teilchen sichtbar macht, genügen geringe Aktivitäten, zum Beispiel aus Uranglas oder uranhaltigen Natursteinen, die frei verkäuflich sind. Wenn man aber keine Quelle zur Verfügung hat, sind die häufigsten und wegen ihrer schnurgeraden Spuren auffälligsten Teilchen, die man beobachten kann, Myonen aus der kosmischen Strahlung.

Myonen sind sehr kurzlebig und entstehen bei Kollisionen anderer Teilchen, vor allem dann, wenn energiereiche Strahlung aus dem All auf die Atome der Erdatmosphäre trifft. Das passiert typischerweise in großen Höhen von zehn Kilometern und mehr. Weiter unten entstehen Myonen kaum, weil diese Strahlung selten tiefer in die Atmosphäre eindringen kann, ohne schon auf irgendein Atom aus der Luft getroffen zu sein. Deswegen ist man auf Flugreisen auch deutlich stärkerer Strahlung ausgesetzt als am Boden. Die meisten in den Kollisionen produzierten Teilchen werden dann auf ihrem Weg durch die Luft gestoppt. Nur Myonen sind für Elementarteilchen relativ schwer und fliegen daher von der Luft relativ ungestört direkt bis zum Boden weiter. Allerdings haben Myonen nur eine durchschnittliche Lebensdauer von etwa zwei Mikrosekunden. In zwei Mikrosekunden kann ein Teilchen, selbst wenn es fast Lichtgeschwindigkeit hat, nur etwa 600 Meter zurücklegen. Eigentlich hätten also so gut wie keine Myonen aus der Höhenstrahlung bis in Rowina Casparys Nebelkammer gelangen dürfen.

Wie auch oben im Film mit der Funkenkammer zu sehen ist (die geraden Spuren durch die ganze Kammer sind alles Myonen), kommen aber tatsächlich ziemlich viele dieser kurzlebigen Teilchen am Boden an. Möglich ist das nur durch die Relativitätstheorie: Durch ihre hohe Geschwindigkeit nahe an der Lichtgeschwindigkeit vergeht für die Myonen die Zeit langsamer, so dass deutlich weniger zerfallen, bevor sie den Boden erreichen. So liefert die coole, einfache Nebelkammer in Verbindung mit der Lebensdauer von Myonen auch noch einen Test der Relativitätstheorie.

Bleibt abschließend also noch die Frage, woher kennt man die Lebensdauer von langsamen Myonen, wenn sie doch immer nur in hochenergetischen Kollisionen erzeugt werden? Man misst mit einem sehr zeitempfindlichen Detektor, wann ein Myon in ein schweres Material hineinfliegt, in dem es dann abgebremst wird, und ein zweiter Detektor registriert, wann die Strahlung vom Zerfall des Myons aus dem Material herauskommt. Sehr viele Messungen ergeben ein Spektrum der jeweiligen Zeiten bis zum Zerfall und damit die durchschnittliche Lebensdauer. Und auch das hat ein Schüler beim Netzwerk Teilchenwelt nachgemessen, zwar nicht mit einem selbstgebastelten Detektor, sondern mit Geräten der TU Dresden, aber auch mit viel Begeisterung für die Physik, die bei den beiden jungen Forschern hoffentlich noch ein paar Jahre anhält, damit der Physik der Nachwuchs nicht ausgeht.