Ein Unfall in Nordrussland und was Radioaktivitätsmesswerte bedeuten

Als ich meinen letzten Artikel angefangen habe, wollte ich die Geschichte über den Wodka aus Tschernobyl eigentlich nur als kleinen Aufhänger benutzen, um etwas über veröffentlichte Radioaktivitätsmesswerte und den dabei verwendeten Wust von Einheiten zu schreiben. Dann ist doch wieder eine typische Relativer-Quantenquark-Tirade daraus geworden, und die Erklärung der Einheiten wäre am Schluss einfach zu kurz gekommen – also habe ich da einen Folgeartikel angekündigt, den ich auch ganz schnell liefern will. Allerdings sind mir die tagesaktuellen Nachrichten auch da wieder zuvorgekommen: Aktuell häufen sich in den Medien Berichte über eine Freisetzung von radioaktiven Substanzen in Nordwestrussland. Da man das oft nicht so richtig einordnen kann, der Ort des Geschehens in Nyonoska liegt bei der roten Markierung, also ziemlich abgelegen, aber nicht wahnsinnig weit von Finnland entfernt.

Quelle: Openstreetmap, Lizenz: https://opendatacommons.org/licenses/odbl/1.0/

Welche Gefährdung von den in den Artikeln genannten 1,78 bis 2 Mikrosievert gemessener Dosis pro Stunde über einen Tag hin ausgehen sollte, sollte man am Ende dieses Artikels ganz gut einschätzen können. Dass in der Region viel Gemüse aus dem eigenen Garten verzehrt wird, was, wie im letzten Artikel schon erklärt, die Bewertung beeinflussen sollte, halte ich dort für eher unwahrscheinlich. Die Bilder in russischen Medien sehen primär nach einem Großbrand eines ganz normalen Brennstoffs aus, aber wenn in diesem Brand irgendwo radioaktives Material freigesetzt wird, muss man natürlich schon davon ausgehen, dass das mit dem aufsteigenden Rauch einigermaßen großräumig verteilt wird. Videos auf Youtube, die den Vorfall zeigen sollen und eine riesige, ziemlich offensichtlich von konventionellem Brennstoff stammende, schwarze Rauchwolke zeigen, kursieren allerdings, wie Correctiv herausgefunden hat schon seit 2015 im Netz, so dass nähere Informationen weiterhin rar sind. 

Die Annahme derzeit ist, dass die Explosion bei Tests für den experimentellen russischen Flugkörper SSC-X-9 Skyfall (russische Bezeichnung 9M730 Буревестник „Sturmvogel“) ereignet haben dürfte. Das interessante an diesem Flugkörper, der nach amerikanischen Informationen allerdings bislang nur Abstürze produziert hat, ist, dass er über einen nuklearen Antrieb verfügen soll. Mit dem großen Energievorrat soll er nach einem russischen Video in der Lage sein, jedes Ziel auf der Welt im Tiefflug auf beliebigen Umwegen zu erreichen, was eine Abwehr erschweren soll. Das Video besteht allerdings zum größten Teil aus Computeranimationen – die echten Aufnahmen darin zeigen nur die Startphase, in der ziemlich offensichtlich eine konventionelle Feststoffrakete eingesetzt wird:

Als Physiker interessiert mich natürlich, wie so ein Antrieb funktionieren soll – und das müsste man auch wissen, um die Folgen eines Unfalls einschätzen zu können. Da muss ich zum Glück nicht wieder ausufern und mein eigentliches Thema wieder verschieben, denn dieser lange, aber wirklich gute Artikel mit dem Titel „The Best Bad Idea Ever?“ beleuchtet die wichtigsten technischen Aspekte und die Geschichte der Erforschung nuklear getriebener Flugzeuge und Flugkörper – und er erklärt, warum nie ein solches Flugzeug geflogen ist und wohl besser auch nicht sollte. In dem Artikel wird auch deutlich, was gemeint sein dürfte, wenn in diesem Kontext immer wieder mal eine ähnliche Technologie aus den USA erwähnt wird. Donald Trump twittert sogar, diese sei fortschrittlicher als die russische Skyfall, womit er offensichtlich die höhere Einsatzgeschwindigkeit der amerikanischen reaktorbeheizten Project-PlutoStaustrahltriebwerke meint. Dabei fällt in der Regel unter den Tisch, dass diese amerikanischen Versuche vor 55 Jahren aufgegeben wurden…

Entscheidend für die Einschätzung eines Unfalls ist das enthaltene Material. Wenn man davon ausgeht, dass ein typischer Marschflugkörper im geraden Flug (abgeschätzt nach dem amerikanischen Tomahawk) etwa 3000 Newton Schub braucht und ungefähr 250 Meter pro Sekunde (900 km/h) schnell fliegt, dann leistet das Triebwerk etwa 750 Kilowatt. Rechnet man typische Wirkungsgrade dazu, dann müsste der Reaktor ungefähr ein Zehntel der Leistung des Forschungsreaktors München II haben, der durch Verwendung von hoch angereichertem Uran mit 8 kg Brennstoff auskommt. Der Reaktor des Flugkörpers müsste bei ähnlicher Masseneffizienz also ungefähr ein Kilogramm Uran enthalten. Sollte ein solcher Reaktor außer Kontrolle geraten und von seiner eigenen thermischen Leistung zerrissen werden, dann sollte sich das meiner Ansicht nach in der Umgebung durch weitaus mehr Fallout als die gemessenen 2 Mikrosievert pro Stunde äußern. Ich bin jedenfalls gespannt, was wir zu diesem Unfall noch erfahren werden. Im günstigsten Fall beendet er die Entwicklung dieser skurrilen Höllenmaschine, die heutzutage nun wirklich kein Mensch braucht.

Und damit zum eigentlich geplanten Thema, den Einheiten, die einem in Berichten über genau solche Ereignisse begegnen:

Im letzten Artikel habe ich nur die Einheiten Becquerel (Bq) und Sievert (Sv) verwendet, und das sind meines Erachtens auch die einzigen Einheiten zur Radioaktivität, die man in der Kommunikation mit Nichtphysikern verwenden sollte. Ich muss auch selbst jedesmal nachschlagen, wenn mir jemand Messwerte in antiquierten Einheiten wie Curie oder Milliröntgen um die Ohren haut, nur weil er zu faul ist, die Anzeige seines Messgeräts in aussagekräftige, zeitgemäße Einheiten umzurechnen. Becquerel und Sievert sind die einzigen Einheiten, die es sich meines Erachtens lohnt zu merken. Dazu lohnt es sich dann auch, sich ein paar Vergleichswerte zu merken, um Zahlen, die einem irgendwo begegnen, halbwegs einordnen zu können. Was die anderen Messwerte bedeuten und wie man sie umrechnet, möchte ich am Ende dieses Artikels kurz zusammenstellen.

Zunächst einmal muss man sich bei einer Messung zur Radioaktivität fragen, was man überhaupt messen möchte. Grundsätzlich können Radioaktivitätsmessungen Antworten auf drei ganz unterschiedliche Fragen liefern:

  1. Wieviel Radioaktivität ist da überhaupt? Besser wäre noch die Formulierung „wieviel Radioaktivität passiert da“, denn es geht ja schließlich um eine Aktivität. Anzugeben ist also, wie viele radioaktive Zerfälle (Umwandlungen eines Atomkerns in einen anderen unter Aussenden von Strahlung) in einem Material innerhalb eines gewissen Zeitraums passieren. Wählt man als Zeitraum eine Sekunde, dann kommt man genau auf die Einheit Becquerel (Bq), nämlich Zerfälle pro Sekunde. Wenn man nicht eine genau abgegrenzte Strahlenquelle, sondern ein in größerer Menge vorkommendes Material betrachtet, wird häufig die Aktivität pro Menge in Becquerel pro Kilogramm (Bq/kg) angegeben. Nun ist ein Atom in Größenordnungen unseres Alltags sehr klein, und entsprechend klein sind die bei Zerfällen freigesetzten Energiemengen. Beim Zerfall eines Kern des Wasserstoffisotops Tritium (das vor allem im Kühlwasser von Reaktoren entsteht) werden zum Beispiel 0,000000000000003 Joule Energie frei, davon etwa ein Drittel in Form von biologisch relevanter Betastrahlung (der Rest verbleibt im umgewandelten Atomkern oder verschwindet im nicht mehr nachweisbaren Neutrino auf Nimmerwiedersehen). Da man sich unter einem Joule auch nicht so viel vorstellen kann: Ein Joule ist etwa die Fallenergie von einem halben Pfund Butter, das aus 40 cm Höhe auf den Boden klatscht. Wenn man das halbe Pfund Butter hingegen aufisst, hat es einen Nährwert von etwa 8000 Kilojoule, also 8 Millionen Joule. Für eine physikalisch relevante Gesamtaktivität braucht man also schon einiges an Becquerel. Wenn man im Labor mit einer radioaktiven Quelle arbeitet, mit der man vernünftig etwas messen kann, ohne dass man im Umgang damit besondere Schutzausrüstung braucht, dann hat die in der Regel einige Kilobecquerel. Wenn man liest, dass beim Reaktorunfall von Three Mile Island (Harrisburg) 1979 geschätzte 1665 Terabecquerel (also Billionen Bq) Radioaktivität in Form von Gasen freigesetzt wurden, dann klingt das gigantisch. Zur Einordnung muss man sich allerdings klarmachen, dass auch ältere Bestrahlungsanlagen zur Krebstherapie in Krankenhäusern Kobalt-60-Quellen von einigen hundert Terabecquerel enthalten. Was eine Becquerel-Zahl für den Menschen bedeutet, hängt stark davon ab, um welche Art von Strahlung es sich handelt und wo die Zerfälle auftreten, insbesondere ob die Strahlenquelle sich außerhalb oder innerhalb des Körpers befindet und wie lange sie dort verbleibt. Mit dem 2015 in ein Überlaufbecken auf dem Werksgelände ausgetretenen Reaktorkühlwasser im Kraftwerk Temelin mit einer Tritium-Aktivität von 272 Becquerel pro Liter würde ich mir zum Beispiel bedenkenlos die Hände waschen oder auch darin baden. Trinken würde ich es dagegen nur im Notfall – allerdings immer noch lieber als zum Beispiel ungefiltertes Flusswasser. Gelangt radioaktives Material in den Körper, ist die Frage, wie lange es dort wo verbleibt. Bei der Ventilationsszintigraphie zur Untersuchung der Lunge atmet man 400 bis 800 Megabecquerel eines radioaktiven Edelgases ein. Da ein Edelgas mit praktisch nichts chemisch reagiert, wird es aber auch direkt wieder ausgeatmet. Die 55 Becquerel Tritiumaktivität aus einem Glas Temelin-Kühlwasser würden über den normalen Stoffwechsel des Körpers über die nächsten Tage wieder ausgeschieden. Jod-131, ein Produkt der Kernspaltung, ist der wichtigste Problemstoff in den ersten Wochen nach einem Reaktorunfall. Da bei den meisten Mitteleuropäern, die nicht regelmäßig Fisch essen oder mit Jodsalz kochen, der Jodbedarf des Körpers allenfalls knapp gedeckt ist, wird dieses radioaktive Jodisotop vom Körper gut aufgenommen, in der Schilddrüse eingelagert und kaum wieder ausgeschieden, sondern zerfällt mit einer Halbwertszeit von acht Tagen. Daher können auch relativ kleine Becquerel-Zahlen von Jod-131 im kleinen Volumen der Schilddrüse ein erhebliches Krebsrisiko verursachen. So ist der sonst seltene Schilddrüsenkrebs die einzige Krebsart, für die nach Tschernobyl in der allgemeinen Bevölkerung der Anliegerstaaten Ukraine und Weißrussland (außerhalb der an den Aufräumarbeiten beteiligten Liquidatoren) tatsächlich ein Anstieg erkennbar ist. Glücklicherweise ist Schilddrüsenkrebs zwar eine schwere Erkrankung, die erhebliche Einschränkungen der Lebensqualität mit sich bringt, verläuft aber nur in rund einem Zehntel der Fälle tödlich. Die Einlagerung von Jod in der Schilddrüse ist auch der Grund, weshalb man nach Reaktorunfällen bei gefährdeten Personen versucht, durch hochdosierte Jodtabletten ein Überangebot an nicht radioaktivem Jod zu schaffen, so dass ein möglichst großer Anteil des insgesamt verfügbaren (somit auch des radioaktiven) Jods wieder ausgeschieden wird. Radioaktive Problemstoffe, die sich über viele Jahre in den Knochen oder der Leber anreichern, sind die Brennstoffe Uran und Plutonium sowie die Spaltprodukte Cäsium-137 und Strontium-90. Da sie auch über viele Jahre nur zu kleinen Teilen zerfallen, können sich von diesen Stoffen selbst kleine Becquerel-Zahlen mit der Zeit zu erheblichen Belastungen aufsummieren. Das gilt insbesondere, wenn über einen langen Zeitraum die tägliche Nahrung belastet ist, was den im letzten Artikel erwähnten extrem niedrigen Strontium-90-Grenzwert in der Ukraine erklärt. Wegen dieser Unterschiede in der biologischen Relevanz der Aktivität unterschiedlicher Stoffe ist es auch so problematisch, wenn in dem in Fukushima aus den Reaktorruinen gepumpten Sickerwasser neben den rund einer Million Bq/l Tritium auch nach der Entsalzung noch Mengen von jeweils rund 100 Bq/l von anderen Isotopen gefunden werden. Ginge es nur um die insgesamt 760 Terabecquerel Tritiumaktivität des in Fukushima gespeicherten Wassers, dann könnte ich beim besten Willen nicht verstehen, warum man so zögert, diese einfach ins Meer abzuleiten: Tritium ist chemisch einfach Wasserstoff und reichert sich daher nirgends an, und verglichen mit der natürlichen Radioaktivität und selbst mit sonstigen menschlichen Einleitungen in die Weltmeere wäre diese Menge vernachlässigbar. Wenn man es aber tatsächlich nicht schafft, die Verunreinigungen mit radioaktiven Isotopen von Strontium, Cäsium oder anderen Substanzen, die sich in Fischen anreichern könnten, hinreichend gut zu entfernen, wäre das Verdampfen die teurere, aber sicherere Variante, weil diese Stoffe dabei in sehr kompakter Form zurückblieben. Die Aktivität in Becquerel ist also eigentlich nur in Verbindung mit anderen Informationen zur Beurteilung der Gefährlichkeit geeignet. Aussagekräftiger ist schon die folgende Frage:
  2. Welche Strahlendosis wird von einem (lebenden) Material aufgenommen? Hier handelt es sich um eine absorbierte Energiemenge pro Material, gemessen in Joule pro Kilogramm, bezeichnet als die Einheit Gray (Gy). Die Dosis ist keine zeitbezogene Größe, kann sich also über Jahre aufsummieren. Will man die laufende Belastung an einem bestimmten Ort beschreiben, so verwendet man die Dosisleistung in (gegebenenfalls Milli- oder Mikro-) Gray pro Sekunde, Stunde oder Jahr. Geht es um Strahlungsschäden in technischen Geräten, zum Beispiel bei Halbleitern in Teilchendetektoren oder auf Satelliten, ist die Gesamtdosis über die Einsatzdauer die relevante Kennzahl. Bei lebendem Material, also auch in gesundheitlichen Fragen, ist die Situation komplexer. Für das Auftreten von akuter Strahlenkrankheit ist die innerhalb eines Zeitraums weniger Tage aufgenommene Dosis maßgebend. Über das Krebsrisiko und das Auftreten von Mutationen in der nächsten Generation entscheidet nach der bereits im letzten Artikel erwähnten Linearen Hypothese LNT ausschließlich die Gesamtdosis über die bisherige Lebenszeit ohne jegliche Heilungs- und Reparaturchancen. Wer sich mit der Frage beschäftigen will, wie realistisch das ist, dem empfehle ich den schon dort verlinkten Bericht des zuständigen wissenschaftlichen Ausschusses der Vereinten Nationen. Es wird aber, wie so oft in Gesundheitsfragen, noch komplizierter: Alle drei gesundheitlichen Folgen (Strahlenkrankheit, Krebs und Mutationen) entstehen durch Schäden des Erbguts, also der DNA, durch die absorbierte Energie der Strahlung. Die DNA bildet aber einen Doppelstrang, an dem die Erbinformation jeweils spiegelbildlich hinterlegt ist. Entsteht ein Schaden nur an einem Strang der DNA, so haben die zelleigenen Reparaturmechanismen wesentlich bessere Erfolgschancen, als wenn beide gegenüberliegenden Basen beschädigt oder gar beide Stränge durchtrennt sind. Es macht also einen Unterschied, ob die Energie der Strahlung an lauter isolierten Punkten durch das Gewebe verteilt wird oder ob elektrisch geladene Teilchen im Gewebe jeweils eine Spur der Verwüstung hinterlassen. Das führt zu der Frage:
  3. Welcher Schaden entsteht durch die Strahlung in lebendem Gewebe? Diese Frage beantwortet die Äquivalentdosis in der Einheit Sievert (Sv). Sie errechnet sich einfach durch die Strahlungsdosis in Gray multipliziert mit einem Wichtungsfaktor, der sich nach der Art der Strahlung richtet. Für Teilchenstrahlung direkt aus einem Reaktor oder Beschleuniger sind diese Wichtungsfaktoren recht kompliziert, aber bei der Strahlung aus radioaktiven Zerfällen sind sie ganz einfach: Alphastrahlung, also die geladenen Heliumkerne, die nur von sehr schweren Kernen wie Uran oder Plutonium emittiert werden, hat den Wichtungsfaktor 20, sonstige radioaktive Strahlung den Wichtungsfaktor 1. Alphastrahlung kann die menschliche Haut nicht durchdringen und ist nur schädlich, wenn das radioaktive Material in den Körper gelangt. Daher ist für jede Strahlung, die von außen in den Körper hinein wirken kann, der Wichtungsfaktor 1 und damit die Äquivalentdosis in Sievert gleich der Strahlungsdosis in Gray. Neben den Wichtungsfaktoren für die Strahlungsart gibt es Gewebe-Wichtungsfaktoren, die eine Umrechnung zwischen den Äquivalentdosen einzelner Organe und der Ganzkörperdosis ermöglichen sollen. Da die Wichtungsfaktoren erkennbar den Charakter von Abschätzungen haben, hat es offensichtlich wenig Sinn, sich bei Äquivalentdosen Gedanken um die zweite oder dritte von Null abweichende Ziffer zu machen. Daher gibt es auch eine deutlich komplexere Berechnung der Äquivalentdosis nach sogenannten Qualitätsfaktoren, die für Teilchenstrahlung auf dem zu messenden Energieverlust beruhen, wenn man es wirklich genau wissen will. Für die Einschätzung von Risiken ist es aber eher entscheidend, die wievielte Ziffer einer Äquivalentdosis überhaupt von Null abweicht. Auch für die Äquivalentdosis wird häufig die Dosisleistung, zum Beispiel in Mikrosievert pro Stunde, angegeben.

Nachdem also die entscheidenden Fragen gestellt und grob charakterisiert sind, auf die Messwerte antworten sollen, können wir uns jetzt den einzelnen Einheiten zuwenden, die einem in den Medien begegnen können, wenn es um Radioaktivität geht – angefangen mit den beiden, die man tatsächlich kennen sollte und dafür jeweils ein paar Vergleichsgrößen zur Interpretation solcher Werte.

  • Becquerel (Bq): Das Becquerel ist, wie oben erläutert, eine Einheit für die Aktivität und bezeichnet einen Zerfall pro Sekunde. Angegeben sind häufig auch Becquerel pro Menge eines Materials in Kilogramm oder Liter. Die Aktivitäten unterschiedlicher radioaktiver Substanzen sind hinsichtlich ihrer biologischen Relevanz nur bedingt vergleichbar. Ungefähre Vergleichswerte:
      • 130 Bq: Natürliche Aktivität einer Banane.
      • 4000 Bq: Natürliche Aktivität im Körper eines Erwachsenen.
      • 1 GBq = 1.000.000.000 Bq: Größenordnung der Aktivität, die einem Patienten bei der Positronen-Emissions-Tomographie (PET) injiziert wird (Halbwertszeit maximal wenige Stunden).
      • 100 TBq = 100.000.000.000.000 Bq: Größenordnung der Aktivität in einer älteren Strahlungsquelle zur Krebstherapie.
      • 50.000 TBq = 50.000.000.000.000.000 Bq: Freisetzungsschwelle  zur höchsten Unfallstufe der IAEO-Skala für nukleare Ereignisse (Mayak 1957, Tschernobyl 1986, Fukushima 2011).
    • Sievert (Sv): Das Sievert ist eine Einheit für die Äquivalenzdosis, also die nach biologischer Wirkung gewichtete absorbierte Strahlendosis und hat die Dimension Energie pro Masse. Sie ist die beste bekannte Annäherung an den tatsächlich entstandenen Schaden. Im Gegensatz zum Becquerel ist das Sievert eine sehr große Einheit, so dass in der Regel Millisievert (mSv) oder Mikrosievert (μSv) angegeben werden. Ungefähre Vergleichswerte für die Ganzkörperdosis:
      • 50 μSv = 0,05 mSv: Ein Langstreckenflug.
      • 500 μSv/Jahr = 0,5 mSv/Jahr: Variation der natürlichen Radioaktivität zwischen unterschiedlichen Wohnorten in Deutschland.
      • 5 mSv/Jahr: Durchschnittliche Gesamtstrahlenbelastung in Deutschland (ca. 50% natürlich, 50% medizinisch).
      • 1.000 mSv = 1 Sv in kurzer Zeit: Einsetzen der akuten Strahlenkrankheit
      • 7.000 mSv = 7 Sv in kurzer Zeit: 100% tödlich.

Neben diesen beiden Einheiten, die man sinnvollerweise kennen sollte, um Informationen aus den Medien einordnen zu können, begegnen einem dort immer wieder auch andere Einheiten, die man nicht unbedingt kennen muss, deren Bedeutung und Umrechnung man aber bei Bedarf (z.B. hier) nachschlagen kann:

  • Gray (Gy): Das Gray ist wie schon erwähnt die Standardeinheit für die Dosis, also die aufgenommene Strahlungsenergie pro Masse eines Materials, ohne Gewichtung der biologischen Wirksamkeit. Insofern ist sie zwar nicht veraltet, aber für gesundheitliche Fragen eher uninteressant, und die Werte sind häufig identisch mit denen in Sievert. Für Alphastrahlung aus Uran oder Plutonium gilt 1 Gy = 20 Sv, für alle andere Strahlung aus radioaktivem Material 1 Gy = 1 Sv.
  • Rad (rd): Das Rad (radiation absorbed dose) ist eine seit mehr als 40 offiziell nicht mehr verwendete Einheit für die ungewichtete Dosis. Gerade Autoren mit, sagen wir, überschaubarer Sachkompetenz und vor allem aus dem medizinischen Sektor geben jedoch immer noch regelmäßig Messdaten in Rad an. Mitunter finden sich auch in derselben Tabelle, gedankenlos irgendwo abgeschrieben, untereinander Daten in Gray und in Rad ohne die wirklich triviale Umrechnung: 100 rd = 1 Gy; das entspricht 20 Sv für Alphastrahlung oder 1 Sv für sonstige Radioaktivität.
  • Roentgen (R): Das Roentgen ist eine noch antiquiertere Einheit (es stammt aus der Frühzeit der Atomphysik und gilt schon seit 1953 als veraltet) und beschreibt eine Art Strahlungsintensität von Gamma- oder Röntgenstrahlung, die an einem Ort ankommt, gemessen an ihrer Fähigkeit, elektrische Ladungen aus Luftmolekülen herauszulösen. Das Problem dabei ist, dass die Umrechnung von Roentgen in eine Dosis vom Material abhängt, auf die die Strahlung auftrifft. Trotzdem stirbt auch das Roentgen in den Medien irgendwie nicht aus. In weichem Körpergewebe, das bei Strahlenschäden in der Regel interessiert, entsprechen 100 Roentgen knapp einem Sievert.
  • Rem (rem): Mit dem Rem (Roentgen equivalent in man) wird es endgültig wirr, weil sich das Rem, wie aus dem Namen noch hervorgeht, ursprünglich von der Einheit Roentgen herleitete, es dann aber irgendwann als Äquivalentdosis zum Rad umdefiniert wurde. Dennoch erfreut sich das Rem vor allem in den USA bis heute großer Beliebtheit, wo man ja auch sonst der Meinung zu sein scheint, internationale Standardeinheiten machten das Leben zu einfach. Immerhin ist seit der Anlehnung an das Rad die Umrechnung überschaubar: 100 rem = 1 Sv.
  • Curie (Ci): Das Curie ist eine Einheit für die Aktivität, die allen Ernstes 1910 noch unter Mitwirkung von Marie Curie selbst festgelegt wurde, und zwar als die Aktivität von einem Gramm Radium. Es wird seitdem hartnäckig immer noch benutzt, möglicherweise weil 10 Mikrocurie für eine radioaktive Quelle im Labor oder 45 Megacurie für die Jod-131-Freisetzung in Tschernobyl einfach weniger bedrohlich gigantisch klingen als die gleichen Werte in Becquerel. Leider gibt es für die Umrechnung keine einfach zu merkende Faustregel: 1 Curie entsprechen circa 37 Gigabecquerel…

Wodka aus Tschernobyl – und wie wir mit Risiken umgehen

Ich hatte ja schon länger versprochen, nach den vielen Verschwörungsmythen-Themen, Interviewankündigungen und Anmerkungen zu meinen Büchern bald auch wieder mehr Inhaltliches zur Physik zu bieten, und dem will ich heute mal nachkommen und ein bisschen über Radioaktivität schreiben. Um Quantenquark im engeren Sinne geht es dabei nicht, aber Bezüge finden sich doch reichlich. So findet sich auf der Internetseite zur Vermarktung des Lebensfeldstabilisators nach Quantenquark-Altmeister Dieter Broers die absurde Behauptung, nach dem Reaktorunfall von Fukushima könne man Fisch aus dem Nordpazifik ohne Kontrolle durch Geigerzähler nicht mehr essen. In der Hare-Krischna-Postille Tattva Viveka wird erklärt, da der Geist Materie erschaffe (sozusagen das Mantra des Quantenquarks), könne man durch ein „hohes Bewusstsein“ von Radioaktivität unbeeinflusst bleiben.

Insgesamt schreibe ich hier ja über Radioaktivität und vor allem über Kernenergie eher selten, einfach weil es sich um ein hoch emotional aufgeladenes politisches Thema handelt, bei dem sich Positionen, wie immer in der Politik, nicht nur nach wissenschaftlichen Fakten, sondern eben auch nach persönlichen Wertvorstellungen richten: Ich möchte schlicht keine wissenschaftlich interessierten Leser abschrecken, nur weil sie zur Energiepolitik andere Auffassungen haben als ich. An der Uni hatten wir einen Dozenten, der es mit seinem Sendungsbewusstsein geschafft hat, seine anfangs gut besuchte Vorlesung „Physik und Technologie der nichtkonventionellen Energiegewinnung“ in wenigen Wochen bis auf zwei verbliebene Hörer leerzulesen. Falls sich jemand für meine Meinung dazu interessiert, das Umfallen der CDU nach Fukushima war einer der Hauptgründe, warum ich nach mehr als  24 Jahren Mitgliedschaft aus der Partei ausgetreten bin. Inzwischen bin ich Gründungsmitglied bei Ökomoderne e.V.. Damit bin ich mit dem Thema für diesen Artikel auch durch und werde mich im Folgenden auf Hintergrundwissen beschränken, bei dem es genügend Missverständnisse gibt, dass es sich lohnt, darauf einzugehen.

Was mich jetzt wieder auf das Thema gebracht hat, waren Berichte, dass Professor Jim Smith von der Universität Portsmouth beabsichtigt, einen Wodka namens Atomik aus Getreide zu vermarkten, das in der Sperrzone von Tschernobyl angebaut wurde. Den Prototypen bezeichnet Smith als „die wichtigste Flasche Schnaps der Welt“. Web.de generierte daraus die (inzwischen offenbar geänderte) Schlagzeile „Wodka aus Tschernobyl ist trotz Radioaktivität keine Gefahr für die Gesundheit“, und auch der Spiegel textete: „Der Atomik-Wodka soll harmlos sein“. Mein erster Gedanke war: „Hey, gut für die Ukraine und gut für die Menschen in der Gegend, wenn sich da wirtschaftlich etwas tut. Wenn ich denn überhaupt Alkohol trinken würde, wäre das doch was für mich.“ Mein zweiter Gedanke war: „Moment – Wodka ist keine Gefahr für die Gesundheit?“ Und der dritte: „Wie radioaktiv ist dieses Getreide eigentlich?“ Und genau das war in den deutschen Medien dazu nicht zu lesen.

Zunächst einmal: Warum funktioniert das überhaupt, dass Wodka aus radioaktivem Getreide nicht radioaktiv ist? Normalerweise werden Lebensmittel aus radioaktiv belasteten Rohstoffen ja eher nicht zum Verzehr empfohlen. Dazu muss man sich zunächst einmal ansehen, was da eigentlich radioaktiv ist. Die Radioaktivität, die nach einem Reaktorunfall außerhalb des unmittelbaren Reaktorumfeldes (das auch mit dem schweren und daher wenig mobilen Plutonium kontaminiert sein kann) noch nach mehreren Jahren gemessen wird, stammt fast ausschließlich von den Metallen Cäsium-137 und Strontium-90. Beide sind chemisch von normalem, für den Menschen völlig unschädlichen, Cäsium und Strontium nicht unterscheidbar und liegen im Boden und den darauf wachsenden Pflanzen in Form von Salzen, zum Teil auch in komplexeren Molekülen wie Metalloproteinen, vor. Bei der Wodkaherstellung wird die im Getreide enthaltene Stärke zu Zucker gemaischt, anschließend zu Alkohol vergoren und destilliert. Bei der Destillation wird die Flüssigkeit auf unter 100°C erhitzt, so dass der Alkohol verdampft, das Wasser aber nicht. Aus dem verdampften und separat kondensierten Alkohol entsteht dann der Wodka. Salze und Metalloproteine verdampfen bei solchen niedrigen Temperaturen natürlich nicht, bleiben also mit dem Wasser zurück. Beim Wodka wird das Destillat zudem besonders gründlich gefiltert, um andere leicht verdampfende Bestandteile wie Aromate aus dem Alkohol herauszuholen. Was aus dem Getreide im Wodka landet, ist also tatsächlich nur der besonders reine Alkohol. Alkohol besteht aber eben chemisch nur aus Kohlenstoff-, Wasserstoff- und Sauerstoffatomen, alles kleine Atomkerne, von denen es kaum radioaktive Isotope gibt (Isotope sind Varianten eines Atomkerns mit unterschiedlicher Zahl von Neutronen darin), und sie entstehen auch nicht in Reaktoren als Produkte der Kernspaltung. Radioaktiv wäre beim Kohlenstoff lediglich Kohlenstoff-14, der natürlicherweise in immer gleicher Menge in der hohen Atmosphäre entsteht und daher zur Altersdatierung archäologischer Fundstücke verwendet werden kann. Im Kühlwasser von Kernreaktoren entsteht auch das radioaktive Wasserstoffisotop Tritium, das sich, falls es freigesetzt wird, aber nicht irgendwo niederschlägt oder anreichert, sondern sich mit dem Wasserkreislauf verteilt und in den Unmengen Wasser auf der Erde im Vergleich zu natürlicher Radioaktivität schlicht verschwindet. Der Alkohol kann also rein chemisch keine radioaktiven Substanzen aus dem Reaktorunfall enthalten. Dementsprechend berichten auch die Portsmouther Forscher, sie hätten im Vodka lediglich den schon erwähnten Kohlenstoff-14 gefunden. Der Wodka wäre also tatsächlich kein bisschen radioaktiver als jeder andere Wodka (und jedes andere Lebensmittel außer reinem Wasser) durch den natürlicherweise enthaltenen Kohlenstoff-14 zwangsläufig auch. Wie sieht es nun aber mit dem Getreide aus?

Laut der Pressemeldung der Universität Portsmouth ist der Grund, warum dieses Getreide nicht einfach so gegessen werden darf, dass die Aktivität durch Strontium-90 „leicht“ über dem ukrainischen Grenzwert von 20 Bq/kg (Becquerel pro Kilogramm) liegt. Was 20 Bequerel und diverse andere Messgrößen zur Radioaktivität physikalisch bedeuten wird – versprochen – schon in den nächsten Tagen ein Thema eines Folgeartikels sein, sonst wird das hier wieder viel zu lang. Zu einer ersten Einordnung können aber ein paar Vergleiche dienen. Ein beliebter Vergleich für die Radioaktivität von Lebensmitteln sind Bananen. Bananen sind reich an Kalium, und alles Kalium auf der Welt enthält noch von der Entstehung der Erde her einen Anteil des langlebigen radioaktiven Isotops Kalium-40. Die Kalium-40-Aktivität von Bananen liegt bei rund 130 Bq/kg. Biologisch betrachtet hinkt der Vergleich allerdings, weil überschüssiges Kalium vom Körper schnell wieder ausgeschieden wird.  Der Kaliumgehalt im menschlichen Körper führt allerdings auch bei normalem Kaliumgleichgewicht schon zu einer Aktivität von rund 50 Bq/kg Körpergewicht. Strontium, das einmal in den Blutkreislauf gelangt ist, kann dagegen anstelle von Calcium in Knochen eingebaut werden und dort sehr langfristig verbleiben. Allerdings wird auch nur ein sehr kleiner Teil des in der Nahrung enthaltenen Strontiums im Darm überhaupt aufgenommen. Die Interpretation solcher Werte ist also kompliziert. In Deutschland gibt es einen laufenden Grenzwert für Strontium-90 in Lebensmitteln nicht, weil dieses Radioisotop in hier produzierter Nahrung aktuell schlicht keine Rolle spielt. In Notstandssituationen läge er allerdings bei 750 Bq/kg, und in den Monaten nach dem Unfall von Fukushima galt dieser Wert auch für Importe aus Japan. In der Schweiz gibt es einen „Toleranzwert“ von 1 Bq/kg, über dem man anfangen würde, nach Ursachen für eine solche unerwartete Kontamination zu suchen – im Katastrophenfall und für Importe gilt aber auch dort der Grenzwert von 750 Bq/kg. Der extreme Unterschied der Grenzwerte erklärt sich sehr einfach daher, dass man in der Ukraine davon ausgehen muss, dass jemand, der Getreide aus dem Umland von Tschernobyl verzehrt, das dauerhaft tut, während man in Deutschland eben nur sehr gelegentlich importierte Lebensmittel aus einem solchen Notstandsgebiet essen würde.

Das Festlegen solcher Grenzwerte ist schwierig, weil sich, anders als bei vielen Giften, für radioaktive Spurenstoffe keine Schwelle festlegen lässt, unterhalb derer sie mit Sicherheit vollkommen unschädlich sind. Angesichts der vielen Faktoren, die das Entstehen einer Krebserkrankung beeinflussen können, lässt sich eine minimale Erhöhung des Erkrankungsrisikos für die meisten Krebsarten kaum von der normalen Schwankungsbreite unterscheiden. Mangels belastbarer besserer Informationen geht man im Strahlenschutz bis heute von der linearen Hypothese (linear no threshold model, LNT) aus, nach der ein Tausendstel der über das Natürliche hinausgehenden Strahlendosis, der hochbelastete Hiroshima-Opfer ausgesetzt waren, genau zu einem Tausendstel von deren über das Natürliche hinausgehendem Krebsrisiko führen sollte – und zwar unabhängig davon, ob man dieser Dosis innerhalb eines Tages oder über Jahre verteilt ausgesetzt ist. Dieser Ansatz ist umstritten und die Datenlage fragwürdig, die Daten geben aber auch keine klaren Indizien für andere plausible Formen eines Zusammenhangs her, zum Beispiel für einen Schwellenwert, unter dem Strahlenschäden im Erbgut größtenteils repariert werden könnten und damit harmlos wären. Grenzwerte sind somit immer eine Abwägung dazwischen, entweder minimale und möglicherweise nur auf dem Papier existierende Risiken weiter zu  minimieren oder wertvolle Lebensmittel zu vernichten oder gar Menschen den Belastungen einer Evakuierung auszusetzen. Eine objektiv richtige Antwort gibt es dabei nicht. Eindeutig falsch wäre es nur, wenn durch eine Evakuierung mehr Menschen zu Schaden kämen als selbst bei der extrem pessimistischen linearen Hypothese durch die Strahlung zu erwarten wären – und zumindest im Fall von Fukushima deutet einiges genau darauf hin. Auch mindestens die Hälfte der 30-Kilometer-Sperrzone von Tschernobyl ist heutzutage – wenn überhaupt – nur noch durch die Sorge zu rechtfertigen, dort wieder lebende Bürger könnten regelmäßig Produkte aus ihrem eigenen Garten verzehren: Die Strahlung, der Menschen von außen ausgesetzt sind, ist dort mit bis zu 0,12 Mikrosievert pro Stunde (auch die Erklärung dazu kommt im nächsten Artikel) nicht höher als von Natur aus in großen Teilen des Schwarzwaldes oder des Bayerischen Waldes, wo sich niemand Gedanken darüber macht, weil Menschen dort schon seit Jahrtausenden damit leben. So ist es auch nicht sonderlich überraschend, dass das erste halblegal in der Sperrzone geborene und aufgewachsene Kind diesen Sommer angefangen hat zu studieren. Ich ärgere mich übrigens bis heute maßlos, dass ich bei einem Ukraine-Urlaub 2011 die Gelegenheit ausgelassen habe, eine Tour durch die damals gerade für Besucher eröffnete Sperrzone zu buchen. Übertriebene Angst vor Strahlung beeinträchtigt also nicht nur die Lebensqualität, sie kann zu schädlichen, im schlimmsten Fall tödlichen, Fehlabwägungen führen.

Womit wir wieder beim Wodka wären. Die 0,7 Liter Wodka in der angeblich wichtigsten Schnapsflasche der Welt enthalten 280 Milliliter reinen Alkohol, für deren Herstellung ungefähr 800 Gramm Getreide verbraucht werden – und man muss sich ernsthaft die Frage stellen, ob das Getreide mit seinen knapp über 16 Becquerel Strontium tatsächlich gefährlicher ist als die 280 Milliliter Alkohol. Für den Unfall von Tschernobyl insgesamt errechnet die Weltgesundheitsorganisation basierend auf der pessimistischen linearen Hypothese knapp 10.000 Todesfälle in der Ukraine und Weißrussland durch direke Strahlenschäden und spätere Krebserkrankungen. Im Vergleich dazu sterben laut Kiewer Statistikamt jedes Jahr 40.000 Menschen in der Ukraine an den direkten Folgen ihres Alkoholkonsums. Nun kann man argumentieren, dass es sich dabei überwiegend um Fälle extremen oder dauernden Alkoholmissbrauchs gehandelt haben dürfte, und bei der Flasche Wodka ist ja nicht vorausgesetzt, dass man sie alleine an einem Tag konsumieren muss. Ob mäßiger Alkoholkonsum ebenfalls schädlich ist, ist durchaus umstritten, und es wird argumentiert, er könne sogar gesundheitsfördernd sein – exakt das liest man allerdings auch über kleine Dosen radioaktiver Strahlung.

Auch wenn ich selbst Alkohol allenfalls sehr selten und nur in kleinen Mengen als Geschmacksträger konsumiere (gute Weine finde ich einfach zu interessant, um sie nicht wenigstens mal zu probieren): Es liegt mir fern, jemandem einen gelegentlichen Wodka-Martini, vielleicht auch mal einen mäßigen Rausch, ausreden zu wollen, der daraus Genuss und Lebensqualität zieht. Die Forderung, ein langes Leben mit Freudlosigkeit zu erkaufen, darf man ruhig mit der Frage „Wozu eigentlich?“ erwidern. Man sollte nur nicht an alltägliche und an weniger vertraute Risiken völlig unterschiedliche Maßstäbe anlegen. Und wenn man mir ganz persönlich den Atomik-Wodka anbieten würde, muss ich sagen, da würde ich dann genau dieses Getreide doch lieber als Brot zu mir nehmen.

5G-Mobilfunk und die Party der Verschwörungs-Schwurbler

Ich sag’s gleich vorweg: Das wird mal wieder lang – aber wenn man zu dem Thema fundiert etwas sagen will, kommt man an ein paar Hintergründen nicht vorbei, und der Artikel ist durchaus auch mal zum späteren Nachlesen und zum Weitergeben an verunsicherte oder sonstwie besorgte Zeitgenossen gedacht. So richtig viel Fundiertes gibt es zu dem Thema ja noch nicht, auch wenn ich gerade sehe, dass mir der sehr geschätzte Physikerkollege Florian Aigner mit einem Artikel um ein paar Stunden zuvorgekommen ist, den ich als Ergänzung und etwas kürzere Zusammenfassung ebenfalls empfehle.

Panikmache auf rechtsesoterischen Verschwörungsseiten

Wenn man auf Youtube das Stichwort „5G Strahlung“ in die Suchfunktion eingibt, kann man gleich unter den ersten Suchergebnissen den Eindruck gewinnen, der zukünftige 5G-Mobilfunkstandard brächte eine Form von Killerstrahlung mit sich, die in der Lage sein müsste, ganze Landstriche zu entvölkern.

„WARNUNG vor 5G !!!!!!!!!!!!!!!!!!!!!Wollen sie uns Kochen??Strahlung im Microwellenbereich!!!“ ist dort zu lesen, „Dringender Weckruf: 5G ist Gefahr für Leib und Leben!“ sowie „5G=Globaler „MIKROWELLEN- HERD“ OHNE ENTRINNEN- Alle 200m ein Sender!“. „5G kommt! Verstrahlt im Namen der NWO!“[neue Weltordnung] titelt ein selbsternannter „Freund der Wahrheit“ in seinem Videokanal, und gleich der erste Kommentator erklärt darunter: „Das 5G ist ein Mikrowellenwaffensystem. Diese Strahlen werden uns geistig und körperlich völlig zerstören.“

Der überwiegende Teil der Youtube-Kanäle, die diese Videos und Schlagzeilen verbreiten, gehört zu dem üblichen, sich regelmäßig gegenseitig referenzierenden Netzwerk von Seiten, die für Verschwörungsmythen, rechte Propaganda, antisemitische Anfeindungen gegen jüdische Unternehmer, Hetze gegen Flüchtlinge sowie Werbung für abstruse Pseudomedizin bekannt sind. Eine ganze Reihe von 5G-Videos dieser Art kommt von Ivo Saseks Klagemauer.tv. Darin findet sich auch das in diversen Videos dieser Art verbreitete Märchen, bei einem 5G-Test (den es dort gar nicht gab) seien in Den Haag tote Vögel vom Himmel gefallen. In anderen Videos solidarisiert sich der Kanal mit Rechtsextremen, erklärt gemäß klassisch antisemitischem Verschwörungsdenken den Kommunismus zum Ziehkind der „Hochfinanz“ (wobei im Zielpublikum jedem klar sein dürfte, dass damit die Juden gemeint sind) und den islamistischen Anschlag von Straßburg zu einer Inszenierung der französischen Regierung. Die Flüchtlingskrise ist für Klagemauer.tv eine vom jüdischen Unternehmer George Soros eingefädelte „Verschwörungstatsache“. Sasek, der selbst in der Schweiz schon wegen Holocaustleugnung und Rassendiskriminierung angeklagt war, hatte 2012 auf seiner Antizensurkonferenz Sylvia Stolz, der ehemaligen Anwältin der Holocaustleugner Ernst Zündel und Horst Mahler, einen Vortrag ermöglicht, den er anschließend sichtlich gerührt bejubelte. Für eben diesen Auftritt ist Sylvia Stolz inzwischen selbst in Deutschland wegen Holocaustleugnung zu einer Haftstrafe ohne Bewährung verurteilt worden.

Auf bewusst.tv agitiert gegen 5G der dortige Stammmoderator Jo Conrad, der auch schon als Veranstalter von Reichsbürgerkonferenzen in Erscheinung getreten ist. Selbstverständlich darf auch der ehemalige Greenpeace-Aktivist Werner Altnickel nicht fehlen, der sonst inzwischen lieber über Chemtrails fabuliert, Reichsbürgerideologie verbreitet und stolz darauf zu sein scheint, wenn er zur rechten Szene gezählt wird:

In einigen Fällen ist der Hintergrund der Panikmache klar, wenn zum Beispiel unter der Schlagzeile „Angriff auf unsere Zirbeldryse durch Fluorid & 5G Strahlung!“ Enrico Edinger, der sich inzwischen als Prof.* Dr. nauk* Dr. med. bezeichnet, für den Kauf windiger Nahrungsergänzungsmittel wirbt. Im gleichen Video erklärt Edinger übrigens auch: „Elektroautos sind Mord für den Menschen. Also, auch von der Tumorbildung her.“

Besonders bizarr ist ein Video des Kanals mit dem vertrauenerweckenden Namen Extremnews. Es trägt den Titel „Medienwissenschaftler: Warum 5G hochgefährlich ist“.  Inwiefern die Medienwissenschaft, die die Massenkommunikation aus geistes- und kulturwissenschaftlicher Perspektive untersucht, jemanden dazu befähigen soll, Aussagen über die medizinische Wirkung elektromagnetischer Wellen zu machen, erschließt sich mir nicht. Lustig wird es, wenn man bemerkt, dass der angekündigte Medienwissenschaftler niemand anders ist als Harald Kautz-Vella. Kautz-Vellas abstruse Phantastereien hat selbst der bereits erwähnte Werner Altnickel in einem Interview schon mit den Worten kommentiert: „Wenn unsere Gegner das zitieren, stehen wir vielleicht insgesamt als Idioten da.“ Im Bemühen, in Esoterik und Verschwörungsglauben irgendwie wahrgenommen zu werden, treibt Kautz-Vella alle paar Jahre eine neue Sau durchs Dorf. Der goldene Aluhut hat ein paar witzige Zitate aus der Zeit zusammengetragen, als Kautz-Vella sich primär über die vermeintliche Hautkrankheit Morgellons positionierte – bei der es sich in Wirklichkeit meist um eine Wahnvorstellung handelt. Mein Lieblings-Kautzvellismus ist allerdings Black Goo, ein schwarzes Wunderöl, das von Außerirdischen auf die Erde gebracht worden sein und eine eigene Intelligenz und ein Bewusstsein haben soll.

Wenn das Thema in diesem Umfeld von Antisemitismus, Pseudomedizin und Verschwörungshetze bliebe, müsste man sich möglicherweise nicht so sehr aufregen. Bedauerlicherweise schwappt es von dort immer wieder in die Mainstreammedien herüber, und zwar in erschreckend ähnlichem Tonfall, und häufig auch mit ähnlicher Faktenbasis.

Die gleiche Panikmache in Mainstreammedien

„Strahlendes Experiment“ überschreibt die Zeit einen Artikel, in dem die entscheidende Aussage über Mobilfunk irgendwo im Kleingedruckten untergeht: „Hunderte Studien konnten bisher nicht nachweisen, dass eine Gesundheitsgefahr von diesen elektromagnetischen Feldern (EMF) ausgeht.“ Die angeblich noch unbekannten Risiken, mit denen laut Zeit an der Bevölkerung experimentiert wird, finden sich fast identisch in der Rede des AfD-Abgeordneten Peter Felser am 4. April 2019 im Bundestag: „Uns muss doch klar sein, dass wir noch überhaupt keine Langzeitrisiken dieser Technologien abschätzen können. Wir sind mit diesen Funkstrahlen in einem riesigen Feldexperiment.“ Der Tagesspiegel folgt eher dem Tonfall der Online-Verschwörungshetzer als dem der AfD und behauptet: „Europas Regierungen ignorieren die Gefahr.“ Wie die Zeit verlinkt auch der Tagesspiegel eine der typischen Unterschriftslisten von Elektrosmoggegnern und bezeichnet die Unterzeichner der Einfachheit halber als Wissenschaftler. Ein genauerer Blick auf die beiden Listen zeigt die zum Teil identischen üblichen Verdächtigen aus der Elektrosmogszene, Hausärzte, Naturheiler, Homöopathen und Mitglieder selbsternannter „Kompetenzinitiativen“. Die von der Zeit verlinkte Liste ist neben der Redakteurin des „ElektrosmogReport“ und Harald Walach, dem Erfinder der „schwachen Quantentheorie“ auch vom Quantenesoteriker Ulrich Warnke unterschrieben, zu dem ich einiges in der Neuauflage des Quantenquark-Buchs geschrieben habe. Auf beiden Listen als Wissenschaftler aufgeführt ist Florian M. König, der lustige Elektrosmog-Schutzprodukte zum Einbau in die Stromleitung verhökert und sich dabei auf wissenschaftliche Kapazitäten wie den angeblichen Reichsflugscheibenentwickler Viktor Schauberger und den Orgon-Phantasten Wilhelm Reich beruft.

Der Sender rbb schreibt gleich Forscher fordern Abbruch des 5G-Testlaufs in Berlin.“ Der Link des rbb über die Forderung  der „Forscher“ führt auf das Elektrosmog-Gläubigen-Portal „diagnose:funk“, wo dann die nächste Unterschriftenliste angeblicher Wissenschaftler verlinkt ist. Die hier wenigen deutschen Unterzeichner kennt man überwiegend schon von den beiden anderen Listen – König und Warnke sind auch wieder mit von der Partie. Der wichtigste Experte des rbb-Artikels ist Franz Adlkofer, der mit der Aussage zitiert wird, Mobilfunkstrahlung sei „mit hoher Wahrscheinlichkeit gesundheitsschädlich“. Der frühere Lobbyist für die Tabakindustrie Adlkofer war um 2000 herum Koordinator einer Studie, die Mobilfunk mit Krebs in Verbindung brachte und die nach einer Serie von Datenfälschungsskandalen inzwischen völlig diskreditiert ist. Der rbb erwähnt Adlkofers fragwürdige Vergangenheit nicht, sondern schreibt über ihn nur, er untersuche „seit Jahren, wie sich Mobilfunkstrahlen auf die Gesundheit der Menschen auswirken.“ Außer beim rbb ist Adlkofer gern gesehener Gast beim Verschwörungsmythenkanal KenFM und beim offiziellen Propagandaportal der russischen Regierung RT Deutsch.

Grundlegendes zur Wirkung elektromagnetischer Wellen

Nun kann sich eine mehr oder weniger wissenschaftliche These ihre Anhänger ja nicht aussuchen, und es wäre im Prinzip denkbar, dass die Mobilfunkstrahlung  wenigstens der neuen 5G-Technik doch irgendwie gefährlich ist, trotz der fragwürdigen Vertreter, die diese Gefährlichkeit behaupten. Wie plausibel ist eine solche Schädlichkeit also aus physikalischer Sicht? Werfen wir dazu erst einmal einen Blick darauf, wie elektromagnetische Wellen überhaupt auf biologisches Material wirken können. Dass das je nach der Wellenlänge unterschiedlich ist, hängt tatsächlich mal mit der Quantenphysik zusammen. Wer im Quantenquark-Buch das Kapitel zur Entstehung der Quantenmechanik gelesen hat, hat daher für die folgenden Absätze schon einmal einen kleinen Vorsprung.

Nach dem 1900 entdeckten Planckschen Strahlungsgesetz bestehen Wellen aus winzigen Energiepaketen, die als Quanten oder, im konkreten Fall elektromagnetischer Wellen, als Photonen bezeichnet werden. Je höher die Frequenz, mit der die Welle schwingt, je kürzer also die Wellenlänge, desto größer ist die Energie des einzelnen Photons. Mit Einsteins Berechnung des Photoeffekts aus dem Jahr 1905 ist auch klar, dass ein solchen Photon seine Energie immer auf genau ein geladenes Teilchen (also ein Elektron oder ein Proton) überträgt, mit dem es zusammentrifft. Dasselbe Elektron wird danach in der Regel nicht noch ein zweites Photon derselben Energie absorbieren. Es ist also ein entscheidender Unterschied, ob eine Energiemenge in einem Photon oder auf mehrere Photonen verteilt übertragen wird.

Ionisierende Strahlung

Reicht die Energiemenge eines Photons aus, um ein Elektron vollständig aus seinem Atom, Molekül oder Kristallgitter herauszuschleudern, dann bleibt der Rest des Atoms oder Moleküls als positiv geladenes Ion übrig. Man spricht dann von ionisierender Strahlung. Dabei können auch ansonsten sehr stabile chemische Bindungen zerstört werden. Passiert das im Erbgut einer lebenden Zelle, dann kann das mit sehr geringer Wahrscheinlichkeit (meistens ist die beschädigte Stelle im Erbgut für die Zelle gar nicht relevant, oder sie ist lebenswichtig und die Zelle stirbt einfach) dazu führen, dass die Zelle sich unkontrolliert vermehrt und einen Tumor bildet. Daher kann ionisierende Strahlung Krebs auslösen oder bei der Fortpflanzung zu vermehrten Mutationen in der nächsten Generation führen. Da sich ein Tumor aus einer einzelnen Zelle entwickeln kann, kann wenigstens theoretisch jedes einzelne ionisierende Photon tödlich sein, wenn die körpereigenen Reparaturmechnismen versagen. Ionisierende Strahlung kann also tödlich sein, ohne dass man sie überhaupt bemerkt. Elektromagnetische Wellen sind ionisierend, wenn ihre Wellenlänge kürzer ist als die von sichtbarem Licht. Ionisierend und damit potentiell krebsauslösend sind also ultraviolettes Licht, Röntgenstrahlung und Gammastrahlung.

Das sichtbare Licht zusammen mit dem nahen Infrarot bildet eine Art Übergangsbereich: Es kann Elektronen nicht mehr aus einem Atom herauslösen, sie aber in angeregte Zustände versetzen und somit auch gewisse chemische Reaktionen auslösen – dadurch kann auch unser Auge das Licht wahrnehmen. Die Energie der Photonen des sichtbaren Lichts reicht aber schon nicht mehr aus, um stabile chemische Bindungen wie in der DNA unseres Erbguts zu verändern. Daher ist es auch nicht krebserregend.

Mikro- und Radiowellen

Bei noch größeren Wellenlängen, wie dem fernen Infrarot, den Mikrowellen und den Radiowellen, wird die Energie der einzelnen Photonen so klein, dass diese Quanten vollkommen bedeutungslos werden und die Welle nur noch als Ganzes messbare Energien übertragen kann. Die Energie kann daher nicht mehr auf einzelne Atome übertragen werden, so dass auch keine einzelnen chemischen Bindungen zerstört werden und die Wellen somit keinen Krebs auslösen können.

Schaden anrichten können solche Wellen dennoch, allerdings auf ganz andere Art: Nicht einzelne Photonen, sondern die Welle als ganzes kann elektrische Ladungen, auch innerhalb von großen Molekülen, in Schwingung versetzen. Die Schwingungen äußern sich dann im betreffenden Material als Wärme. In biologischem Material funktioniert das am stärksten in dem Frequenzbereich, in dem Wassermoleküle besonders gut schwingen, und genau dieser Effekt wird im Mikrowellenherd ausgenutzt. Im Prinzip passiert aber genau das gleiche (bei jeweils unterschiedlichen Eindringtiefen ins Material) über den gesamten Frequenzbereich vom Infrarot bis zu den Radiowellen. Werden Körperteile eines lebenden Organismus in dieser Form schneller erhitzt, als die Wärme zum Beispiel über den Blutkreislauf verteilt und aus dem Körper abgegeben werden kann, kann das zu Schäden bis hin zu Verbrennungen oder dem Tod führen. Das kann aber logischerweise kaum unbemerkt passieren, weil wir Temperaturveränderungen spüren. Ebenso kann eine geringfügige Erwärmung auch bei regelmäßiger Wiederholung nicht zu Schäden führen, weil der Körper seine Temperatur ohnehin ständig regeln muss, ob Wärme nun durch elektromagnetische Wellen, durch Wärmeleitung oder durch Verdunstung und Kondensation zugeführt oder abgegeben wird. Die Grenzwerte für Strahlungsintensitäten in diesem Frequenzbereich richten sich daher danach, dass eine eventuell ausgelöste Erwärmung von Körperteilen oder des ganzen Körpers keinen Schaden anrichten darf.

Niederfrequente Wechselfelder

Bei noch niedrigeren Frequenzen, die sich kaum noch sinnvoll als Wellenlänge ausdrücken lassen, spielt dann auch die Erwärmung keine Rolle mehr. Stattdessen führen solche niederfrequenten Wechselfelder in biologischem Material zu elektrischen Strömen. Bekanntermaßen können elektrische Ströme dem Menschen schaden. Allerdings sind dazu Stromstärken erforderlich, die weit über die Schwelle hinausgehen, bei der man die Ströme schon deutlich spüren kann. Solche Wechselfelder begegnen uns praktisch nur durch die 50-Hertz-Wechselspannung unseres Stromnetzes. Wenn man bei Regen unter einer Hochspannungsleitung läuft, kann es vorkommen, dass man die vom Wechselfeld der Leitung verursachten Ströme als Kribbeln wahrnimmt. Bei solchen Frequenzen richten sich die Grenzwerte für zulässige Feldstärken daher am Auftreten solcher unangenehmer Wahrnehmungen, auch wenn noch weitaus größere Intensitäten auftreten müssten, um echte Gesundheitsschäden auslösen zu können.

Nobelpreise, die offenbar niemand abholen will

Die genannten Effekte, Schwingung/Erwärmung und induzierte Ströme, sind die einzigen, die sich auf Basis der bekannten Physik und Chemie für nicht ionisierende elektromagnetische Wellen in biologischem Material ableiten lassen. Die unter anderem von Warnke verbreitete Vorstellung, die DNA des Erbguts könnte von Mikrowellen so stark zum Schwingen gebracht werden, dass sie durchreißt, ergibt physikalisch auch keinen Sinn. Eine solche Schwingung wäre wieder nichts weiter als eine Erwärmung, und DNA ist weitaus hitzebeständiger als die meisten Eiweiße, die sie umgeben. Bevor eine Zelle durch ein von Mikrowellen verursachtes Zerreißen der DNA zur Tumorzelle werden könnte, wäre sie gargekocht und damit tot. Wer behauptet, durch Mikrowellen oder andere nicht ionisierende elektromagnetische Wellen könnten gesundheitliche Schäden anders als durch Überhitzung entstehen, müsste also zunächst einmal einen Wirkmechanismus erklären. Da dieser im Rahmen der Physik nicht existiert, wäre dafür bei entsprechendem Nachweis nicht nur der ohnehin fällige Nobelpreis für Medizin zu bekommen, sondern gleich auch noch einer für Physik. Bislang gibt es dafür keine Kandidaten, zumal die Vertreter der Elektrosmogszene in der Regel lieber panische Schlagzeilen verbreiten, als sich Gedanken darüber zu machen, wie die von ihnen behaupteten Gefahren eigentlich zustande kommen sollen.

Was genau ist eigentlich 5G

„5G“ bezeichnet zunächst einmal einfach die fünfte Generation mobiler Internetverbindungen. Die erste Generation wäre dabei die Datenübertragung über eine analoge mobile Sprechverbindung. Zur zweiten Generation gehören GPRS und EDGE, auf die Nutzer bei schlechter Verbindung heute noch öfters zurückgeworfen sind. Die dritte Generation mit UMTS, löste bei seiner Einführung den ersten großen mobile-Datenverbindungs-Hype aus und spülte in Deutschland im Jahr 2000 über die Versteigerung der Lizenzen zig Milliarden in die Kassen des Bundes. Die vierte Generation entspricht in Deutschland weitgehend dem seit 2010 eingesetzen LTE. Verändert haben sich zwischen den Generationen vor allem die Übertragungsprotokolle und die Art, wie Verbindungen auf nahe beieinanderliegende Frequenzen verteilt werden. Entsprechend haben sich auch die Antennen geringfügig verändert. An der grundlegenden Struktur der Netze hat sich vor allem beim letzten Schritt von UMTS zu LTE wenig verändert.  Mit jeder neuen Generation haben sich aber die erreichbaren Datenraten vervielfacht, und das soll auch in der fünften Generation passieren.

Nun würde eine neue Generation von Übertragungsprotokollen auf ähnlichen Frequenzen wie bisher in einem weitgehend bestehenden Netz wahrscheinlich selbst hartgesottene Elektrosmog-Geschäftemacher kaum noch in Wallung bringen. Durch die Hintertür bringt 5G allerdings einige interessante technische Veränderungen mit sich, denn wenn der neue Standard überhaupt spürbare Vorteile bringen soll, muss eine ganz neue Nachfrage nach Datenübertragung entstehen.

Für heutige Smartphones ist die Datenübertragungsrate von LTE nämlich für alle praktischen Zwecke ziemlich ausreichend. Die höchsten Übertragungsraten, die die meisten User mit ihren Smartphones tatsächlich brauchen, fallen für das Streaming von hochauflösenden Videos an. Dafür braucht man 5G nicht, so dass Nutzer kaum bereit sind, für noch höhere Datenraten auch mehr zu bezahlen. Viele private Nutzer haben ohnehin Tarife, bei denen das monatliche Gesamtvolumen so begrenzt ist, dass Streaming für sie bestenfalls kurzzeitig in Frage kommt. Sie bezahlen also nicht einmal für die vollen Möglichkeiten der heutigen Technik.

Wollen die Anbieter mit ihrem neuen Standard also tatsächlich zusätzliche Einnahmen generieren – und das müssen sie, um dessen Einführung finanzieren zu können – dann muss durch neue Anwendungen ein neuer Bedarf entstehen. Erwartet wird dieser Bedarf vor allem durch das „Internet der Dinge“, also dadurch, dass immer mehr technische Geräte, die nicht primär der Kommunikation dienen, Daten versenden. Das Vorzeigebeispiel ist meist der Kühlschrank, der selbstständig die zur Neige gehenden Vorräte nachbestellt. Tatsächlich sind, wenn man die Kosten in den Griff bekommt, eine Unzahl von Anwendungen denkbar: Maschinen in Fabriken, die ihre Funktion an die Konzernzentrale melden, landwirtschaftliche Geräte, die beim Ernten schon die Mengen in der Mühle anmelden, Frachtstücke und Kühlbehälter, die ihren eigenen Transport überwachen, das Smart Home, das automatisch lüftet und heizt, wenn sich die Bewohner aus dem Urlaub nähern, Arzneimittel, die sich aus dem Arzneischrank melden, wenn ihr Verfallsdatum naht… Gerade die vielen Effizienzgewinne, die sich hier abzeichnen, lassen erwarten, dass private und geschäftliche Kunden bereit sein werden, dafür angemessen zu bezahlen. Die meisten dieser Geräte brauchen für sich genommen keine riesigen Datenraten, aber in der Summe sollte die übertragene Datenmenge dramatisch ansteigen.

Was aber vor allem ansteigt, ist die Anzahl der Endgeräte und damit der Verbindungen, und jede dieser Verbindungen braucht vereinfacht gesagt im Moment der Datenübertragung eine eigene Frequenz, auf der ein Gerät mit einer Basisstation kommunizieren kann, ohne dass ein anderes Gerät innerhalb der Reichweite auf derselben Frequenz dazwischenquakt. Das ist nur durch neue Übertragungsprotokolle nicht zu erreichen. Wenn 5G und das Internet der Dinge den Nutzen bringen sollen, den man sich von ihnen erwartet, brauchen sie deutlich mehr Frequenzen und deutlich mehr Basisstationen.

Arbeitet 5G auf ganz neuen Frequenzen?

Im Bereich der aktuell für den Mobilfunk genutzten Frequenzen zwischen 700 und 2600 MHz wird es allerdings langsam eng. Schon für UMTS und LTE hatte die Bundesnetzagentur zusätzliche Frequenzen freischaufeln müssen, die vorher teils dem Militär, teils dem DVB-T-Fernsehen vorbehalten waren. Im Frequenzplan sieht man, viel dürfte in diesem Bereich nicht mehr zu holen sein. Ein paar kleine Fenster könnte die Bundeswehr vielleicht noch abgeben, und ein paar könnte man effizienter nutzen, indem man die alten Mobilfunknetze abschaltet und die Frequenzen für 5G recyclet – aber dann würden natürlich auch die letzten noch verwendeten Nokia-Knochen nicht mehr funktionieren.

Für die ganz hohen Datenraten kann man physikalisch mit der Frequenz auch nicht sehr weit nach unten gehen: Übertragen werden die Daten ja über Veränderungen eines Funksignals. Damit die Frequenz dieses Signals überhaupt noch erkannt werden kann, muss die Frequenz, mit der es sich ändert (und damit die Bitrate der Datenübertragung), logischerweise deutlich kleiner sein. Daher lassen sich über höhere Sendefrequenzen mehr Daten übertragen. Gleichzeitig werden die Reichweite in unserer realen Umwelt, die Fähigkeit, Wände zu durchdringen oder sich um Hindernisse herumzukrümmen, mit höherer Frequenz immer schlechter. Auch die heutige Sende- und Empfangstechnik hat zu sehr hohen Frequenzen hin ihre Grenzen. Für die nächsten Jahre sind für 5G also neben Lücken bei 2000 MHz zunächst einmal Frequenzen zwischen 3400 und 3700 MHz vorgesehen.

Ist das die gefürchtete Mikrowellenstrahlung und die Nutzung dieser Frequenzen das „strahlende Experiment“, von dem die Zeit schreibt? Wohl kaum. Der angesprochene Bereich liegt genau zwischen den Frequenzen, die wir wir von heutigem Mobilfunk, von DECT, Bluetooth und dem unteren WLAN-Frequenzband kennen und dem oberen WLAN-Frequenzband bei 5000 MHz, von dem Sie mit hoher Wahrscheinlichkeit in ihrer Wohnung und an vielen Arbeitsplätzen umgeben sind. Neu und unbekannt ist diese Art von Strahlung also keineswegs. Natürlich handelt es sich um Mikrowellen – genau wie bei praktisch allen schnellen, drahtlosen Datenverbindungen, mit denen wir täglich zu tun haben.

Längerfristig ist aber auch absehbar, dass bei sehr vielen neuen Geräten mit Internetanbindung in einem kleinen Gebiet auch diese Frequenzen irgendwann nicht mehr ausreichen dürften. Höhere Frequenzen sind zunächst einmal durch Satellitenkommunikation, auch Satellitenfernsehen, sowie Radargeräte belegt, gefolgt von einem Bereich, in dem die Wellen vom Wasserdampf in der Atmosphäre stark absorbiert werden, so dass die Reichweiten extrem kurz und wetterabhängig würden. Wahrscheinlich geeignetere und noch wenig genutzte Frequenzen fände man wieder zwischen 25.000 und 35.000 MHz (25-35 GHz). Genaue Frequenzen sind dort noch nicht festgelegt, und die technische Machbarkeit wird noch erprobt. Das ist also so oder so Zukunftsmusik und hat mit dem 5G, das ab 2020 allmählich in Betrieb gehen soll, wenig zu tun. Klar ist nur, wenn sehr viele neue Geräte kommen, wird man irgendwann Frequenzen in diesem Bereich nutzen müssen. Aktuell arbeiten dort zum Beispiel Satellitenfunk und spezielle Radargeräte wie Abstandsmesser für autonomes Fahren oder manche Radarfallen. Da wir im Alltag bislang noch eher wenigen Sendern in diesem Bereich begegnen, kann man sich theoretisch schädigende Wirkungen zusammenphantasieren, die noch nicht aufgefallen sein könnten, falls sie selten genug aufträten.  Auch hier wäre aber ein Nobelpreis für Physik fällig, denn nach den Gesetzen der Physik ist auch in diesem Bereich, immer noch weit unter dem Infrarot und noch weiter unterhalb des sichtbaren Lichts und der ionisierenden Strahlung, die einzige Wirkung auf biologisches Material eine Erwärmung.

Einen biologischen Unterschied gibt es allerdings tatsächlich: Die kürzeren Wellen bei diesen Frequenzen geben beim Auftreffen auf den Körper ihre Energie nicht über mehrere Zentimeter Weglänge im Gewebe ab, sondern direkt in der obersten Hautschicht. Der Körper würde also nicht wie durch heutigen Mobilfunk im Gewebe erwärmt, sondern direkt auf der Haut. Die würde sich vor allem bei schlechter Durchblutung möglicherweise schneller aufheizen. Das klingt beunruhigend, aber tatsächlich hätte es einen entscheidenden Vorteil: Auf der Haut haben wir anders als tief im Gewebe Nervenenden, die Wärme wahrnehmen. Eine Annäherung an einen zu starken Sender würde man also viel schneller als heiß empfinden und könnte sich in Sicherheit bringen. Der Effekt würde einem Infrarot-Heizstrahler ähneln, der allerdings bei noch viel höheren Frequenzen strahlt.

Alle 200 Meter ein Sendemast?

Bei den für einen späteren Ausbau vorgesehenen Frequenzen ab 25 GHz ist die Reichweite durch Hindernisse und Absorption in der Luft erheblich geringer als bei heutigem Mobilfunk. Für die Flächenabdeckung ist das natürlich ein Nachteil, aber in Gebieten mit hoher Nutzerdichte eher vorteilhaft, weil man dieselbe Frequenz an einem anderen Sendemast schon in überschaubarem Abstand wieder verwenden kann. Die kurze Reichweite führt also dazu, dass man nicht absurd viele zusätzliche Frequenzen braucht. Sie erfordert aber natürlich tatsächlich deutlich mehr Sendestationen. In gewisser Weise verschwimmt damit in Innenstädten durch 5G der Unterschied zwischen Mobilfunk und öffentlichem WLAN. Die kürzere Reichweite bedeutet natürlich auch, dass die Strahlen-„Belastung“ auf der einzelnen Frequenz trotz mehr Sendestationen im Durchschnitt nicht ansteigt. Man braucht ja einfach nur genug Leistung, dass das Gerät kommunizieren kann. Die insgesamt eingestrahlte Leistung über alle Frequenzen steigt also nur in dem Umfang, wie mehr Geräte eben mehr Frequenzen brauchen.

Die kürzere Reichweite bei den sehr hohen Frequenzen, in Verbindung mit der populistischen Forderung mancher Politiker nach „5G an jeder Milchkanne“ dürfte zu der irrsinnigen Vorstellung geführt haben, ganz Deutschland würde mit Sendemasten im Abstand von 200 Metern zugepflastert. Hohe Dichten an Sendern wird es da geben, so sich viele Menschen aufhalten und sich damit auch viele Geräte ins Netz einwählen werden, also zum Beispiel in Frankfurt auf der Zeil oder in München rund um den Marienplatz. Auch Industriegebiete könnten eine hohe Senderdichte brauchen, wenn dort viele technische Geräte einen Internetzugang bekommen.

Auf dem Land sind die Kapazitäten der heutigen Mobilfunknetze hingegen nicht annähernd ausgelastet, und daran wird sich bei 5G auch dann nichts ändern, wenn alle Traktoren eine Internetanbindung haben und Forsthäuser zu Smart Homes werden. Wollte man die Flächenabdeckung des heutigen Mobilfunks erreichen, dann bräuchte man wegen der dort schon geringeren Reichweite allerdings schon bei den aktuell vorgesehenen Frequenzen von 3400 MHz in gewissem Umfang mehr Sendemasten als heute, die dann zum größten Teil nur zu winzigen Bruchteilen ausgelastet wären. Dass das nicht zu bezahlen wäre, ist offensichtlich auch den Fachleuten in den Ministerien klar, denn die Forderung nach hoher Flächenabdeckung, die es noch in den ersten LTE-Lizenzvergaben gab, kommt in den aktuellen 5G-Lizenzen nicht mehr vor. Will man die heutige Flächenabdeckung mit 5G erreichen, wird es sich kaum vermeiden lassen, heutige 2G- und UMTS-Frequenzen abzuschalten und auf den 5G-Standard zu übertragen – außer, man könnte doch noch niedrigere Frequenzen um 700 MHz freimachen. In diesen Fällen hätte man aber weder mehr Sendemasten noch eine „Belastung“ durch ungewohnte Frequenzen.

Was ändert sich also durch 5G?

Gesundheitlich ändert sich in der Summe nicht viel – in ländlichen Regionen eigentlich gar nichts. In den Innenstädten wird durch die potentiell große Dichte internetfähiger Geräte die Zahl jeweils aktiver Verbindungen und damit die insgesamt gesendete Leistung in gewissem Umfang ansteigen. Dort werden vermutlich auch neue Frequenzen auftauchen, bei denen die Wirkung auf den Körper tatsächlich anders ist, aber nur insofern, als der Körper dann auf der Haut erwärmt wird und nicht mehr unter der Haut.

Was bleibt, sind diffuse Ängste vor einer (einigermaßen) neuen Technologie, geschürt vom Sensationsjournalismus der selbsternannten Qualitätsmedien, die sich zum Steigbügelhalter von Verschwörungsmythen und antisemitischer Hetze machen.

 

 

Skeptisch ist man nicht allein

Das Verschwörungsmythen-Buch ist da! Die Kiste mit den ersten Exemplaren kam am letzten Wochenende bei mir an, und eigentlich wollte ich dazu nicht schon wieder einen Artikel schreiben, denn das soll hier ja nicht zur reinen Werbeseite verkommen.

Leider habe ich aber bei der Ankündigung des Buchs etwas sehr Wichtiges vergessen – nämlich mich zu bedanken. Dabei geht es in erster Linie um zwei von mir sehr geschätzte Menschen und tolle Experten, die ganz maßgeblich zu dem Buch beigetragen haben – sie haben nämlich jeweils praktisch ein komplettes Unterkapitel geschrieben. Dazu aber gleich mehr.

Zu den Büchern haben nämlich noch viel mehr Menschen beigetragen, und manche wussten es, manche aber auch nicht. Zunächst einmal braucht man für ein Buch, wenn man es professionell angehen will, natürlich einen Verlag. Bei meinen Büchern kam sogar die Initiative, sie zu schreiben, von den Verlagen, Springer und Hirzel. Bei „Relativer Quantenquark“ hatte ich im Schreibprozess viel Unterstützung durch Lisa Edelhäuser von Springer, die nicht nur vom Schreiben her, sondern mit ihrem fachlichen Hintergrund in der Quantenfeldtheorie auch inhaltlich viel betragen konnte und mich von mancher voreiligen Aussage abgehalten hat. Hinzu kam aus dem privaten Umfeld die unschätzbare Hilfe von Stephanie Dreyfürst mit ihrer langjährigen Erfahrung in akademischer Schreibdidaktik und Schreibforschung. Für mein erstes Buch war das genau richtig. Bei „Verschwörungsmythen“ hat mir Angela Meder, meine Ansprechpartnerin bei Hirzel, deutlich mehr Freiheiten gelassen – und ich muss sagen, das war jetzt auch genau richtig.

Nicht unterschätzen darf man aber vor allem die Bedeutung des skeptischen Umfeldes im Zustandekommen der Bücher. Am sichtbarsten ist das noch bei den Photos. Beim Quantenquark-Buch brauchte ich zur Geschichte der Relativitätstheorie ein Bild der Jupitermonde, wie sie durch die Teleskope des 17. Jahrhunderts ausgesehen haben könnten: Oliver Debus konnte genau das liefern. Bei „Verschwörungsmythen“ hatte ich in der Hinsicht gleich mehrere unkomplizierte Helfer. Für das Kapitel über die Flacherdler brauchte ich ein Schiff, das hinter dem Horizont verschwindet, und Mark Bailey stimmte sofort zu, dass ich seine gerade auf Facebook veröffentlichte Serie verwenden konnte. Martin Schmidt, mein Mitstreiter in einem Vortrag zu Chemtrails, lieferte zum entsprechenden Kapitel ein Bild von einem Himmel voller Kondensstreifen über Frankfurt-Höchst. Als ich für das gleiche Kapitel schließlich noch ein Photo von einem Halo um die Sonne suchte, bekam ich nach einem Aufruf auf der Facebookseite des Blogs buchstäblich Dutzende von spektakulären Aufnahmen angeboten. Die passendste, auch von Aufnahmezeitpunkt und -ort her, war schließlich eine von Jan Keilholz.

Gar nicht einzeln anzusprechen sind die vielen Anregungen, Inspirationen, Fragen, Hintergrundinformationen und Ideen, die ich aus dem skeptischen Umfeld aufnehmen konnte. Manche kamen bei den monatlichen Treffen der Frankfurter Regionalgruppe, andere nach Vorträgen, auf der SkepKon, bei Hoaxilla (ich freue mich auf das Neuschwabenlandbuch, das ich so gerne schon zum Zitieren gehabt hätte), im Skeptiker, auf Facebook oder auf Twitter, aber auch international bei der Euroscepticscon, bei Ratio in Bulgarien oder bei den vielfältigen Aktivitäten der britischen Skeptiker. In Deutschland spielt immer wieder die GWUP eine zentrale Rolle, ohne die ich mich kaum jemals so intensiv mit diesen Themen beschäftigt hätte, während vor allem die Briten weitaus weniger zentral organisiert sind. Offensichtlich haben es die Briten einfach nicht so mit dem Dazugehören…

Aber jetzt endlich zu meinen beiden Gastautoren:

Wenn man ein Buch über Verschwörungsglauben schreiben will, kommt man meines Erachtens nicht daran vorbei, wenigstens am Rande auf die Frage einzugehen, warum Menschen so etwas glauben, und was das am Ende für uns bedeutet. Dazu kann ich natürlich Theorien und Ergebnisse wiedergeben, die Andere veröffentlicht haben – und über die Jahre habe ich einige davon gehört und gelesen und mit Wissenschaftlern gesprochen, die aus unterschiedlichsten Blickwinkeln zu Verschwörungsglauben forschen. Ich kann aber nicht jemanden ersetzen, der selbst jahrelang zu diesem Thema geforscht hat, der immer wieder in den direkten Kontakt zu Menschen getreten ist, die an die unterschiedlichsten seltsamen Dinge glauben, der sogar Dr. Axel Stoll interviewt hat… Es ist schon einige Jahre her, dass ich auf einer SkepKon (die damals noch nicht SkepKon hieß) unter vielleicht 100 Zuhörern saß (größer waren die damals nicht) und einem jungen Psychologen zuhörte, der über die ersten Zwischenergebnisse aus seinem Promotionsprojekt über Verschwörungsglauben berichtete. Und falls sich jetzt jemand fragt, warum ich diese Geschichte aus dem Gipskrieg erzähle: Während ich den Vortrag hörte, noch bevor wir ein Wort gewechselt hatten, dachte ich mir: Mit dem müsste ich ein Buch zusammen schreiben. Wir haben das dann später versucht, und es ist nie etwas daraus geworden. Ich hatte keine Ahnung, wie man Verlage anspricht; er hatte zig andere Projekte; wir waren beide mit unserer Selbstständigkeit beschäftigt; er wurde Vater, ich geschieden… Als irgendwann der Hirzel-Verlag mit einer sehr ähnlichen Idee auf mich zukam, habe ich Sebastian Bartoschek erst einmal gefragt, ob er nicht als Koautor mitmachen will. Letztlich passte auch das nicht, also haben wir das wenigstens in kleinen Stückchen nachgeholt: Ich habe ein paar Fußnoten zu „Muss man wissen!: Ein Interview mit Dr. Axel Stoll“ und ein paar O-Töne im gleichnamigen Film beigetragen, und nun hat Sebastian also in meinem Buch die für mich immer etwas sperrige Frage beantwortet: „Warum wollen wir an Verschwörungen glauben?“.

Ein zweites Thema, das für mich sperrig war, kam im Zusammenhang mit dem Kapitel zu den Chemtrails. Wegen Behauptungen, Flugzeugkondensstreifen seien in Wirklichkeit Gifte, die mit finsteren Absichten über uns versprüht werden, habe ich 2005 erstmals angefangen, mich mit Verschwörungsmythen zu beschäftigen, ungefähr zu dem Zeitpunkt, als das Thema erstmals in deutschsprachigen Medien auftauchte. Ein Stichwort, das mir dabei über die Jahre immer wieder begegnet ist, sind Morgellons: Die Vorstellung, dass Menschen durch Chemtrails oder ähnliche Belastungen Fasern unter der Haut wachsen, die merkwürdigerweise außer ihnen selbst niemand erkennt. Wie erklärt man aber als Physiker jemandem, der sich als krank empfindet, dass ihm körperlich sehr wahrscheinlich nichts, auf jeden Fall nicht das Vermutete, fehlt? Damit müsste sich ein Mediziner befassen, idealerweise jemand, der auch Erfahrung mit psychisch bedingten Erkrankungen hat. Es müsste jemand sein, bei dem glaubhaft ist, dass er die Beschwerden der Betroffenen ernst nimmt, auch wenn er erklären muss, dass die Ursachen nicht die vermuteten und sehr wahrscheinlich gar nicht organischer Natur sind. Am besten wäre jemand, der auch einem Saal voller Skeptiker erklären kann, dass große Mehrzahl der „verrückten“ Esoteriker alles andere als verrückt ist, sondern möglicherweise geistig gesünder als wir Skeptiker. Und idealerweise sollte ihm die Entwicklung unserer Gesellschaft am Herzen liegen und die Bedrohung für ihren Zusammenhalt durch Extremismus und Verschwörungsdenken bewusst sein. Wenn Jan Oude-Aost auf meine Anfrage nicht zugesagt hätte, wäre es sehr schwer geworden, diese Lücke zu füllen. Hat er aber, und ich bin stolz auch auf diesen wunderbaren Gastbeitrag.

Und jetzt, wo die überfälligen Danksagungen geschrieben sind, kann ich mich im nächsten Post wieder den Blogthemen zuwenden, die hier über die letzten Wochen schon wieder liegengeblieben sind.

Die „Medizin“ der Verschwörungsgläubigen und was ich sonst noch an Kommentaren bekomme

„This work reveals some sort of poetic mood and everyone would easily be attracted by it“, beginnt ein (nicht öffentlich freigegebener) Kommentar zu einem meiner letzten Artikel. Unschwer zu erkennen handelt es sich bei dieser englischsprachigen Eloge auf die Poesie in meinem deutschsprachigen Artikel um automatisch generierten Kommentarspam. Das Ziel ist offensichtlich, eine Rückverlinkung und damit ein besseres Google-Ranking für eine vietnamesische Sportwettenseite zu generieren. Es gibt automatische Tools, die solchen Unfug verhindern sollen, und wenn deren Vereinbarkeit mit unserem grandiosen europäischen „Datenschutz“-Recht endgültig geklärt ist, kann ich es mir auch wieder ersparen, das alles manuell auszusortieren. Aber zum Glück bekomme ich ja auch ernsthafte Kommentare – bitte, nutzen Sie die Möglichkeit; dafür ist die Kommentarfunktion unter den Artikeln da!

Im Prinzip war ja schon der „Was-wir-wissen“-Artikel eine Art zusammengefasster Antwort auf Kommentare, die ich teils hier, teils an anderen Stellen zu meinen Beiträgen über Pseudophysiker bekommen habe. In den Kommentaren kommt es gelegentlich vor, dass jemand antirealistische Philosophie oder religiöse Ideologien verbreiten will, über die man nicht sinnbringend diskutieren kann, aber im Allgemeinen ist das Diskussionsniveau bei solchen Themen recht hoch. Versuche, mich zu überzeugen, dass die Arbeit von tausenden theoretischen Physikern über die letzten 40 Jahre grundsätzlich falsch sei, sind einerseits sinnlos, weil niemand etwas davon hat, mich zu überzeugen. Ich bin ja selbst kein theoretischer Physiker und seit Jahren nicht mehr in der Forschung; ich erkläre hier nur.  Andererseits tauchen darin immer wieder spannende Fragen auf, bei denen ich selbst etwas lerne. Mit Abstand die meisten echten Kommentare bekomme ich hier aber zu einem Artikel, der nur am Rand mit Physik, vor allem aber mit gefährlicher, unsinniger „Medizin“ zu tun hat, nämlich dem über Karl Probst. Dabei wurde jetzt schon zweimal gemutmaßt, ich würde diesen Probst heimlich beneiden… äh… ich weiß gar nicht, was ich dazu… am besten wohl nichts.

Ich habe es dort bereits in den Kommentaren geschrieben, aber ich gebe auch an dieser Stelle nochmal den Hinweis, dass ich hier keine Kommentare freischalten werde, die selbstschädigendes Verhalten ankündigen oder dazu auffordern, ganz egal, ob es sich um eine direkte Suizidankündigung handeln sollte, um die Aufforderung, giftige Substanzen wie Chlorbleiche oder Terpentin zu sich zu nehmen oder um die Überlegung, lebenswichtige Medikamente wie Insulin abzusetzen.

In den Diskussionen zu Artikeln dieser Art habe ich ein Problem: Ich bin kein Arzt. Das hat nichts mit medizinischem Fachwissen zu tun. Bei den medizinischen Themen, auf die ich hier eingehe, genügen Schulkenntnisse in den Naturwissenschaften in Verbindung mit leicht nachlesbaren Fakten und ein wenig gesundem Menschenverstand, um zu erkennen, dass die „alternativmedizinischen“ Behauptungen, die ich kritisiere, hanebüchener Unsinn sind. Mein Problem ist vielmehr: Von den Menschen, die auf derlei Pseudomedizin hereinfallen, ist ein beträchtlicher Teil aufgrund schwerer oder chronischer Erkrankungen, manchmal aber auch nur wegen des eigenen Alterns und der eigenen Sterblichkeit in einem psychisch schwierigen Zustand. Das führt dazu, dass sie sich eine Welt von Verschwörungsbehauptungen aufschwätzen lassen,  ihre Schulkenntnisse vergessen, ihren gesunden Menschenverstand ausschalten und nur noch dort nachlesen, wo die Verschwörungsgläubigen unter sich bleiben. Wenn sie sich dann doch einmal auf wissenschaftlich-kritische Seiten wie diese verlaufen, hinterlassen sie gelegentlich Kommentare, die schwer sinnvoll zu beantworten und zum Teil schon beim Lesen schwer zu ertragen sind. Für den Umgang mit solchen verzweifelten Menschen bin ich weder ausgebildet, noch habe ich Praxiserfahrung darin.

So könnte man die Frage stellen (und natürlich habe ich mir die auch schon selbst oft genug gestellt), ob ich diese Themen dann nicht lieber Ärzten überlassen sollte, die auf solche Probleme wesentlich besser vorbereitet sein müssten. Inzwischen gibt es zum Glück doch einige im wissenschaftlich-skeptischen Umfeld engagierte, praxiserfahrene Ärzte, die ich sehr bewundere, von der entwaffnend menschlichen Natalie Grams über den scharfzüngig-spöttischen Twitter-Agitator Christian Lübbers bis zu Wolfgang Vahle, Jan Oude-Aost und Benedikt Matenaer.  Gerade die haben aber häufig schon genug mit Massenphänomenen wie Homöopathie, Impfverweigerung, Diffamierung der Organspende oder Akupunktur zu tun. Für die weniger verbreiteten, aber für kranke Menschen um so gefährlicheren Lehren wie Germanische Neue Medizin, MMS oder eben das auch von Probst propagierte Trinken von Petroleum bleibt da oft schlicht keine Zeit. Um die Nähe dieser Gedankenwelten zur Verschwörungsideologie- und Reichsbürgerszene angemessen zu beleuchten, ist es zudem hilfreich, sich damit auch schon einmal beschäftigt zu haben. Damit gibt es große Überschneidungen zu einem meiner Hauptthemen neben dem Quantenquark.

Ich komme an dem Thema also letztlich nicht vorbei. Um mich dabei nicht immer wieder mit den zum Teil erschütternden Aussagen von Befürwortern, die gleichzeitig Opfer sind, auseinandersetzen zu müssen, möchte ich beispielhaft und anonymisiert auf einige typische Argumentationsmuster eingehen. Sie finden sich in erschreckender Dichte im folgenden Screenshot aus einer einschlägigen Facebookgruppe, der auf der verschwörungstheoriekritischen (und auf polemisch-satirische Art sehr unterhaltsamen) Facebookseite „Die lockere Schraube“ öffentlich gemacht wurde. Es geht darin offensichtlich um Empfehlungen für eine an Brustkrebs erkrankte Frau:

In dieser kurzen Abfolge von Kommentaren findet sich ein großer Teil dessen, was in ganz ähnlicher Form überall die Kommentarspalten zum Thema Verschwörungstheorie-Medizin füllt. Daher lohnt es sich, die Behauptungen einfach mal von oben nach unten durchzugehen.

  • Das Wundermittel aus der Natur. In diesem Fall werden bittere Aprikosenkerne erwähnt, deren Inhaltsstoff Amygdalin auch unter dem Phantasienamen „Vitamin B17“ ebenfalls gegen Krebs vermarktet wird. Der gleiche Stoff kommt in niedriger Konzentration zum Beispiel auch in Apfelkernen vor, aber bittere Aprikosenkerne können noch mehr Amygdalin enthalten als Bittermandeln. Bei der Verdauung von Amygdalin (teils auch schon in den Kernen selbst) setzt die Substanz Cyanide frei, die hochgiftigen Salze der Blausäure. Das Bundesamt für Arzneimittel und Medizinprodukte (BfArM) erklärt, belegt durch mehrere wissenschaftliche Studien, Amygdalin sei „unwirksam in der Krebstherapie“ und bei oraler Einnahme nachgewiesenermaßen toxisch. Ein Gerichtsurteil aus dem Jahr 2007, nach dem Amygdalin von Apotheken abgegeben werden darf, beruht auf Annahmen, die laut BfArM inzwischen widerlegt sind.  Die Arzneimittelkommission der deutschen Ärzteschaft bezeichnet es „aus ärztlicher Sicht als skandalös, […] dass ein solches Gift […] frei im Handel ist“. Sie berichtet von einem Fall, bei dem ein krebskranker Vierjähriger nach einer Amygdalinbehandlung mit einer akuten Cyanidvergiftung ins Krankenhaus eingeliefert werden musste. Zu den amygdalinhaltigen bitteren Aprikosenkernen erklärt das Bundesinstitut für Risikobewertung (BfR), Erwachsene dürften maximal zwei solcher Kerne am Tag verzehren, Kinder gar keine. Da es sich um ein Naturprodukt handelt, kann der Gehalt an Amygdalin, vor allem aber der Anteil von dessen Zersetzung zu Cyaniden, in den Kernen stark schwanken. Erst im November 2018 musste ein Naturkosthersteller seine „BIO Bittere Aprikosenkerne“ zurückrufen, weil sie nach dessen eigener Angabe zu potentiell tödlichen Vergiftungen führen konnten. Das aus süßen Aprikosenkernen hergestellte Persipan enthält laut BfR hingegen kaum Amygdalin, ähnlich wie süße Mandeln und das daraus hergestellte Marzipan. Wer die genannten öffentlichen Institutionen für Tochterfirmen einer von finsteren Mächten gesteuerten BRD GmbH hält, wird von diesen Warnungen aber vermutlich wenig beeindruckt sein.
  • „Ich habe es gemacht, und mir geht es gut!“ Eine solche Aussage beweist nur eins: Dass die genannte „Therapie“ nicht bei 100% der Patienten sofort tödlich ist. Daraus lässt sich weder folgern, dass die Maßnahme irgendetwas mit dem behaupteten positiven Krankheitsverlauf zu tun hat, noch lässt sich ausschließen, dass sie bei anderen Patienten doch zu schweren Schäden führt. Beides ließe sich nur mit korrekt durchgeführten wissenschaftlichen Studien an großen Patientenzahlen belegen. Im genannten Fall einer Krebsoperation ist das Ziel, möglichst alle Tumorzellen zu entfernen. Gelingt dies bei der Operation vollständig, so ist eigentlich jede weitere Therapie überflüssig. Bei vielen Tumortypen ist aber nicht auszuschließen, dass sich einzelne Zellen schon außerhalb des sichtbaren Tumors angesiedelt haben, wo sie dann zu Metastasen heranwachsen. Unter Umständen können auch Teile des Tumors nicht entfernt werden, ohne lebenswichtige Organe oder Blutgefäße zu beschädigen. In diesen Fällen können Bestrahlungen, Chemotherapie mit Zellgiften oder andere Arzneimittel zum Einsatz kommen, um die Chancen zu verbessern, dass alle Tumorzellen beseitigt werden und die Erkrankung nicht wiederkommt. Man kann also nach einer Krebsoperation durchaus auch ohne weitere Therapie Glück oder trotz Chemotherapie und Bestrahlungen Pech haben. Was zum Einsatz kommen sollte, werden die behandelnden Ärzte nach den in wissenschaftlichen Studien ermittelten Erfolgschancen empfehlen – und danach, was man dem Patienten bei seinem Gesundheitszustand zumuten kann. Wenn keine Aussicht auf Heilung besteht, können die gleichen Maßnahmen mit anderer Schwerpunktsetzung in Frage kommen, um mehr Lebenszeit oder mehr Lebensqualität zu gewinnen.
  • Entsäuern: Über den Unsinn „basischer“ Ernährung hatte ich schon an anderer Stelle geschrieben – dazu genügt schon ein kritischer Blick auf die sich widersprechenden Behauptungen der Befürworter. Wenn man über die Ernährung überhaupt einen Säuregehalt im Körper ändern kann, dann den im ausgeschiedenen Urin. Ein basischer Urin würde aber einfach nur dazu führen, dass man anfälliger für Blasenentzündungen wird. Otto Warburg (ohne „von“ und ohne t) hat sich nicht mit basischer Ernährung beschäftigt, sondern herausgefunden, dass viele Krebszellen in ihrem Stoffwechsel Säure produzieren, ganz so, als bekämen sie zu wenig Sauerstoff. Er glaubte 1930, das könnte die Ursache von Krebs sein. Damit dürfte er aber Ursache und Wirkung verwechselt haben, denn die Entstehung von Krebszellen ist inzwischen bis auf die Ebene einzelner Moleküle verstanden. Inzwischen tauchen allerdings immer wieder einmal Hinweise auf, dass die vom Tumor selbst produzierte Milchsäure nicht die Entstehung, aber die Vermehrung und das Metastasieren der Krebszellen beeinflussen könnte und sich vielleicht bei einzelnen Tumortypen das Wachstum hemmen ließe, wenn man medikamentös den von Warburg entdeckten Stoffwechselmechanismus blockiert. Das wird immer wieder einmal zum Anlass genommen, um halbwegs ernsthaft zu diskutieren, ob eine fettreiche, kohlenhydratarme Ernährung („Keto-Diät“) Tumorwachstum ebenfalls bremsen kann. Eine Keto-Diät mit viel Fleisch, fettem Fisch und Milchprodukten unter Verzicht auf Obst, Wurzelgemüse und Getreide ist aber so ziemlich das Gegenteil dessen, was von den meisten Verfechtern als basische Ernährung verkauft wird.
  • Hochdosierte Vitamine tauchen in der Szene auch immer wieder auf, vor allem basierend auf der Lehre von Matthias Rath. Zu dem klagefreudigen Rath sei an dieser Stelle auf einen zusammenfassenden Artikel im Spiegel verwiesen, sowie auf das entsprechende Kapitel im Buch von Ben Goldacre, das auch Raths Machenschaften im Zusammenhang mit AIDS in Südafrika beleuchtet. Bekannt wurde er vor allem durch den von ihm selbst PR-mäßig ausgeschlachteten Fall des neunjährigen Dominik Feld, der an metastasierendem Knochenkrebs verstarb, nachdem seine Eltern auf Raths Empfehlung hin die medizinische Behandlung in Deutschland abgebrochen, das Kind nach Mexiko verbracht und sogar eine Schmerztherapie abgelehnt hatten. Bei der Aussage „Bei Brustkrebs speziell Jod“ im oben abgebildeten Screenshot handelt es sich hingegen vermutlich einfach um eine Verwechslung mit Schilddrüsenkrebs, der durch die Einnahme des radioaktiven Jodisotops 131 von innen bestrahlt werden kann. Normales Jod hat diesen Effekt natürlich nicht.
  • Schwermetallbelastungen sind eine der Lieblingsdiagnosen der Alternativmedizinszene, vor allem, um damit sogenannte Chelattherapien zu verkaufen. Im obigen Beispiel zeigt sich die naturwissenschaftliche Kompetenz von Menschen, die zu solchen Maßnahmen raten, daran, dass als Beispiel für eine Schwermetallbelastung ausgerechnet das Leichtmetall Aluminium genannt wird. Bei der Chelattherapie bekommt der Patient Infusionen mit sogenannten Komplexbildnern wie EDTA, die sich an Metallionen anlagern und dafür sorgen, dass diese leichter ausgeschieden werden können. Bei akuten Schwermetallvergiftungen ist das so ziemlich die einzige wirksame Therapie. Alternativmediziner vermarkten die Chelattherapie jedoch für so ziemlich alles, von Krebsvorbeugung über Tinnitus, Migräne und kalte Füße bis hin zur Potenzverbesserung. Ein nicht eben alternativmedizinkritisches Gesundheitsportal spricht von mindestens 20 Infusionen zu je 100 bis 150 Euro, die der Patient in der Regel selbst bezahlen muss. Eine aktuelle Zusammenfassung der wissenschaftlichen Beleglage fand eine einzige seriöse Studie. Deren Ergebnisse zum Einsatz von EDTA bei Verengungen der Herzkranzgefäße waren jedoch uneindeutig. Interessant ist die Begründung der Studienautoren, warum Chelattherapien dennoch weiter erforscht werden sollten: Sie würden von den Patienten gewünscht. Angesichts des Preises drängt sich die Vermutung auf, dass dieser Wunsch möglicherweise auch mit den Wünschen der Leistungserbringer in Verbindung stehen könnte… Zu anderen Krankheitsbildern existieren bestenfalls Einzelfallberichte, bei denen die Ergebnisse komplett zufällig zustande gekommen sein können, aus denen sich also keinerlei Rückschlüsse auf eine eventuelle Wirksamkeit ziehen lassen. Das größte Problem mit der Chelattherapie ist jedoch nicht die unklare Wirksamkeit. So erklärte der inzwischen emeritierte Professor für Komplementärmedizin an der Universität Exeter, Edzard Ernst, in einem Interview: „Diese Therapie hat aber schwere Nebenwirkungen.“ – „Welche zum Beispiel?“ – „Den Tod.“
  • Terpentin, Petroleum oder Benzin zu trinken, ist keine neue Idee. Das sonst sehr zuverlässige Portal Psiram behauptet sogar, etwas zu optimistisch: „Heute finden sich nur noch wenige Hinweise auf ihre Anwendung.“ Dieser Irrsinn wird aber in jüngster Zeit offenbar an den extremeren Rändern der alternativmedizinischen Verschwörungsszene wieder verstärkt propagiert. Warum so etwas definitiv keine gute Idee ist, hatte ich schon im Artikel über den Petroleum-Fan Karl Probst zusammengefasst.
  • Stressabbau scheint mir bei schweren Erkrankungen eine einigermaßen unumstrittene Empfehlung zu sein, um auch mal etwas Positives anzumerken.
  • Konfliktlösung“ gegen Krebs ist ein zentrales Merkmal der „Germanischen Neuen Medizin“ (GNM), die nicht etwa von den alten Germanen stammt, sondern ihren Namen in Abgrenzung von der „jüdischen Schulmedizin“ erhalten hat. In einigen Texten aus der GNM-Szene, und vor allem bei ihrem 2017 verstorbenen Begründer Ryke Geerd Hamer wird die Verknüpfung von Alternativmedizin, Verschwörungsideologie und Antisemitismus in besonders widerwärtiger Form deutlich. Naturwissenschaftlich ist Hamers Lehre von kaum zu überbietender Lächerlichkeit. So werden als „Beweis“, dass Krankheiten wie Krebs, Diabetes oder Allergien psychische Ursachen hätten, sogenannte Hamersche Herde auf Computertomographie(CT)-Aufnahmen präsentiert. Bei den ringförmigen Mustern auf den Aufnahmen, die als Hamersche Herde bezeichnet werden, handelt es sich jedoch um ganz typische Bildrekonstruktionsfehler, die in CTs technisch bedingt vorkommen – auch in vollkommen leblosem Testmaterial, das eigentlich keine psychischen Probleme haben sollte. Bekannt wurde die GNM 1995 durch die damals sechsjährige Olivia Pilhar, deren Eltern sich monatelang weigerten, Olivias zuletzt fußballgroßen Nierentumor angemessen behandeln zu lassen. Ihr Vater gehört trotz der schließlich lebensrettenden Operation bis heute zu den aktivsten Befürwortern der GNM und wird dem österreichischen Gegenstück der deutschen Reichsbürgerszene zugerechnet. Andere Patienten hatten weniger Glück als Olivia: In dem Artikel „Die Todesopfer der GNM: Hamer, wie er wirklich war“ zeichnet Bernd Harder die Leidensgeschichte des 66jährigen Hans-Ullrich Leupold nach. An Weihnachten 2009 starben kurz hintereinander im Allgäu die zwölfjährige Susanne an Krebs und – völlig überflüssig – in Hannover die vierjährige Sieghild an unbehandeltem Diabetes.

Was in diesem Bestiarium des widerwärtigen pseudomedizinischen Verschwörungsglaubens noch fehlt, ist eigentlich nur MMS, das „Miracle Mineral Supplement“ des ehemaligen Scientologen und späteren Gründers seiner eigenen Sekte Jim Humble. Bei MMS handelt es sich um das industrielle Bleich- und Desinfektionsmittel Natriumchlorit, das vom Anwender mit Zitronensäure gemischt werden soll, so dass das giftige und ätzende Chlordioxid entsteht. Gefahrstoffhinweise zu Chlordioxid beziehen sich typischerweise auf Hautkontakt oder Einatmen, weil sich Gefahrstoffexperten in der Regel nicht vorstellen können, dass jemand eine derart aggressive Chemikalie bewusst in seinen Körper bringen könnte. Das BfArM berichtet nach der Anwendung von MMS über Fälle von „Übelkeit, Erbrechen oder Durchfall, Nierenversagen, Verätzungen der Speiseröhre sowie Atemstörungen durch Schäden an roten Blutkörperchen“. In Anleitungen für die Anwendung von MMS heißt es dazu, „dass Durchfall und Übelkeit ein Zeichen des Körpers sind, abgestorbene Mikroben aus dem Körper zu schaffen.“  Die Verbraucherzentrale NRW weist indes darauf hin, dass Restbestände von MMS als Sondermüll entsorgt werden müssen. Anstelle von Natriumchlorit/MMS wird zum Teil auch direkt „anwendbare“ Chlordioxidlösung (CDL) vermarktet. Da dabei keine Säure zugesetzt werde, könne CDL „in sehr viel höheren und eigenverantwortlichen Dosierungen“ eingesetzt werden. Da MMS und CDL natürlich nicht als Arzneimittel abgegeben werden dürfen, werden sie in der Regel „zur Wasseraufbereitung und Trinkwasserdesinfektion“ angeboten – bei Amazon praktischerweise gleich im Doppelpack mit einem Buch, das die Anwendung für die Eigentherapie „gegen alle Krankheitserreger“ beschreibt.

Angewendet werden sollen MMS und CDL gegen Bakterien, Pilze und Viren, Metallbelastungen, Vergiftungen und Parasiten. Humble selbst behauptet, damit „hunderttausende von Menschen“ geheilt zu haben von Krebs, Diabetes, Hepatitis, Borreliose, Streptokokken, Multipler Sklerose, Parkinson, Alzheimer, AIDS, Malaria, Arthritis, Fettleibigkeit, Bluthochdruck, Potenzproblemen und diversen anderen Erkrankungen. Besonders häufig wird mit einer Wirkung gegen Autismus geworben, wobei die ätzenden Mittel Kindern auch gerne als Einlauf verabreicht werden.

MMS stand auch im Mittelpunkt des „Akasha-Congress“ 2018 in Bergheim mit (außer für die auf diesem Auge offensichtlich vollkommen blinde Bergheimer Stadtverwaltung) unübersehbaren Verbindungen in die Reichsbürgerszene, bei der Karl Probst als Ehrengast auftrat.

Und jetzt entschuldigen Sie mich bitte. MMS kann anscheinend tatsächlich Übelkeit auslösen, sogar wenn man nur darüber schreibt.

Quantenterroristen und der Terror der Wissenschaftsvermarktung

Von „Quantenterroristen“ handelte vor ein paar Tagen ein kurzer Artikel in der Süddeutschen Zeitung, und beim Lesen konnte man den Eindruck gewinnen, in der Zukunft könnten drei Terroristen in der Lage sein, allein durch das Senden falscher Daten das gesamte Internet auszulöschen. Wenn man bedenkt, welche Prozesse in unserer modernen Kultur alle vom Internet abhängen, muss man klar sagen, das wäre eine Horrorvision.

Rein formal ist der Artikel, der bezeichnenderweise nicht im Wissenschaftsteil, sondern im Feuilleton erschienen ist, journalistisch vertretbar: Unter der Rubrik „Gehört, Gelesen, Zitiert“ gibt er, überwiegend in Form eines sehr langen Zitats, Inhalte aus einem Online-Artikel des MIT Technology Review wieder. Als Leser würde ich aber eigentlich erwarten, dass eine Zeitung die Sinnhaftigkeit eines solchen Artikels prüft, bevor sie Auszüge davon unkommentiert wiedergibt. Das gleiche könnte man natürlich auch von einem Spezialmedium wie dem MIT Technology Review erwarten, bevor es den Artikel überhaupt publiziert.

Der Technology-Review-Artikel ist in einer Rubrik erschienen, die „die neuesten Ideen und Technologien“ darstellen soll, die auf dem Physics arXiv Preprint Server erscheinen. Dort können Wissenschaftler Artikel einstellen, die noch nicht zur Veröffentlichung in einer Fachzeitschrift angenommen sind, also noch nicht erfolgreich einen Peer Review durchlaufen haben. Über Ideen aus solchen noch nicht offiziell veröffentlichten Artikeln zu schreiben, soll offenbar den Eindruck erwecken, der Technology Review sei besonders am Puls der Zeit. Tatsächlich handelt es sich bei dem Fachartikel, auf den sich das Magazin beruft, ausdrücklich um ein sogenanntes working paper – die Autoren wissen also, dass ihre Ergebnisse noch nicht ausgegoren sind, und sie bitten um Kommentare und Anregungen von Fachkollegen, bevor sie überhaupt eine Veröffentlichung in einer Fachzeitschrift anstreben. Dass sich Inhalte aus einer solchen Diskussionsgrundlage innerhalb weniger Tage ohne jegliche Einordnung in der Süddeutschen Zeitung wiederfinden, ist dann schon einigermaßen skurril.

Wie in so vielen Fällen, in denen in der Öffentlichkeit ein verzerrtes Bild der Physik entsteht, liegt das Problem aber nicht nur darin, wie über Wissenschaft berichtet wird, sondern auch in der Art und Weise, wie die Wissenschaftler selbst über ihre Arbeit kommunizieren – und vor allem, wie sie sie verkaufen. Der Begriff des „Quantenterrorismus“ stammt nämlich tatsächlich aus dem besagten working paper der Wissenschaftler, die von Technology Review und Süddeutscher Zeitung an der renommierten George Washington University verortet werden, obwohl drei von vier Autoren des Artikels in Kolumbien tätig sind. Den schillernden Begriff haben sich die Autoren offensichtlich selbst aus den Fingern gesogen, denn gebräuchlich ist er für die im Artikel beschriebene Problematik nicht. Sucht man danach im Netz, dann findet man neben Berichterstattung über ihren Text eigentlich nur eine bizarre palästinensische Machtphantasie über das Durchtunneln eines Menschen durch die „Apartheidmauer“ südlich von Jerusalem in einem antiisraelischen Hetzblog.

Worum geht es aber nun eigentlich? Die Autoren schreiben über die prinzipielle Möglichkeit, ein sogenanntes Quantennetzwerk dadurch zu sabotieren, dass mehrere Teilnehmer gleichzeitig in abgestimmter Form unsinnige Informationen in das Netzwerk einspeisen. Das könnte die Information in dem Quantennetzwerk so stören, dass nicht einmal zu rekonstruieren wäre, wer die störende Information eingebracht hat. Für ein Quantennetzwerk mit vielen unabhängigen Teilnehmern wäre das (wenn es denn stimmt) logischerweise eine echte Bedrohung.

Um das Bedrohungsszenario jetzt realistisch einschätzen zu können, muss man sich zunächst einmal ansehen, was ein solchen Quantennetzwerk eigentlich ist, oder besser wäre, denn bis jetzt gibt es so etwas schlichtweg nicht. Ein Quantennetzwerk, wie es die vier Wissenschaftler in ihrem Artikel voraussetzen, bestünde aus Quantencomputern an verschiedenen Orten, deren gespeicherte Quanteninformationen über quantenmechanische Verschränkungen verbunden sind. Ich verspreche, den schon lange angekündigten Missverquanten-Artikel über Verschränkung schreibe ich auch noch. Über Quantencomputer habe ich im Buch ein bisschen geschrieben, aber hier im Blog noch nichts wirklich Grundlegendes, insofern kann ich auch dazu und zu den damit verbundenen Problematiken nur auf Wikipedia und zusammenfassende Artikel in populärwissenschaftlichen Medien (halbwegs aktuell z.B. hier) verweisen. Durch die Quantenverschränkung wäre man nicht darauf angewiesen, die Ergebnisse der einzelnen Quantencomputer zu messen und als klassiche Daten zu übertragen. Vielmehr könnte man verlustfrei die Quantenzustände übertragen – das Netzwerk verhielte sich also letztlich wie ein einziger, großer Quantencomputer. Die Vorstellung, dass unsinnige Eingaben von mehereren Nutzern gleichzeitig in einem Computer diesen zum Erliegen bringen können, erscheint dann schon weniger überraschend als ein Zusammenbruch des ganzen Internets.

Die Autoren des working papers zitieren nun einige aktuelle Artikel aus namhaften wissenschaftlichen Zeitschriften, in denen solche Quantennetzwerke als Quanteninternet bezeichnet werden. Da es um eine gegebenenfalls auch internationale Vernetzung von Computern geht, wie sie heute in der Regel über das Internet erfolgt, ist diese Begriffsfindung zunächst einmal auch nicht unbedingt sehr weit hergeholt.

Der Begriff des Quanteninternets wird allerdings regelmäßig, auch im MIT Technology Review, ebenso für die Verwendung von Quantenkryptographie zur abhörsicheren Kommunikation zwischen ganz normalen Computern verwendet. Bei der Quantenkryptographie wird durch die gleichzeitige Verwendung einer Quantenverschränkung und einer ganz normalen, klassischen Datenübertragung sichergestellt, dass die Kommunikation zwischen den beiden Rechnern nicht unbemerkt von einem Dritten abgehört werden kann. In der technischen Umsetzung haben Quantennetzwerke und Quantenkryptographie das gemeinsame Problem, dass sie auf Technologien angewiesen sind, die Quantenverschränkungen zuverlässig über große Distanzen erzeugen können. Bislang existieren solche Technologien nur als experimentelles proof of principle. Daher tauchen zu beiden Themen in den Medien regelmäßig dieselben Experten auf, und auch innerhalb von Artikeln oder Interviews werden Quantennetzwerke und Quantenkryptographie in jüngster Zeit regelmäßig unter dem Schlagwort „Quanteninternet“ oder gar „Web Q.0“ durcheinandergeworfen.

Diese marketingoptimierte Schlagwortbildung aus der Wissenschaft hat aber ein massives Problem. Dass Quantenkryptographie überhaupt funktionieren kann, beruht auf dem sogenannten No-Cloning-Theorem: Nach grundlegenden Prinzipien der Quantenmechanik ist es unmöglich, einen Quantenzustand zu duplizieren. Daher würde der Spion, der neben den verschlüsselten Daten auf dem klassischen Informationskanal auch den über die Quantenverschränkung übermittelten Schlüssel belauschen will, sich dadurch verraten, dass er die Übermittlung des Schlüssels stört. Was für die Quantenkryptographie grundlegend ist, ist für Quantencomputer und Quantennetzwerke aber ein Problem. In einem Quantennetzwerk kann es keine Redundanz geben, keine Sicherheitskopien, keine parallelen Verbindungen. So ist es wenig überraschend, dass es relativ einfach ist, ein solches Quantennetzwerk zu stören, wie eben auch der Lauscher in der Quantenkryptographie sich dadurch verrät, dass er die Verbindung stört. Genau das macht aber die gedankliche Verbindung mit dem Internet hochgradig problematisch.

Was das Internet von allen schon vorher existierenden Computernetzwerken unterscheidet, ist ja gerade seine hohe Redundanz. Das Internet hat keinen Zentralrechner, den man sabotieren könnte. Vielmehr besteht es aus einer Vielzahl voneinander unabhängiger Knoten, die auf unterschiedlichen Wegen direkt und indirekt miteinander verbunden sind. Einen solchen Knoten kann man natürlich sabotieren, und natürlich kommt es auch ohne Sabotage vor, dass solche Knoten ausfallen. Das führt in der Regel dazu, dass Nutzer eines oder auch mehrerer Anbieter in einer Region keinen Zugang zum Internet mehr haben – aber der Rest des Netzes funktioniert auch ohne diesen Knoten. Es gibt auch bestimmte neuralgische Verbindungen, zum Beispiel durch bestimmte Unterseekabel, deren Ausfall dazu führen würde, dass die Datenübertragung über parallele Verbindungen deutlich langsamer würde – allerdings sind auch diese Engpässe über die letzten 20 Jahre deutlich weniger und die Alternativen vielfältiger geworden.

Grundsätzlich können einzelne Systeme aber natürlich immer versagen, und das wird mit hoher Wahrscheinlichkeit auch in der Zukunft so bleiben. Bei Quantencomputern kommt noch das Problem hinzu, dass man die Quantenzustände zu ihrer Erhaltung komplett und über die gesamte Laufzeit der Berechnung von der Außenwelt abschirmen muss, um Dekohärenz und damit das Ende der Verschränkung und des ganzen Quantenzustandes zu vermeiden. Daher dürfte auch (oder vielmehr gerade) den Wissenschaftlern, die in ihren Veröffentlichungen regelmäßig von „dem Quanteninternet“ schreiben, klar sein, dass es ziemlich idiotisch ist, anzunehmen, dass ein einzelnes Quantennetzwerk die Rolle des gesamten heutigen Internets übernehmen könnte. Viel plausibler ist die Annahme, dass beim Funktionieren der entsprechenden Technik immer mehr spezialisierte Quantennetzwerke entstehen könnten, teils zur Geheimhaltung weitgehend getrennt, teils integriert in ein weiterhin redundantes, klassisches Netz von Netzwerken wie dem heutigen Internet. Die Arbeit der vier Forscher aus Washington und Bogotá legt jetzt nahe, dass es für die Teilnehmerzahl an einem solchen einzelnen Quantennetzwerk Grenzen des Sinnvollen und Sicheren gibt – und dass diese Grenzen möglicherweise enger sind, als das viele Fachkollegen bisher angenommen haben. Das klingt nicht ganz so spektakulär wie der Quantenterrorismus, ist aber definitiv ein interessantes Ergebnis.

Hätten die über ihre Arbeit publizierenden Wissenschaftler realistisch von Quantennetzwerken und von Sabotage darin anstatt vom Quanteninternet und von Quantenterrorismus geschrieben, dann wäre ein problematisches Zerrbild von Physik und Technologie vermieden worden. Dann hätten sie es aber natürlich auch nicht in die Süddeutsche Zeitung geschafft.

Was wir wissen, was nicht, und was das nicht bedeutet

Es ist immer wieder lustig, wenn einem als Physiker vorgeworfen wird, wir würden behaupten, alles zu wissen, während man eigentlich ständig erklärt, was wir alles nicht wissen. Wissenschaft wäre auch ziemlich öde, wenn man schon alles wüsste.

Klar, in gewisser Weise haben wir (also, die Physik als Ganzes natürlich, nicht ich) schon ziemlich viel Wissen – nur eben nicht unbedingt die Art von Wissen, die typischerweise die Hobbyphilosophenrunde kurz nach Mitternacht und drei Gläsern Wein gerne mit uns diskutieren möchte.

Was wir als Faktum der Natur wissen

Wir wissen zum Beispiel, dass bei Kollisionen mit hohen Energien, wie am Large Hadron Collider (LHC) des CERN, ein Teilchen mit einer Masse von gut 125 GeV entsteht – das entspricht etwa der Masse eines ganzen Cäsium- oder Bariumatoms. Für ein einzelnes Elementarteilchen ist das schon sehr massig. Dieses Teilchen zerfällt nach extrem kurzer Zeit auf eine von mehreren, in ihrer Art und Häufigkeit genau bestimmten Arten in andere Teilchen. Es ist elektrisch nicht geladen, und es hat keinen Spin. Stellen Sie sich den Spin bitte nicht als Drehung vor, lieber als eine Art Magnetismus; das erzeugt weniger falsche Bilder im Kopf. Aber ich schweife ab, und ich will ja eigentlich weniger abschweifen, also weiter. Diese Dinge wissen wir ganz sicher über das Teilchen, denn wir haben sie, erstmals 2012, gemessen (also, wieder nicht ich, sondern die „Kollegen“ am CERN, mit denen ich mich immer noch irgendwie verbunden fühle, obwohl ich da nur vor Ewigkeiten ein paar Monate für meine Diplomarbeit verbracht habe).

Da gibt es auch so gut wie keinen Spielraum, dass diese Messung irgendwann als nicht mehr richtig gelten könnte. Es könnte sich allenfalls noch herausstellen, dass unterschiedliche Teams von Wissenschaftlern an unterschiedlichen Instituten zu unterschiedlichen Zeiten alle denselben wahnsinnig blöden Fehler in der Datenauswertung gemacht haben – aber das ist nach sechseinhalb Jahren von Folgeexperimenten und -auswertungen wirklich extrem unwahrscheinlich, dass das noch nicht aufgeflogen wäre. Solche Fälle hat es gegeben, und weil Physiker Menschen sind, hören sie das in der Regel nicht gerne, aber das gab es nie bei so vielen Beteiligten zum Teil unabhängig voneinander. Insofern, ja, dass da ein Teilchen mit diesen Eigenschaften ist, wissen wir sicher.

Man könnte aber auch sagen, das ist es auch schon mit unserem Wissen über das Teilchen.

Was wir als wissenschaftliche Theorie wissen

Es gibt aber noch mehr, was wir auch zumindest ziemlich sicher über dieses Teilchen sagen können. In den 1960er Jahren haben nämlich Peter Higgs, François Englert und eine ganze Anzahl von heute meist übergangenen Kooperationspartnern sich einen Mechanismus überlegt, wie man in den sogenannten Eichtheorien dessen, was wir heute Standardmodell nennen, das Entstehen von Masse erklären kann. Masse kommt in solchen Theorien nämlich eigentlich nicht vor, das heißt, alles würde sich eigentlich mit Lichtgeschwindigkeit bewegen. Der Higgs-Mechanismus, auf den sie dabei gekommen sind, ist in einer kleinen Bilderserie vom CERN ganz nett dargestellt worden, die man samt Texten zum Beispiel hier ansehen kann. Und es gibt vom CERN auch eine kleine Animation dazu:

Man sollte sich natürlich immer im Klaren sein, dass solche Visualisierungen nur ganz grobe Vorstellungen der eigentlichen Theorie sind und man aus solchen Vereinfachungen vor allem keine weitergehenden Schlüsse ziehen darf. Sie sollen erst einmal eine Vorstellung geben – um daraus etwas abzuleiten, müsste man sich mit der eigentlichen Theorie im Detail beschäftigen.

Aus diesem Higgs-Mechanismus hat man schon vor Jahrzehnten abgeleitet, dass es ein Teilchen geben sollte, das genau die Zerfallsarten, die Ladung und den Spin haben müsste, wie das Teilchen, das man dann 2012 am CERN messen würde. In Verbindung mit den anderen Theorien des Standardmodells und Messungen an verschiedenen Beschleunigern konnte man dann auch die Masse dieses Higgs-Teilchens schon vor der Messung immer weiter eingrenzen: In den 1980er Jahren dachte man noch, es könne mehrere hundert GeV schwer sein. Gegen 1990 zeichnete sich ab, dass die Masse zwischen 100 und 200 GeV liegen sollte. Damit war auch klar, dass man keinen neuen Riesenbeschleuniger für mehr als 10 Milliarden Dollar in der Wüste von Texas würde bauen müssen, um das Teilchen zu suchen: Der damals in der Entwicklung befindliche LHC am CERN sollte dafür locker ausreichen. Als ich Mitte der 1990er Jahre am CERN war, war man schon ziemlich sicher: Wenn es das Higgs-Teilchen tatsächlich gäbe, müsste seine Masse zwischen 110 und 130 GeV liegen. Im Jahr 2000 meinte man kurzzeitig, vage Anzeichen für ein neues Teilchen bei 114 GeV entdeckt zu haben, was sich aber nicht bestätigt hat. Schließlich kam die große Erleichterung, als man das Teilchen 2012 bei 125 GeV genau im vorhergesagten Massenbereich gefunden hat. Die Ernüchterung kam dann später, als sich abzeichnete, dass man am LHC neben dem Vorhergesagten (bis jetzt) irgendwie gar nichts Unvorhergesagtes findet, das Ansatzpunkte für neue Theorien bieten könnte – aber das ist eine andere Geschichte.

Diese Vorhersage und die dazu passende Messung geben uns ein ziemlich sicheres Wissen, dass es sich bei dem 2012 gemessenen Teilchen wohl um das gesuchte Higgs-Teilchen handelt. Das ist aber eine andere Art von Wissen als die Messung selbst: Die Theorie des Higgs-Mechanismus kann (und wird wahrscheinlich) irgendwann überholt sein, aber das Teilchen nicht. Jede neue Theorie, die später den Higgs-Mechanismus und das Standardmodell ersetzen will, wird nicht nur das Entstehen von Masse erklären müssen, sondern muss auch eine Erklärung dafür liefern, was für ein Teilchen man da seit 2012 beobachtet.

Das Higgs ist aber nicht das einzige Phänomen, das auf Basis der Theorien des Standardmodells (Elektroschwache Theorie, Quantenchromodynamik, Allgemeine Relativitätstheorie und Higgs-Mechanismus) vorhergesagt und später gemessen wurde. Das gleiche gilt für die W- und Z-Teilchen der schwachen Wechselwirkung, für alle aus Quarks aufgebauten Teilchen, die charm– und bottom-Quarks enthalten, sowie für das top-Quark und das tau-Neutrino. Alle wurden aufgrund des Standardmodells vorhergesagt und erst später nachgewiesen. Hinzu kommen unterschiedliche Arten sogenannter Jets, also Teilchenbündel, aus Kollisionen von Protonen oder leichten Atomkernen, die als Produkte der Quarks und Gluonen vorhergesagt wurden, aus denen die Protonen aufgebaut sind. Noch kein Teilchennachweis im eigentlichen Sinne, aber eine sehr frühe spektakuläre Bestätigung einer Vorhersage des Standardmodells war der Nachweis sogenannter neutraler schwacher Ströme am CERN 1973.

Das Standardmodell ist also nicht deshalb, nun, eben das Standardmodell der Physik, weil es besonders schön oder besonders praktisch wäre – gerade das ist es nach Ansicht der meisten Physiker eben nicht. Schließlich besteht es aus mehreren einzelnen Theorien, die auf den ersten Blick wenig miteinander zu tun zu haben scheinen und unter denen sich zumindest die Relativitätstheorie auch strukturell deutlich von den anderen unterscheidet. Der Standard ist es, weil es eine Vielzahl experimenteller Ergebnisse vorhergesagt hat. Dabei hat es nicht nur Messwerte wie die Masse des Higgs-Teilchens ziemlich gut eingegrenzt, sondern sogar die Existenz ganzer Phänomene und Teilchen vorhergesagt. Was immer irgenwann an die Stelle des Standardmodells treten soll, muss also in vielerlei Hinsicht zunächst einmal die gleichen Ergebnisse liefern wie das Standardmodell – sonst passt es schlicht und einfach nicht zur messbaren Realität.

Wie man nicht zu Wissen gelangt

Die Anhänger „alternativer“ Physiker wie Nassim Haramein oder Burkhard Heim (Heim war immerhin tatsächlich Physiker) behaupten jetzt, ihre Idole hätten das Standardmodell widerlegt, indem sie einzelne Messwerte mit größerer Genauigkeit vorhergesagt hätten. Sowohl Haramein als auch Heim waren hier schon an anderer Stelle Thema. Ironischerweise haben diese beiden Geistesgrößen Messwerte „vorhergesagt“, die schon längst gemessen und ihnen bekannt waren. Das ist ungefähr so, als wollte ich meine Kenntnisse in meteorologischer Synoptik (also Wetterbeobachtung und -vorhersage, das habe ich in meinem Nebenfach tatsächlich mal gelernt) dadurch unter Beweis stellen, dass ich das Wetter von gestern vorhersage. Im Fall von Heim mussten einige der von ihm genau „vorhergesagten“ Messwerte (wie die Masse des Eta-Mesons) aufgrund späterer, genauerer Messungen korrigiert werden, so dass sich seine Nachhersagen auch noch als falsch herausgestellt haben. Da beide „Theorien“ außer diesen Pseudobelegen nicht viel Überprüfbares zu bieten haben, will ich hier auch gar nicht weiter darauf eingehen.

Wozu wir noch keine eindeutige Theorie haben

Natürlich gibt es aber auch in den Bereichen der Physik, mit denen sich das Standardmodell beschäftigt, Ergebnisse, die durch das Standardmodell nicht beschrieben werden. Ein Themenbereich ist die Masse von Neutrinos. Neutrinos sind eine Art elektrisch neutrales Gegenstück zu Elektronen sowie den schwereren elektronenähnlichen Teilchen, den Myonen und Tau-Leptonen, sowie zu deren Antiteilchen. Da Neutrinos elektrisch neutral sind, wirken elektromagnetische Felder nicht auf sie. Auch die sogenannte starke Kernkraft wirkt nicht auf Neutrinos. Nachgewiesen werden können sie also nur durch die schwache Kernkraft, die einen etwas irreführenden Namen hat, weil sie auf einzelne Teilchen nicht unbedingt schwach, sondern eher selten wirkt. In den allermeisten Fällen kann ein Neutrino durch die Erde hindurchfliegen, ohne dabei irgendeine Wechselwirkung mit der durchflogenen Materie auszulösen. Selbst die dichteste auf der Erde bekannte Materie, das Innere von Atomkernen, ist für Neutrinos durchlässig. Wenn sie aber (sehr, sehr selten) doch einmal mit einem Teilchen wechselwirken, an dem sie vorbeikommen, dann können sie in der Reaktion durchaus einen großen Teil ihrer Energie übertragen und in ein Elektron (oder Myon oder Tau oder deren Antiteilchen) umgewandelt werden. Die Frage ist, wenn andere Kräfte außer der schwachen Kernkraft nicht auf Neutrinos wirken, wirkt denn die Schwerkraft auf sie, haben sie also eine (von null verschiedene) Masse? Es gibt indirekte experimentelle Belege, dass die Neutrinomasse nicht null sein kann. Direkt gemessen hat die Masse aber noch niemand, wobei der momentan aussichtsreichste Versuch das nach vielen Verzögerungen 2018 endlich in Betrieb genommene KATRIN-Experiment in Karlsruhe sein dürfte. Nach dem Standardmodell müssen Neutrinos keine Masse haben – man kann aber eine von null verschiedene Neutrinomasse relativ problemlos ins Standardmodell einsetzen.

Eine Zeit lang, bis deutlich wurde, wie klein sie wirklich ist, galt eine von null verschiedene Neutrinomasse als mögliche Erklärung für einen physikalischen Effekt, der ebenfalls nicht durch das Standardmodell erklärt wird: die dunkle Materie. Letztlich braucht man nur relativ einfache Mechanik und die Annahme, dass Sterne, die gleich viel Strahlung bei denselben Wellenlängen aussenden, auch ungefähr gleich schwer sein müssen, um die Masse praktisch aller sichtbaren Objekte unserer Galaxie abzuleiten. Berechnet man jetzt die Bewegung dieser Objekte um das Zentrum der Galaxie, dann stellt man fest, dass die Galaxie viel mehr Masse enthalten muss, als alle sichbaren Objekte zusammen ausmachen. Das schließt nicht nur direkt sichtbare Objekte wie Sterne und Gasnebel ein, sondern auch Planeten und Staubwolken, die kein Licht emittieren, die man aber dadurch nachweisen kann, dass sie das Licht anderer Objekte verdecken. In der Summe ergibt sich, dass im Universum rund fünf mal so viel dunkle wie direkt oder indirekt sichtbare Materie vorhanden sein muss. Die Existenz dunkler Materie folgt also nicht aus irgendwelchen Theorien, sondern direkt aus Messungen und relativ einfachen Berechnungen. Massive, dunkle Himmelskörper, sogenannte MACHOs, die man nachweisen kann, wenn sie vor anderen Objekten vorbeiziehen, können nach aktuellen Messungen höchstens einen kleinen Teil dieser dunklen Materie ausmachen. Die plausibelste Vermutung erscheint zur Zeit, dass es sich um noch unbekannte, schwere Elementarteilchen, sogenannte WIMPs, handelt. Diese kommen im Standardmodell an sich nicht vor. Es gibt jedoch weitergehende Theorien wie die Supersymmetrie oder die Stringtheorie, die solche Teilchen vorhersagen und das Standardmodell mit einschließen. Zumindest für einfache Varianten der Supersymmetrie hätte man diese Teilchen aber inzwischen auch an Beschleunigern finden müssen, wenn diese Varianten denn zuträfen. In welcher Form das Standardmodell hier erweitert oder ersetzt werden muss, ist also noch ziemlich offen. Man kann aber auch durchaus argumentieren, dass es für unser Verständnis des Univerums ziemlich egal ist, ob die dunkle Materie aus diesen oder jenen Teilchen besteht – man muss einfach nur als Ergänzung zum Standardmodell annehmen, dass diese Masse irgendwie da ist und sonst nichts tut.

Etwas mehr (aber nicht viel mehr) theoretische Annahmen stecken hinter der dunklen Energie: Das Universum dehnt sich aus; das wissen wir, weil sich ziemlich direkt messbar fast alle anderen Galaxien von uns entfernen. Da die Schwerkraft immer als Anziehung wirkt, müsste sie diese Expansion allerdings im Lauf der Zeit immer mehr abbremsen. Das habe ich in den 1990er Jahren noch im Studium gelernt. Inzwischen kann man aber (wieder ziemlich direkt, durch die Beobachtung von sehr weit entfernten Supernovae, von denen das Licht Milliarden Jahre bis zu uns braucht) messen, dass sich die Expansion anscheinend sogar beschleunigt. Den Antrieb dieser beschleunigten Expansion bezeichnet man als dunkle Energie. Um das Universum so aufzublähen, braucht es ungeheuer viel Energie: Würde sich alle Materie im heutigen Universum einschließlich der dunklen Materie in Energie umwandeln, dann entspräche das nur rund einem Drittel der dunklen Energie, die nach heutiger Berechnung die Expansion des Universums antreibt. In der allgemeinen Relativitätstheorie und damit im Standardmodell kann man eine solche dunkle Energie als sogenannte kosmologische Konstante problemlos einsetzen. Das hat sogar Einstein schon getan, als er noch dachte, das Universum dehne sich nicht aus, sondern sei stationär. Das erfordert nämlich auch eine Energie, die der Schwerkraft entgegenwirkt, damit das Universum nicht unter seinem eigenen Gewicht zusammenstürzt. Das Standardmodell kann diese Energie berücksichtigen, erklärt aber nicht, woher sie kommt.

Welche Ansätze es zu diesen offenen Fragen gibt

Alle drei genannten Effekte widerlegen das Standardmodell nicht. Sie zeigen lediglich, dass es in der Teilchenphysik und der Kosmologie Fragen gibt, die das Standardmodell allein nicht beantwortet und die als Ergänzung zum Standardmodell angenommen werden müssen. Eine Theorie, die das Standardmodell irgendwann ablösen soll, sollte möglichst einen Teil dieser Fragen, im Idealfall alle, beantworten. An solchen Theorien wird schon gearbeitet, seit es das Standardmodell gibt. Es gibt eine ganze Anzahl von Ansätzen. Manche sind ambitionierter und versuchen, alle Kräfte in einer Theorie zusammenzufassen; andere klammern die Schwerkraft noch aus und überlassen deren Beschreibung noch der allgemeinen Relativitätstheorie. Manche dieser Theorien, wie die Stringtheorie oder die Quantengravitation, sind auch nach 40 Jahren noch nicht so weit, Aussagen zu machen, die sich mit heutiger Technik vernünftig experimentell prüfen ließen. Damit lässt sich erst recht nicht zwischen den denkbaren Varianten dieser Theorien unterscheiden. Andere, wie die zu meinen Schulzeiten noch mit großen Hoffnungen behaftete Grand Unified Theory (GUT), sind zumindest in ihren einfachen Varianten heute schon experimentell widerlegt. Alle solchen Theorien, aus denen spektakuläre neue Messergebnisse für bisherige Experimente abgeleitet wurden, sind daran jedenfalls gescheitert – was nicht notwendigerweise alle Varianten der jeweiligen Theorie ausschließt, aber in der Regel die favorisierte, weil einfachste. Das gilt zum Beispiel für die zu meinen Studienzeiten meist beachtete Theorie, die Supersymmetrie, deren einfachste Form neue Teilchen vorhersagt, die man im LHC am CERN schon hätte finden müssen. Es bleiben also viele Fragen offen, aber mangels entsprechender zu prüfender Vorhersagen gibt es aktuell wenige Ansätze, durch Experimente auf der Erde Antworten zu finden. Daher ist es auch umstritten, ob man neue, noch größere Beschleuniger bauen sollte. Die spannendsten neuen Erkenntnisse stammten in den letzten Jahren sicherlich aus den immer besseren Beobachtungen der Astronomie, vor allem durch Teleskope auf Satelliten.

Warum die experimentellen Erkenntnisse nicht von der Theorie abhängen

Eins ist bei diesen neuen Theorien jedoch zweifelsfrei klar: Sie müssen zu praktisch allen schon gemachten Experimenten der Teilchen- und Astrophysik zu den gleichen Ergebnissen kommen wie das Standardmodell mit den genannten Ergänzungen wie der Neutrinomasse, denn die Ergebnisse dieser Experimente würden sich ja durch eine neue Theorie nicht ändern. Anders von „alternativen Physikern“ oder postmodernen Philosophen und Wissenschaftstheoretikern gelegentlich behauptet wird, müsste man diese Experimente auch nicht völlig anders aufbauen, wenn man andere Theorien hätte, und es würde schon gar nichts anderes herauskommen. Hinter solchen Vorstellungen stecken typischerweise Fehlinterpretationen von Thomas S. Kuhns Untersuchungen zu Erkenntnisprozessen in der Wissenschaft und einmal wieder ein falsches Verständnis des Beobachtereffekts. Wenn in einem Beschleunigerzentrum wie dem CERN Kollisionen hochenergetischer Teilchen und damit letztlich Freisetzungen reiner Energie untersucht werden, sind die Experimente ohnehin so aufgebaut, dass praktisch alles gleichzeitig gemessen wird, was man dabei technologisch überhaupt messen kann. Es gibt auch keine andere Möglichkeit, unter kontrollierten Bedingungen zu messen, was passiert, wenn an einem Punkt große Energien frei werden. Die Teilchenphysik kann Experimente gar nicht darauf ausrichten, nur den einen Parameter gezielt zu messen, der zur Überprüfung einer einzelnen Theorie nötig ist – dafür sind die Entwicklungszeiträume viel zu lang. Als der LHC in den 1980er Jahren geplant wurde, ging man noch von einem viel schwereren Higgs-Teilchen aus, und die Supersymmetrie, nach deren Teilchen bislang erfolglos gesucht wird, galt noch als wesentlich unwahrscheinlicher als die inzwischen längst ausgeschlossenen einfachen GUTs. Hypothetissche Vorhersagen aus neuen Theorien ändern sich schneller, als man neue Beschleuniger und Detektoren planen und bauen kann. Der LHC am CERN wurde dementsprechend nicht nur gebaut, um das Higgs nachzuweisen, sondern um ganz allgemein zu erforschen, welche neuen Phänomene in einem gewissen Energiebereich auftauchen. Das macht die Experimente auch so groß und teuer. Wegen der großen Datenmenge pro Kollision kann man eine Vorauswahl der Kollisionsereignisse treffen, die man genauer untersucht, um zum Beispiel Eigenschaften des Higgs-Teilchens genauer zu bestimmen. Es wird jedoch immer auch eine große Zahl sogenannter Minimum-Bias-Ereignisse gespeichert, um auch nach noch ganz unbekannten und unerwarteten Phänomenen suchen zu können. Die Ergebnisse der Teilchenphysik sind also gerade nicht von der Theorie abhängig, sondern sie sind eine zwingende Grundlage für jede Theorie, die Aussagen über Teilchen machen will.

Was wir gar nicht wissen

Nun gibt es auch für eine sogenannte Theory of Everything wie die Stringtheorie, die alle Grundkräfte der Natur und alle Teilchen beschreiben soll, grundsätzliche physikalische Fragen zur Materie und dem Universum, die sie nicht beantwortet. Dazu gehört zum Beispiel die Frage nach Ereignissen „vor“ dem Urknall, sofern man außerhalb der Existenz unseres Universums überhaupt von zeitlichen Begriffen wie vor oder nach sprechen kann. Auch hierzu gibt es Ideen, die sich in der einen oder anderen Form in diese neuen Theorien oder auch das Standardmodell integrieren ließen. So könnte das ganze Universum als zufällige Fluktuation aus nichts entstanden sein, und es könnte sich auch zufällig wieder in nichts auflösen. Von einer experimentell prüfbaren Theorie kann man in Bezug auf solche Ideen aber zumindest aktuell noch nicht sprechen.

Vielleicht werden wir aber tatsächlich erst zu einer konsistenten neuen Theorie jenseits des Standardmodells kommen, wenn jemand zu ganz neuen Ideen für völlig anders strukturierte Theorien findet, die möglicherweise auch solche Fragen mit einschließen. Die heutigen Kandidaten als Nachfolger des Standardmodells sind ja in gewisser Weise recht konventionell: Sie versuchen, in Form von Eichtheorien die Ideen des Standardmodells so zu verallgemeinern, dass sich ein umfassenderes Bild ergibt. Vielleicht wird sich der richtige Weg als ein ganz anderer herausstellen. Auch für eine solche neue Theorie würden aber die gleichen Voraussetzungen gelten: Sie müsste erklären, warum für praktisch alles, was wir heute messen können, das herauskommt, was das Standardmodell vorhersagt, und sie müsste ihren eigenen Wert unter Beweis stellen, indem sie Dinge vorhersagt, die wir noch nicht anderweitig vorhergesagt und gemessen haben.

Schließlich gibt es auch Fragen, die sich gar nicht in einer physikalischen Theorie beantworten lassen. Hierzu gehören zum Beispiel Fragen nach einem eventuellen Sinn von Dingen oder ethische Fragestellungen, was man tun sollte oder nicht. Bei solchen Fragen kann naturwissenschaftliche Erkenntnis einen Hintergrund bieten und als Information dienlich sein – sie kann aber nicht die Antwort liefern. Dementsprechend problematisch ist es auch, aus der Physik heraus oder mit der Autorität des erfolgreichen Physikers Antworten auf solche Fragen geben zu wollen. Davor haben auch viele der großen Physiker des 20. Jahrhunderts (zum Beispiel Erwin Schrödinger, Max Born und Werner Heisenberg) ausdrücklich gewarnt – und so mancher konnte sich trotzdem genau das nicht verkneifen.

Was dieses Nichtwissen nicht heißt

Wenn wir die Antwort auf eine grundlegende naturwissenschaftliche Frage, sei es die Entstehung des Lebens oder die des Universums, nicht wissen, liegt offenbar für viele Menschen die Versuchung nahe, eine willkürliche Antwort zu behaupten. Die beliebteste dieser willkürlichen Antworten begegnet mir auch in Diskussionen nach meinen Vorträgen regelmäßig: „An der Stelle muss man dann wohl von Gott sprechen.“ Nein, muss man nicht, und sollte man auch nicht. Selbst Theologen wehren sich gegen eine solche Vorstellung, die Dietrich Bonhoeffer mit dem treffenden Begriff „Lückenbüßer-Gott“ bezeichnet hat. Für Wissenschaftler ist eine solche Vorstellung ein ernsthaftes Problem und im Extremfall sogar lebensgefährlich: Wenn naturwissenschaftliches Nichtwissen beliebig mit religiösen Behauptungen aufgefüllt wird, dann wird jede neue wissenschaftliche Erkenntnis zwangsläufig zur Häresie. Das gilt insbesondere dann, wenn es um Schöpfungsmythen oder um die grundlegenden Zusammenhänge der Welt geht. Die historischen Beispiele von Galileo und Darwin drängen sich auf, aber grundsätzlich ist nicht auszuschließen, dass sich auch die Vorstellung von Gott als Auslöser des Urknalls über die Jahrzehnte zu einem Dogma entwickeln könnte, dessen Widerlegung Empörungsstürme bis hin zu Morddrohungen auslösen würde.

Noch bizarrer wird es, wenn religiöse Gruppierungen pseudo-naturwissenschaftliche Elemente in ihr Weltbild aufnehmen und in der Folge versuchen, diese als „neue Physik“ an der Öffentlichkeit – zum Teil buchstäblich – zu verkaufen. In gewohnt unterhaltsamer Form tun sich hier immer wieder die transzendental meditierenden Maharishis hervor, deren Quantenquark fast noch unfreiwillig komischer ist als ihr yogisches Fliegen oder die Wahlwerbespots ihrer Naturgesetz-Partei. So ist bei Thomas J. Routt in einer Veröffentlichung der Maharishi University of Management nachzulesen, dass im digitalen Universum die kosmische Weltregierung alle Aspekte des Lebens mittels Quantencomputern steuert.

An der Maharishi European Research University (MERU) wollte der Chemiker Klaus Volkamer 1987 in vermeintlichen minimalen Gewichtsschwankungen verschweißter Glasampullen die Wirkung dunkler Materie nachgewiesen haben. Eine Erklärung, warum die dunkle Materie nur in bestimmte, aber nicht in andere Glasampullen kriechen sollte, blieb er schuldig. In den folgenden 30 Jahren tourte er mit „feinstofflichen“ Erweiterungen praktisch aller Naturwissenschaften durch die Esoterikszene. Neben den Maharishis taucht Quantenquark in letzter Zeit auch zunehmend im Umfeld der Hare-Krishna-Bewegung auf.

Pseudowissenschaft in neureligiösen Bewegungen beschränkt sich jedoch nicht auf Gruppen aus dem hinduistischen Umfeld und, offensichtlich, die Scientologen, wenn man diese denn wirklich als religiöse Gruppierung betrachten will. Einige Anhänger von Christian Science betrachten ihren Kult offensichtlich allen Ernstes als Medizin und sehen – das hingegen wenig überraschend – Zusammenhänge vor allem mit der Homöopathie. In einer Zeitschrift der dem Christentum nahestehenden Bewegung Universelles Leben erklärte der Arzt Manfred Doepp, hinter Antibiotika und Impfungen stecke „mangelndes Vertrauen zur Führung durch Gott“.

Das Prinzip, dass man nicht jeden Unsinn für wahr erklären darf, nur weil die Wissenschaft etwas nicht weiß, gilt natürlich nicht nur für die Religion. Das gleiche trifft auch auf Nassim Haramein zu, wenn er die Tatsache, dass zwei unterschiedliche Messmethoden unterschiedliche Ergebnisse für den Radius eines Protons ergeben, nutzt, um seine absurden Vorstellungen vom Proton als schwarzem Loch für valider als das Standardmodell zu erklären. Hohle-Erde-Gläubige argumentieren ähnlich, wenn sie wissenschaftliche Diskussionen unter Geophysikern über die Ursache einzelner Reflektionsherde von Erdbebenwellen im Boden, sogenannte bright spots, als Beleg für ihre kruden Thesen anführen. Kreationisten nutzen jede spannende Forschungsfrage innerhalb der Evolutionsbiologie, um zu erklären die Evolution sei umstritten.

Nein. Dass es irgendwo in der Wissenschaft offene Fragen gibt, über die diskutiert und an denen geforscht wird, heißt nicht, dass sämtliche Ergebnisse dieses Forschungsgebiets falsch sind. Es heißt auch nicht, dass man als Antwort auf diese Frage einfach irgendeine beliebige Behauptung als erwiesen hinstellen darf, auch nicht eine, an die schon vor 2000 Jahren irgendwer in Vorder- oder Südasien geglaubt hat. So leid es mir tut, es heißt auch nicht, dass stattdessen zwangsläufig Ihre ganz persönliche Privattheorie stimmt, nach der sämtliche Elementarteilchen winzige, in unterschiedlichen Pinktönen eingefärbte und telepathisch kommunizierende Einhörner sind. Es heißt noch nicht einmal, dass das Universum dadurch entstanden ist, dass es vom großen grünen Arkelanfall ausgeniest wurde.

Dass es in der Wissenschaft offene Fragen gibt, heißt einfach nur, dass die Wissenschaft noch lebendig ist, dass es noch etwas zu forschen und zu entdecken gibt – und genau das macht die Wissenschaft so viel interessanter als alle Dogmen und Heilslehren.

Homöopathie und die Quantendynamik des (Kopf-) Schüttelns

Wenn man mit halbwegs rationalen Menschen über Homöopathie spricht, begegnet einem häufig die Aussage: „Wenn nichts drin ist, ist es vielleicht ein Placebo, aber dann schadet es ja auch nicht.“ Was für ein verheerender Fehlschluss das sein kann, hat sich ja ganz aktuell wieder bei Tina Turner gezeigt, die es fast nicht überlebt hätte, als sie von einem „homöopathischen Arzt“ aus Frankreich zwar nicht mit klassischer Homöopathie, aber ähnlich wirkungslos behandelt wurde.

Die Homöopathiegläubigen versuchen aber natürlich immer wieder zu erklären, Homöopathie sei eben kein Placebo, obwohl nichts drin ist. In den vergangenen Wochen geisterte durch diverse Homöopathiegruppen auf sozialen Netzwerken ein englischsprachiger Artikel mit dem Titel „Die Quantendynamik der homöopathischen Verschüttelung“, der einmal wieder die Wirksamkeit von Homöopathie auf Basis der Quantenmechanik begründen will. Dementsprechende Ideen, üblicherweise basierend auf der Verschränkung oder dem Welle-Teilchen-Dualismus, habe ich hier ja schon das eine oder andere Mal auseinandergenommen. So lohnt sich auch hier ein Blick – bei solchen Versuchen gibt es schließlich immer etwas zu lachen.

Rufen wir uns zunächst einmal in Erinnerung, warum eine solche Begründung notwendig wäre, wenn man ernsthaft glauben sollte, Homöopathie hätte eine Wirkung – außer als Placebo natürlich.

Homöopathische „Arzneimittel“ werden hergestellt, indem man eine Substanz – häufig etwas wie Arnika- oder Tollkirschenextrakt, aber auch gerne mal Hundekot, Nasenschleim von kranken Pferden oder wie im Bild Reste der Berliner Mauer – stark (meist 1:10 oder 1:100) verdünnt, nach einem festgelegten Ritual schüttelt, die verschüttelte Verdünnung dann wieder verdünnt und so weiter. Bei den meisten Homöopathika wird das viele Male wiederholt, wobei durch diesen Ritus sichergestellt ist, dass selbst nach wenigen Verdünnungsschritten (sogenannte Niedrigpotenzen) kaum noch etwas von der eigentlichen Substanz im fertigen Mittel enthalten ist. Nach ein paar Schritten mehr enthält ein homöopathisches „Mittel“ dann schon mehr Verunreinigungen aus dem verwendeten destillierten Wasser als angeblichen Wirkstoff. Nach 24 Verdünnungsschritten 1:10 (als D24 bezeichnet) oder 12 mal 1:100 (C12) wäre es ein extremer Zufall, wenn überhaupt noch ein einziges Atom der ursprünglichen Substanz enthalten ist. Im Fall von Globuli wird dann eine kleine Menge dieses geschüttelten Wassers auf die Zuckerkügelchen aufgesprüht. Nach dem homöopathischen Dogma nimmt die Wirkung dieser Kügelchen und damit die Wirkung des (ab D24) reinen Wassers mit jedem weiteren Verdünnen mit Wasser noch zu.

An dieser Stelle kann man die Betrachtung der Homöopathie aus physikalischer Sicht eigentlich auch beenden. Dass ein Wirkstoff vorhanden sein muss, um eine Wirkung zu haben, sollte normalerweise keine Erklärung mehr brauchen. Um sich aus diesem offensichtlichen Widerspruch zu grundlegenden Tatsachen der Natur herauszuwinden, schleppt die Homöopathie sich regelmäßig wiederholende Ausreden an: Nicht näher spezifizierte „Information“, „feinstoffliche“ oder „geistartige“ Wirkungen, oder eben… die Quanten. Wenn man solche Texte mit einer gewissen naturwissenschaftlichen Sachkunde liest, drängt sich in der Regel der Eindruck auf, die Autoren hätten etwas viel geistartige Getränke zu sich genommen – womit wir beim aktuellen Beispiel wären.

Die Autorin, die Australierin Christina Munns, nennt sich Diplom-Homöopathin und behauptet von sich, sie hätte Entdeckungen veröffentlicht zu physikalischen Fragen wie „dunkle Materie/Energie, Quantengravitation, Supersymmetrie, kardiozentrische Kosmologie und ein vereinigtes M-Theorie-Modell“. Unfreiwillig komisch ist die Platzierung der „kardiozentrischen Kosmologie“ mitten im Satz – einen solchen Begriff gibt es in der Physik nämlich gar nicht. Bevor wir jetzt das Nobelkomittee anschreiben, sollten wir einen Blick auf ihren Artikel werfen, um abzuschätzen, ob eine Hoffnung besteht, dass Frau Munns weiß, was ihre aufgelisteten Begriffe eigentlich bedeuten. Spoiler-Alarm: Es sieht nicht gut aus…

Die Grundidee von Frau Munns‘ Artikel ist, dass die Information der Ausgangssubstanz übertragen wird durch das Besetzen höherer Energiezustände in den Atomen der Lösung.

Elektronen befinden sich in einem Atom oder Molekül in bestimmten Energiezuständen, die auch als Schalen oder Orbitale bezeichnet werden und in den Anfängen der Quantenmechanik für Bahnen gehalten wurden, auf denen die Elektronen kreisen sollten. Führt man einem Elektron Energie zu, dann kann es in einen höheren, angeregten Energiezustand (auf eine äußere Schale oder in ein größeres Orbital) gehoben werden und je nach Energie und Art des Atoms oder Moleküls für eine kurze Zeit dort verweilen, bis es die Energie wieder abstrahlt und in den Grundzustand zurückfällt. In solchen höheren Energiezuständen sieht Frau Munns also die Information der Ursubstanz auf eine homöopathische Verdünung übertragen. Auch wenn Frau Munns immer von Atomen schreibt, soll es sich also offensichtlich um die Energiezustände von Wassermolekülen handeln, denn etwas anderes (insbesondere irgendwelche einzelnen Atome) kommt in der Lösung nach dem Verdünnen ja nicht mehr vor. Dabei schreibt sie ausführlich über die Bezeichnungen dieser Energiezustände, die sie offensichtlich von einigen Physiklernseiten im Internet abgeschrieben hat. Beim Versuch, ihren Mechanismus so zu erklären, verstrickt sie sich allerdings in eine Kette von Problemen, aus denen überdeutlich wird, dass sie das, wovon sie da schreibt, schlicht nicht verstanden hat.

Problem 1: Sie behauptet erst einmal, die höheren Energiezustände würden durch das Verschütteln besetzt, denn durch das Verschütteln würde den Elektronen Energie zugeführt. In Wirklichkeit ist die Energie, die man braucht, um Elekronen in höhere Energieniveaus zu bringen etwa in der Größenordnung der Energien, die in chemischen Reaktionen umgesetzt werden. Vergleichen Sie einfach mal die Energie, die Sie brauchen, wenn Sie 100 Milliliter Wasser schütteln, mit der Energie, die frei wird, wenn Sie 100 Milliliter Benzin verbrennen oder die Sie brauchen, um 100 Milliliter Wasser in Wasserstoff und Sauerstoff aufzuspalten. Vergleichen Sie es gedanklich – probieren Sie es bitte nicht aus! Kleiner Tip: Mit den 100 Millilitern Benzin fährt ein Auto ungefähr 1500 Meter weit. Beim Verschütteln wird die Energie aber auch viel zu zufällig (und damit als Wärme) auf alle Wassermoleküle verteilt: Würde man dem Wasser durch sehr intensives Schütteln extrem viel Energie zuführen, dann würden die Wassermoleküle einfach verdampfen und nicht angeregt werden. Man kann auch sehen, dass das nicht funktioniert: Wenn man die Elektronen von Wassermolekülen durch Schütteln in angeregte Zustände bringen könnte, dann müsste Wasser bei sehr intensivem Schütteln anfangen zu leuchten. Das hat offensichtlich irgendwann jemand versucht, Frau Munns zu erklären, denn an anderer Stelle in ihrem Text schreibt sie nun, durch das Schütteln würde Sauerstoff mit dem Wasser vermischt, so dass dessen Elektronen die höheren Zustände besetzen. Das bringt uns direkt zu…

Problem 2: Frau Munns ist nach ihrem Text offenbar nicht klar, dass es ein Unterschied ist, ob höhere Energiezustände durch die Anregung von Elektronen aus niedrigeren Zuständen desselben Moleküls besetzt werden oder durch zusätzliche Elektronen aus anderen Molekülen. Tatsächlich schreibt sie, mit jedem Verdünnungsschritt würden zusätzliche Zustände besetzt. Elektronen sind aber negativ geladen, und die Zahl der Elektronen, die ein Molekül im neutralen Zustand enthält, ist durch die positiven Ladungen in den Atomkernen festgelegt. Die Moleküle müssten also immer stärker ionisiert, also negativ aufgeladen werden. Das Wassermolekül H2O kann jedoch nicht einmal ein einziges zusätzliches Elektron an sich binden. Wenn Wasser Ionen bildet, spaltet es sich in ein positives H+ und ein negativ geladenes OH – die Zahl der Elektronen ist in der Summe also immer noch konstant. Selbst Atome oder Moleküle, die mit Elektronen von außen negativ geladene Ionen bilden, tun das nur mit einer genau festgelegten Zahl von Elektronen, meist einem oder zwei. Zusätzlich angebotene Elektronen würden einfach nicht aufgenommen und hätten somit überhaupt keinen Effekt.

Problem 3: Sauerstoff gibt gar keine Elektronen ab – im Gegenteil. Wenn ein Atom oder Molekül ein Elektron an ein anderes abgibt, dann ist das eine chemische Reaktion, eine sogenannte Redoxreaktion. Molekularer Sauerstoff gehört zu den Stoffen, die in solchen Reaktionen am stärksten Elektronen aufnehmen – er gibt aber ganz sicher keine ab.

Problem 4: Was hat das Ganze mit der Ausgangssubstanz zu tun? Unabhängig davon, dass Sauerstoff keine Elektronen abgibt und Wasser keine aufnimmt, soll durch den behaupteten Prozess ja die Information von der Ursubstanz auf die Verdünnung, letztlich auf reines Wasser, übertragen werden. Die Ursubstanz kommt in der behaupteten Reaktion aber gar nicht vor. Und ehe ich Frau Munns hier auf irgendwelche Ideen bringe: Nein, Hundescheiße ist auch kein geeigneter Katalysator, um Elektronen von Sauerstoff- zu Wassermolekülen zu übertragen.

Problem 5: Welche Information soll da gespeichert sein? Frau Munns behauptet, ein Elektron könnte unendlich viele angeregte Zustände einnehmen. Sie erklärt dazu, die Zustände, die im nicht angeregten Zustand nicht von Elektronen besetzt sind, entsprächen denjenigen Verdünnungen, in denen kein Molekül der Ursubstanz mehr enthalten ist. Was unter dieser Entsprechung zu verstehen ist, erklärt sie nicht. Der einzige aus ihrem Text erkennbare Zusammenhang ist: Eine Besetzung dieser Zustände existiert in der Natur nicht, und der Wirkstoff existiert in der Verdünnung nicht, also muss beides dasselbe sein.

Problem 6: Wieviel Information soll so ein angeregtes Elektron speichern können? In den Anregungen der Wassermoleküle müsste ja zumindest irgendwie codiert sein, welche der zigtausend homöopathischen Ausgangssubstanzen denn verwendet wurde. In einem bestimmten angeregten Zustand eines Atoms oder Moleküls kann aber nur entweder ein Elektron oder kein Elektron sein. Wäre die Anzahl der im Prinzip verfügbaren Elektronen also beliebig, dann könnte man dennoch in jedem Zustand nur eine ja/nein-Information, also ein Bit, speichern. Frau Munns behauptet dazu, pro Atom seien unendlich vieler solcher angeregten Zustände denkbar, die jeweils eine solche Information tragen könnten. Rein rechnerisch stimmt das, aber der höchste denkbare Anregungszustand wäre natürlich, dass das Elektron sich ganz aus dem Atom löst und frei herumfliegt. Je höher der Anregungszustand, desto kleiner der Unterschied zu einem freien Elektron. Durch Unschärferelation und Tunneleffekt würde kein Elektron sehr lange in einem solchen extrem hohen Anregungszustand bleiben, sondern einfach davonfliegen, womit eine darin gespeicherte Information verloren wäre. Und damit sind wir auch schon bei…

Problem 7: Die Lebensdauer dieser Information. Offenbar auf Grund von Kritik an früheren Versionen des gleichen Textes spricht Frau Munns selbst das Problem an, dass Elektronen, die in höhere Zustände angeregt wurden, von allein nach kurzer Zeit wieder in den Grundzustand zurückfallen würden. An dieser Stelle nimmt sie also selbst offenbar wieder an, dass die höheren Zustände durch angeregte Elektronen aus dem eigenen Molekül besetzt werden und nicht wie zuvor erwähnt durch zusätzliche. Aus dem resultierenden Dilemma redet sie sich heraus, indem sie erklärt, die Energie des Schüttelns (jetzt ist es wieder die Energie des Schüttelns, nicht die der Elektronen aus dem Sauerstoff) bliebe aufgrund des Energieerhaltungssatzes in den angeregten Elektronenzuständen erhalten. Vom Energieerhaltungssatz, der von Freie-Energie-Jüngern gerne mal ganz vergessen wird, kennt sie aber offensichtlich auch nicht mehr als den Namen. Sonst müsste sie wissen, dass dieser nur für abgeschlossene Systeme gilt, in die keine Energie hinein und aus denen keine heraus gelangen kann. Ein Wassermolekül im Wasser ist aber alles Andere als ein abgeschlossenes System: Es kann Energie nicht nur über elektromagnetische Strahlung aufnehmen und abgeben, sondern auch ganz direkt als Bewegung/Wärme an die umliegenden Moleküle. Der Versuch von Frau Munns, sich vor einem physikalisch gut begründeten Einwand zu retten, offenbart am Ende also nur ihren krassen Mangel an Grundlagenwissen.

Im letzten Satz schreibt Frau Munns: „Ich glaube, dieser neue Einblick in die Physik des Verschüttelungsprozesses wird zu dem Ziel beitragen, zweifelsfrei zu beweisen, dass homöopathische Medizin tatsächlich ein valides Medizinsystem ist, wenngleich auf Physik auf der Quantenskala basierend.“ Tatsächlich beweist ihr Text einmal mehr die absurden Verdrehungen von Physik, die Homöopathen beim Versuch bemühen, ihr noch absurderes Pseudomedizinsystem mit elementaren Naturgesetzen unter einen Hut zu bringen.

Immerhin muss man Frau Munns eines zugute halten: Aus ihrem Text ist deutlich zu erkennen, dass sie den hanebüchenen Unsinn, den sie verbreitet, tatsächlich auch selbst glaubt. Niemand, der absichtlich versuchte, seine Leser durch pseudophysikalische Phrasen und sinnfreie Gleichungen zu blenden, würde dermaßen erschreckende eigene Wissenslücken so offen zu Tage treten lassen.

 

Dr. Axel Stoll hat auch tot noch keine Ahnung von Physik…

Eigentlich sollte mein nächstes Posting ja die Fortsetzung des Vortragsposts sein und auf Quantenquark in der braunen Esoterik eingehen, aber da das hier gerade aktuell hereinkommt, schiebe ich einen kurzen Kommentar dazwischen. Mit einer Form von brauner Esoterik hat es ja auch zu tun. Und weiter unten im Text möchte ich einem Missverständnis vorbeugen, das sich die Freie-Energie-Spinner zunutze machen könnten.

Axel Stoll hat offensichtlich immer noch keine Ahnung von Physik. Das ist an sich nicht sonderlich überraschend, denn er ist ja inzwischen seit zweieinhalb Jahren tot…

Der Hintergrund ist natürlich der Film „Ein Interview mit Dr. Axel Stoll“, zu dem ich damals ein paar Expertenkommentare abgegeben hatte.

Stoll hatte in dem Interview behauptet, in geheimen Nazi-Laboren sei eine beispiellos harte Legierung erzeugt worden, indem unterschiedliche Metalle bei Temperaturen nahe am absoluten Nullpunkt unter extremem Druck verquetscht habe – Quetschmetall, wie er das nannte. Das ist natürlich Blödsinn: Bei Temperaturen nahe des absoluten Nullpunkts werden Festkörper (auch Metalle) immer weniger elastisch, und wenn man sie dann großen Kräften aussetzt, bekommt man keine harte Legierung, sondern nur Brösel. Das funktioniert sogar schon bei den vergleichsweise milden -196°C (und somit 77K über dem absoluten Nullpunkt) von flüssigem Stickstoff:

Viel spannender als das ist aber der Spektrum.de-Artikel, der in dem Tweet verlinkt ist. Da ist es also einer Forschergruppe gelungen, in einem sehr kleinen, schwingenden Bauteil die Schwingungen extrem zu reduzieren, was man als Kühlung bezeichnet. Dazu setzten sie sogenannte gequetschte Mikrowellen ein. Das sind elektromagnetische Wellen, bei denen unterschiedliche Frequenzen so trickreich überlagert sind, dass unvermeidliche quantenmechanische Störungen nicht die übertragene Energie beeinflussen, sondern die Wellen nur verschieben. Gequetscht war also nicht das Metall, sondern die Wellen, mit denen die Schwingungen des Metalls gebremst wurden (und auch für die ist der Begriff „gequetscht“ irgendwie wenig erhellend).

Das Experiment ist interessant für Präzisionsmessungen, für die Erforschung von Quanteneffekten in mechanischen Schwingungen und letztlich auch für eine denkbare Form von Speichern in Quantencomputern. Leider könnte der Artikel auch einen falschen Eindruck erwecken: Der Titel „Kälter als die Quanten erlauben“ kann nämlich den Eindruck entstehen lassen, es sei gelungen, dem Bauteil die Nullpunktsenergie seiner Schwingungen zu entziehen. Die Nullpunktsenergie wird aber in der „Freie-Energie“-Szene gerne als Begründung dafür missbraucht, dass es doch möglich wäre, ein Perpetuum mobile zu bauen. Nun brauchte man natürlich auch in diesem Experiment um viele Größenordnungen mehr Energie für den Betrieb der Anlage, als man dem Bauteil entzogen hat, aber Leute wie Claus Turtur sind ja gerne kreativ in ihrer Interpretation von Messungen…

Nun geht es bei der Quantengrenze, unter die man das Bauteil hier abgekühlt hat, aber gar nicht um die Nullpunktsenergie, sondern um die sogenannte quantum back action. Dafür gibt es offenbar noch keine einheitliche deutsche Übersetzung – ich finde entweder einfach nur „Rückwirkung“ oder, weniger einfach, „Quantenstrahlungsdruckrauschen“. Deshalb hat sich der Autor des Spektrum-Artikels offenbar ein bisschen darum gedrückt, diese „niedrigste mögliche Energiemenge“ näher zu bezeichnen. Etwas vereinfacht geht es um den (wie man jetzt gefunden hat nur fast) unvermeidlichen, unkontrollierten Austausch von Energie zwischen Messgerät und beobachtetem Objekt durch Quantenfluktuationen. Das ist eine der quantenmechanischen Grenzen bei Messungen, und quantenmechanisch ist das Kühlen auch eine Form von Messung. Wenn man die trickreich umschiffen kann, dann ist das allemal einen Artikel wert.

Es liegt mir auch fern, mit dieser Anmerkung Spektrum-Autor Lars Fischer zu kritisieren. Er ist meines Erachtens neben Florian Freistetter einer der besten Wissenschaftsblogger/-journalisten in deutscher Sprache. Als jemand, der hobbymäßig ab und zu mal ein paar Zeilen zu grenzwissenschaftlichen Themen zusammentippt, kann ich mich vor dem, was er früher auf Fischblog und jetzt auf Spektrum geschrieben hat und schreibt, nur verneigen.

Nur falls Ihnen nun irgendwo jemand begegnet, der meint, es sei doch jetzt sogar der Mainstreamwissenschaft gelungen, Bauteilen ihre Nullpunktsenergie zu entziehen: Die Antwort ist nein. Man kommt mit dieser Methode nur näher an die Nullpunktsenergie heran, die im Originalartikel als „motional ground state“ bezeichnet ist. Das war bislang nur bei Bauteilen möglich, die mit extrem hohen Frequenzen schwingen und dadurch auch eine relativ hohe Nullpunktsenergie haben. Mit dieser neuen Methode schafft man das dann auch bei Bauteilen mit niedrigerer Frequenz, wo das bislang durch Quanteneffekte bei der Messung/Kühlung nicht möglich war.

Insofern – alles gut, Ihr Physikbuch stimmt noch. Man kann weder Objekten ihre Nullpunktsenergie entziehen noch Quetschmetalle herstellen.

 

Es geht auch ohne Quark: Lydia Benecke demontiert die Teamgeist-Quantenverschränkung aus der FAZ

Ende Dezember durfte Parapsychologie-Papst Walter von Lucadou in der FAZ allerlei Quantenunsinn über Teamgeist und Zusammenarbeit in Gruppen verbreiten. Nach von Lucadou liegt das alles am quantenmechanischen Phänomen der Verschränkung, und die Zeitung mit den angeblich klugen Köpfen hat dem weder widersprochen noch auch nur halbwegs kritisch nachgefragt.

FAZ Lucadou

Das hatte ich dann schon am nächsten Tag zum Anlass genommen, um hier mal zu erklären, was es mit Verschränkung wirklich auf sich hat und warum es solche Verschränkung zwar zwischen kleinsten Teilchen, aber nicht zwischen größeren Objekten oder ganzen Menschen geben kann.

Im aktuellen Skeptiker demontiert die Psychologin Lydia Benecke Lucadous Quantengeschwurbel aus ganz anderer Perspektive. Sie erklärt die von Lucadou dargestellten Effekte aus der Perspektive der Sozialpsychologie, und plötzlich braucht man weder Zauberei noch Quantenquark, um die Leistung guter Trainer oder intuitiven Handelns im Sport zu erklären.

Das Heft mit dem äußerst lesenswerten Artikel kann man auf der GWUP-Seite bestellen oder über den dortigen Link als ePaper herunterladen.