Warum ich niemals von „Atomenergie“ spreche und Kernphysik wenig mit Kerntechnik zu tun hat

In letzter Zeit wurde der ehemalige Leiter der Henri-Nannen-Schule, die Journalistenikone Wolf Schneider, ja vor allem noch als (mit 97 Jahren tatsächlich) alter weißer Mann zur Kenntnis genommen, der sich dementsprechend zum Gendern äußert. Als ich in den 1990er Jahre in der Journalistischen Nachwuchsförderung der Adenauerstiftung war, gehörte Schneiders „Deutsch für Profis“ für Journalisten und solche, die es werden wollten, aber zur Pflichtlektüre. Ja, ich habe journalistisches Schreiben mal gelernt, auch wenn man es hier im Blog vielleicht nicht überall merkt. Die Freiheit nehme ich mir, lebt damit, ich mache das schließlich unbezahlt in meiner Freizeit. Aber, ja, ich kann sogar Schachtelsätze vermeiden, wenn es sein muss, und gelernt habe ich das nicht zuletzt aus Schneiders Buch.

Was allerdings schon damals meinen Kragen deutlich überdehnt hat, war das Kapitel „Das treffende Wort“. Einiges davon hat sich heutzutage glücklicherweise weitgehend erledigt. So schrieb er über den kindischen Begriff „Geisterfahrer“, er sei ein treffendes Wort, denn „Jeder versteht es,“ was in der Realität allenfalls für die „Jeders“ zutrifft, die mit der deutschen Sprache aufgewachsen sind. In Radiowarnungen hat sich inzwischen glücklicherweise die unmissverständliche Formulierung „kommt Ihnen ein Falschfahrer entgegen“ durchgesetzt.

Nun ist mir, wenn es nicht gerade um lebenswichtige Warnungen geht, die Wortwahl von anderen Menschen in den allermeisten Fällen ziemlich egal. Wer Verschwörungsmythen, Verschwörungsideologien und andere Verschwörungserzählungen oder gar das ganze Phänomen des Verschwörungsglaubens heute immer noch als Verschwörungstheorien bezeichnen will, weil er meint, mit dem Begriff klarzukommen, kann das von mir aus tun. Ich ziehe es vor, genauer auszudrücken, worum es mir geht, seit ich erfolglos versucht habe, für das Buch mit dem späteren Titel „Verschwörungsmythen“ sinnvoll abzugrenzen, was eine Verschwörungstheorie eigentlich sein soll. Wer seine Texte durchgendern mag, kann das von mir aus gerne tun; wenn jemand das lieber lässt, stört es mich auch nicht. Ich war dem Verlag dankbar, dass das bei meinen Teilen von „Fakt und Vorurteil“ das Lektorat für mich übernommen hat.

Problematisch wird es aber, wenn, unter Umständen sogar bewusst, ein falsches Verständnis der Sache vermittelt wird – und das gilt natürlich im besonderen Maß für den Journalismus.

In dieser Hinsicht haben sich einige von Schneider propagierte Problembegriffe leider als langlebiger und schädlicher erwiesen: „Atomwaffen, Atombomben, Atomraketen und Atomkraftwerke: Das ist die deutsche Sprache, und nichts sonst.“ Das Problem dabei ist nicht, dass Schneider von dem Sachverhalt, um den es bei diesen Begriffen geht, offensichtlich keine Ahnung hat und, wie sich das Buch liest, auch keine haben will. Das Problem ist, dass er und viele Andere in Deutschland aus ideologischen Gründen an schlicht und einfach falschen Worten festhalten, weil diese sich über die Jahrzehnte als politische Kampfbegriffe etabliert haben: „Wer sollte etwas gegen Kerne haben! Ein Grund mehr, von ‚Atomkraftwerken‘ zu sprechen und nur von ihnen.“ Wer Journalist werden will, sollte laut Schneider also etwas gegen Kernkraftwerke haben – ein höchst bedenkliches Selbstverständnis für den Leiter einer Journalistenschule.

Was ist nun aber am „Atomkraftwerk“ eigentlich falsch? Atomare Prozesse, die von der Atomphysik erforscht werden und bei denen man meinen sollte, dass dort „Atomenergie“ frei wird, die in einem „Atomkraftwerk“ genutzt wird, laufen innerhalb eines Atoms zwischen dessen Bestandteilen ab – also zwischen dem Atomkern und den ihn umgebenden Elektronen. Bei diesen Prozessen wirken praktisch ausschließlich elektromagnetische Kräfte. Im Prinzip gehört auch die Erzeugung von relativ energiereicher Röntgenstrahlung durch das Herausschießen sehr stark an den Kern gebundener Elektronen zu den atomaren Prozessen, aber das passiert in der Natur nur sehr selten. Die allermeisten atomaren Prozesse in der Natur setzen Energien in der Größenordnung weniger Elektronenvolt frei. Ein Elektronenvolt ist die Energie, die ein einzelnes Elektron hat, wenn man es mit einer Spannung von einem Volt beschleunigt – das ist also sehr, sehr wenig. Die Strahlung, die bei solchen Prozessen entsteht, umfasst im Wesentlichen sichtbares Licht und Infrarot.

Was in einem Kernreaktor oder bei der Explosion einer Kernwaffe passiert, ist die Spaltung von Atomkernen in Form einer Kettenreaktion – auf die Unterschiede der beiden Fälle und warum es viel, viel einfacher ist, einen Reaktor als eine Kernwaffe zu bauen, will ich an dieser Stelle nicht eingehen. Das Prinzip ist aber jeweils, dass die bei der Spaltung eines Kerns freigesetzten Neutronen in der Folge den nächsten Kern spalten. Auch nach der Spaltung kommt es zu radioaktiven Zerfällen, also zur Umwandlung instabiler Kerne in stabilere unter Aussenden von Strahlung.  Diese Prozesse laufen also innerhalb von Atomkernen zwischen deren Bestandteilen, den Protonen und Neutronen ab. Dabei treten auch sehr starke elektromagnetische Kräfte auf, aber entscheidend für diese Prozesse sind vor allem die starke und die schwache Kernkraft, die ansonsten überhaupt keine Rolle spielen. Bei radioaktiven Zerfällen werden typischerweise Energien in der Größenordnung von einer Million Elektronenvolt frei, bei einer Kernspaltung sind es 200 Millionen Elektronenvolt. Entsprechend mehr Energie hat auch die entstehende Strahlung, deren elektromagnetischer Anteil als Gammastrahlung bezeichnet wird. Zudem können hoch beschleunigte Teilchen (Alpha- und Betastrahlung) freigesetzt werden. Über diese Arten von Strahlung habe ich hier schon des Öfteren geschrieben. Bei nuklearen Wechselwirkungen handelt es sich also um völlig andere Prozesse als bei atomaren, und die freigesetzten Energien sind in gar nicht vergleichbaren Größenordnungen. Natürlich wird sich nach einer solchen Kernumwandlung, wenn sich die Ladung des Kerns geändert hat, auch die Elektronenhülle entsprechend anpassen und neu ordnen. Dem nuklearen Prozess folgt dann also ein atomarer, der aber für die Gesamtbilanz in der Regel vollkommen unbedeutend ist.

Was Radioaktivität eigentlich ist und wo sie außerhalb der Kernenergie noch eine Rolle spielt, habe ich kürzlich in einem Vortrag gemeinsam mit der Geowissenschaftlerin Catharina Heckel erklärt.

Mit nuklearen Prozessen beschäftigt sich die Kernphysik, die dadurch vor allem Berührungspunkte zur Teilchenphysik hat, weil die Protonen und Neutronen, die im Kern interagieren, eben subatomare Teilchen sind – auch wenn sie aus heutiger Sicht nicht mehr wirklich als elementar gelten. Die Atomphysik, die sich mit atomaren Vorgängen, also vor allem der Elektronenhülle des Atoms, beschäftigt und den Kern nur als ein weitgehend unveränderliches Objekt betrachtet, ist dagegen eng verwandt mit der Molekülphysik, bei der es um Elektronenhüllen mit mehreren Kernen darin geht. Außerdem hängt sie stark zusammen mit der Festkörperphysik, die sich mit Strukturen beschäftigt, in denen sich die Elektronenhülle vieler Atome überlagert. Daneben hat die Atomphysik aber vor allem große Überschneidungen mit der Chemie. So wie man bei meinem früheren Forschungsgebiet nur schwer abgrenzen kann, ob es sich um Kernphysik oder Teilchenphysik handelt, ist es bei der Atom- und Molekülphysik manchmal schwer abgrenzbar, wo die Grenze zur physikalischen Chemie verläuft.

Streng genommen wäre ein Beispiel für korrekt so bezeichnete Atomenergie die Energie, die frei wird, wenn in einem Kohlekraftwerk die im Kristallgitter der Kohle lose aneinander gebundenen Kohlenstoffatome mit Sauerstoff zu Kohlendioxid reagieren. Eigentlich ist also das Kohlekraftwerk ein Atomkraftwerk. Ein Kernkraftwerk als Atomkraftwerk zu bezeichnen, ist hingegen schlicht und einfach falsch. Es ist auch nicht einfach nur harmlos falsch: Die falschen Begriffe gehen einher mit weitgehendem Unwissen über die Vorgänge und einem daraus resultierenden diffusen Grusel und irrationaler Panik, die von Journalisten wie Schneider lange Zeit systematisch befeuert wurde. Natürlich ist es sinnvoll, sich bei einer Technik, die mit Gefahren verbunden ist (das ist so ziemlich alles in unserem Leben) der Risiken bewusst zu sein – sich Risiken bewusst zu sein, ist aber so ziemlich das Gegenteil von irrationaler Panik. Und natürlich kann man diesen Risiken auch unterschiedliche Wertigkeiten zuschreiben – aber zumindest sollte man das nicht auf der Basis systematisch verzerrter Vorstellungen tun.

Wenn Begriffe wie Atomenergie oder Atomkraftwerk also falsch sind, warum werden sie dann eigentlich benutzt? Das hat ganz wesentlich historische Gründe, und es hängt stark mit der „Atombombe“ zusammen. Die ist in gewisser Weise gleich in doppelter Hinsicht falsch bezeichnet, weil es sich beim größten Teil der einsetzbaren Kernwaffen nicht um Bomben handelt. Strategische Kernwaffen sind heute vor allem ballistische Flugkörper, die mit Raketen nach oben geschossen werden, die dichteren Atmosphärenschichten verlassen und durch die Erdanziehung auf ihr Ziel fallen; oder es sind Marschflugkörper, die eine Flugbahn ähnlich eines Flugzeugs haben und am Ziel einschlagen. Von den rund 1500 strategischen Sprengköpfen der USA sind nur noch 100 tatsächlich Bomben. Bei taktischen Kernwaffen kommen noch Artilleriegranaten, Wasserbomben, Torpedos und nukleare Landminen hinzu.

Als 1945 der Angriff auf Hiroshima die Möglichkeiten der Kernspaltung erstmals ins Bewusstsein breiterer Bevölkerungskreise brachte, gab es an Kernwaffen aber nur Bomben. Die Kernreaktoren, die es zu diesem Zeitpunkt gab, konnten noch keinen Strom erzeugen, sondern dienten vor allem der Forschung und der Produktion von waffentauglichem Plutonium. Einen etablierten Forschungszweig namens Kernphysik gab es 1945 auch noch nicht, weil man vor der Entdeckung der Kernspaltung 1938 noch kaum Möglichkeiten gehabt hatte, viel zur inneren Struktur von Kernen zu forschen. Die entsprechenden Wissenschaftler wie Lise Meitner, Enrico Fermi oder Edward Teller wurden daher einfach der Atomphysik zugerechnet, die viele ähnliche experimentelle und theoretische Methoden benutzte und selbst noch eine junge Disziplin war. Schließlich war gerade mal seit einer Generation halbwegs unumstritten, dass es Atome überhaupt gab.

Als das Phänomen Kernspaltung erstmals für ein Laienpublikum benannt werden musste, war der Unterschied zwischen atomaren und nuklearen Prozessen also für die allermeisten Menschen völlig unverständlich und dem Rest noch ziemlich egal. Als Relikt aus dieser Zeit gibt es bei der UN bis heute die International Atomic Energy Agency (IAEA). Dass sich im Englischen, Französischen und Spanischen später der zutreffende Begriff nuclear (oder heißt es vielleicht doch nucular…) durchgesetzt hat, im Deutschen und Russischen aber Atom-, kann man für Zufall halten. Dass aber gerade in Deutschland die „Anti-Atom-Bewegung“ immer versucht hat, die Kernenergienutzung mit der „Atombombe“ und den Schrecken von Hiroshima in Verbindung zu bringen (warum das Eine in Wirklichkeit wenig mit dem Anderen zu tun hat, wäre hier auch mal einen Artikel wert), hat zweifellos die Wortbildung beeinflusst, wie sich in dem 1986 erschienenen Buch von Wolf Schneider widerspiegelt.

„Das Atom“ war seit den 1960er Jahren ein Kampfbegriff.

Eigentlich wollte ich an dieser Stelle fertig sein, aber wie es mir hier so oft ergeht, drängt sich gerade ein weiteres Missverständnis auf, mit dem ich noch schnell aufräumen möchte. Wer sich nur für den ersten Teil der Überschrift interessiert hat, darf hier also gerne aussteigen.

Wenn nämlich nun die Kernenergie auf kernphysikalischen Prozessen beruht, heißt das dann, dass man als Kernphysiker nur (oder wenigstens überwiegend) in der Nuklearindustrie tätig sein kann und dementsprechend schon aus Karriereinteresse der Kernenergie positiv gegenüberstehen muss? Oder, wenn man umgekehrt als junger Mensch einen Beitrag zu einer besonders sicheren, rückstandsarmen Kernenergie der Zukunft leisten will, sollte man dann unbedingt Physik studieren und sich in Kernphysik spezialisieren? Letzteres muss nicht unbedingt unter diesem Namen stattfinden, weil in Deutschland Institute oder Studiengänge für Kernphysik (oder eben auch für Atomphysik) zum Teil anders benannt wurden, um nicht mit der Kernenergie in Verbindung gebracht zu werden. So heißt das bedeutendste Forschungszentrum für Kernphysik in Deutschland „Helmholtzzentrum für Schwerionenforschung“ – und ist auch sonst kaum jemandem außerhalb der Physik bekannt. Die Forschung dort, die vor allem die Bestandteile und Kräfte innerhalb von Atomkernen bei unterschiedlichen mehr oder weniger extremen Energien untersucht, hat auch wenig bis nichts mit Kernenergienutzung zu tun. Dasselbe gilt für das Max-Planck-Institut für Kernphysik in Heidelberg sowie für die allermeisten Institute für Kernpyhsik an Universitäten – ob sie nun noch so heißen oder nicht.

Das ist nicht nur jetzt und in Deutschland so, wo das Interesse an Kernenergie mangels politischer Durchsetzbarkeit ohnehin nachgelassen hat. Ich konnte in den 1990er Jahren in Frankfurt noch eine Vorlesung zur „Physik und Technologie der nichtkonventionellen Energiegewinnung“ hören, die der Dozent, im Hauptberuf bei den Siemens Nuklearbetrieben in Hanau beschäftigt, durch sein offensichtliches Sendungsbewusstsein für die Kernenergie innerhalb weniger Wochen von 15 auf zwei Teilnehmer dezimiert hatte. Von den Inhalten hatten allenfalls die absoluten Grundlagen ganz am Anfang etwas mit Kernphysik zu tun. Die eigentlich kernphysikalischen Fragen für die Kernenergie, nämlich was mit welcher Wahrscheinlichkeit passiert, wenn ein Teilchen, vor allem ein Neutron, mit welcher Energie auf welchen Kern trifft (falls Ihr mal den Begriff Wirkungsquerschnitt lest, genau das ist das), wurden zu einem großen Teil schon während des zweiten Weltkriegs im Manhattan Project beantwortet. Natürlich gab es dazu auch noch später Forschung und vieles wurde noch einmal viel genauer, anderes auch wirklich zum ersten Mal gemessen, aber das sind nicht mehr die Fragen, die für die Weiterentwicklung der Kernenergie (und für den Umgang mit den Reststoffen) heute interessant sind und sich zum Beispiel in Studiengängen zur Kerntechnik wiederfinden. Dazu sind Fragen der Materialforschung, des ganz klassischen Anlagenbaus, der Schwermetallchemie, der Verfahrenstechnik oder, wenn man über den Bereich der Kernspaltung hinaus zur Kernfusion blickt, der Plasmaphysik, viel, viel interessanter. Zum Strahlenschutz müssten Onkologen, Zellbiologen oder Epidemiologen viel mehr sagen können als Kernphysiker – wenn wir uns mit dem Thema beschäftigen, dann eher zum Eigenschutz, weil man sich im Labor bei der Forschung an ganz anderen Themen eben auch vor Strahlung schützen muss. Die kernphysikalische Frage, hinter wie vielen Millimetern Blei, Wasser oder Beton man nun wie gut vor der Strahlung geschützt ist, ist aber schon sehr lange bekannt und eher ein Thema für ein Laborpraktikum im sechsten oder siebten Studiensemester.

Dass ich mich auch für Kernenergie interessiere und gelegentlich darüber schreibe, hat also wenig damit zu tun, dass ich meine Diplomarbeit am Frankfurter Institut für Kernphysik geschrieben habe. Was ich hier so beschreibe, sollte jeder andere Physiker auch wissen. Es machen sich nur relativ wenige die Mühe, es allgemeinverständlich zu erklären, und das finde ich schade.

 

 

 

Von Teilchenschauern zu alten Tüchern

Bevor ich mich hier wahrscheinlich doch bald wieder mit dem bräunlichen Schimmer irgendwelcher Impfgegner und Querdenkschwurbler beschäftigen muss, will ich auf keinen Fall versäumen, mein Versprechen aus dem letzten Post einzulösen und mir die Radiocarbondatierung (oder C14-Methode) näher anzusehen. Dabei fangen wir tatsächlich mit etwas an, das vom Himmel gekommen ist und enden mit einem, der zum Himmel gefahren sein soll, nachdem er seine Abdrücke auf einem Tuch hinterlassen hat…

Was ist eigentlich Kohlenstoff-14?

Die Kerne unserer Atome setzen sich aus Protonen und Neutronen zusammen. Die positiv geladenen Protonen bestimmen die Ladung des Kerns – und damit auch, wie viele Elektronen zur Hülle des Atoms gehören müssen, damit es elektrisch neutral ist. Praktisch die gesamten chemischen Eigenschaften des Atoms sind also durch die Zahl seiner Protonen bestimmt. Die Neutronen, mit einer Masse praktisch gleich der von Protonen, aber elektrisch neutral, tragen zu den Eigenschaften des Atoms nur eben diese Masse bei. Kernphysikalisch machen es die Neutronen möglich, dass die Protonen, deren positive Ladungen sich ja abstoßen, im Kern einen gewissen Abstand wahren, aber trotzdem miteinander verbunden bleiben können. Die starke Kernkraft, die Atomkerne zusammenhält, reicht ja nur von einem Teilchen zum nächsten. Man hat die Neutronen daher in den Anfängen der Kernphysik mit einer Art Kleber verglichen. Da die Masse der Elektronenhülle vernachlässigbar ist, wird die Masse eines Atoms durch die Zahl der Protonen plus Neutronen im Kern bestimmt, die chemischen Eigenschaften, wie schon erwähnt, nur durch die Protonen. Die Gesamtzahl von Protonen und Neutronen im Kern bezeichnet man als die Massenzahl, und genau das ist die 14 im Kohlenstoff-14, geschrieben auch als 14C (normalerweise mit hochgestellter 14).

Kerne mit gleich vielen Protonen gehören daher zum selben chemischen Element, und die Zahl der Protonen im Kern ist nichts weiter als die Ordnungszahl des Elements im Periodensystem. Wenn Kerne sich nur in ihrer Neutronenzahl unterscheiden, spricht man von unterschiedlichen Isotopen eines Elements. Es gibt bestimmte Verhältnisse von Protonen zu Neutronen, in denen Isotope langfristig stabil sind. Bei relativ kleinen Kernen findet man oft nur ein oder zwei solcher stabilen Isotope pro Element, und die Zahlen der Protonen und Neutronen sind sich dann meist sehr ähnlich. Beim Kohlenstoff mit seinen sechs Protonen gibt es stabile Isotope mit sechs oder sieben Neutronen, also mit den Massenzahlen 12 und 13. Hat ein Kern ein von der Stabilität abweichendes Verhältnis von Protonen zu Neutronen, dann wird er sich früher oder später (wobei später je nach Kern auch Milliarden von Jahren bedeuten kann) umwandeln, typischerweise indem ein Proton zu einem Neutron wird oder umgekehrt. Beide Formen dieser Umwandlung kamen schon im letzten Artikel beim Kalium-40 vor.

Beim Kohlenstoff ist das bedeutendste instabile Isotop der Kohlenstoff-14, bei dem zu den sechs Protonen, die es zum Kohlenstoff machen, acht Neutronen hinzukommen. Das Isotop ist relativ langlebig: Erst nach 5730 Jahren ist die Hälfte der Kohlenstoff-14-Kerne zerfallen. Anders als beim Kalium-40 gibt es hier auch nur einen Umwandlungsprozess, durch den der Kohlenstoff-14 wieder abgebaut wird, und der ist relativ naheliegend: Eins der Neutronen wandelt sich in ein Proton um, wodurch ein stabiler Kern mit je sieben Protonen und Neutronen entsteht, Stickstoff-14. An dieser Stelle kommt wieder die im letzten Artikel schon erwähnte Erhaltung der Quantenzahlen ins Spiel: Da die positive Ladung des Protons nicht einfach aus dem Nichts kommen kann, muss gleichzeitig noch eine negative Ladung freigesetzt werden, und das leichteste Teilchen mit negativer Ladung ist ein Elektron. Die Zahl der leichten Teilchen ist aber ebenfalls erhalten, so dass als Ausgleich für das Elektron noch ein ungeladenes leichtes Antiteilchen, ein Antineutrino, abgegeben werden muss, das aber in der Regel nicht direkt gemessen werden kann. Diese Art der Kernumwandlung, Neutron wird zu Proton, Elektron und Antineutrino, bezeichnet man als Betazerfall (β-, um genau zu sein), das beschleunigte Elektron, das dabei wegfliegt, als Betastrahlung.

Wie entsteht Kohlenstoff-14?

Wenn von einer Menge Kohlenstoff-14 nach 5700 Jahren schon die Hälfte in Stickstoff umgewandelt ist, sollte klar sein, dass der Kohlenstoff-14, den wir heute finden, nicht wie Kalium-40 ein Überbleibsel von der Entstehung der Erde sein kann. Das Isotop muss also irgendwie ständig neu entstehen. Der Prozess, in dem Kohlenstoff-14 produziert wird, sieht auf den ersten Blick aus wie die direkte Umkehrung des Zerfalls: Kohlenstoff-14 entsteht nämlich aus Stickstoff-14. Das kann aber natürlich nicht von allein passieren, denn ein Zerfall führt ja immer zum energetisch günstigeren, in der Regel stabileren, Zustand. Wenn sich so ein Prozess (im Ergebnis) umkehrt, muss das durch irgendetwas angetrieben werden, und das sind in dem Fall Neutronen.

Freie, also nicht in einem Atomkern gebundene Neutronen sind ebenfalls instabil. Sie zerfallen schon mit einer Halbwertszeit von 15 Minuten zu einem Proton (und natürlich auch wieder einem Elektron und einem Antineutrino) – außer sie treffen vorher auf einen Atomkern, in den sie sich einbauen und so in einen energetisch stabileren Zustand geraten können. Neutronen gehören somit auch zum gefährlicheren, weil schwer abzuschirmenden, Teil der radioaktiven Strahlung. Für technische Zwecke erzeugt man Neutronen in größerer Anzahl am einfachsten durch Kernspaltung in einem Reaktor. Wenn nur kleinere Neutronenzahlen benötigt werden oder ein Reaktor aus politischen Gründen unerwünscht ist, kann man Neutronen auch aus Atomkernen abspalten, indem man diese mit hochenergetischen geladenen Teilchen aus einem Beschleuniger beschießt. Das gleiche passiert in der hohen Atmosphäre, wenn energiereiche Strahlung aus den Tiefen des Alls auf die Atomkerne der Atmosphäre trifft und diese zum Teil einfach zertrümmert. Teilweise können die entstandenen Kernfragmente in Folgekollisionen wieder weitere Kerne zerstören, so dass neben vielen geladenen Teilchen auch Neutronen aus den Atomkernen freigesetzt werden.

Da die Atmosphäre unterhalb einer gewissen Höhe zum größten Teil aus Stickstoff besteht, ist die Wahrscheinlichkeit groß, dass der erste Atomkern, mit dem ein solches freies Neutron reagieren kann, ein Stickstoffkern ist. Stickstoffkerne bestehen aus sieben Protonen und fast immer sieben Neutronen. Naiverweise könnte man erwarten, dass ein solcher Stickstoff-14-Kern das Neutron einfach schluckt und zu einem ebenfalls stabilen Stickstoff-15-Kern wird. Auch hier führen aber wieder Erhaltungssätze für Impuls und Drehimpuls in Verbindung mit der bei der Aufnahme des Neutrons frei werdenden Energie dazu, dass wieder ein Teilchen abgegeben wird, und das ist in diesem Fall eins der Protonen aus dem Kern. Effektiv wird im Kern also einfach ein Proton durch das Neutron ersetzt (eine sogenannte n-p-Reaktion), und der resultierende Kern – Kohlenstoff-14 – mit sechs Protonen und acht Neutronen ist zwar nicht stabil, aber energetisch schon günstiger als der Anfangszustand mit dem freien Neutron.

Kohlenstoff-14 entsteht in gewissen Höhen (ganz grob da, wo auch Flugzeuge fliegen) also ständig, einfach durch Prozesse, die von der kosmischen Strahlung ausgelöst werden. Aufgrund seiner langen Halbwertszeit hat das Isotop dann viel Zeit, sich zu verteilen, bevor ein nennenswerter Teil davon sich wieder zu Stickstoff-14 umgewandelt hat. Gleichzeitig unterscheidet es sich in fast allen chemischen Reaktionen nicht von sonstigem Kohlenstoff (warum „fast“ wäre mal ein Thema für einen anderen Artikel). Es reagiert in der Regel zu Kohlendioxid, wird mit dem anderen Kohlendioxid von Pflanzen und Bakterien in Biomasse eingebaut und in der Folge auch von Tieren gefressen. Ganz grob kann man sagen, dass alles, was lebt oder kürzlich noch gelebt hat, aufgrund seines Stoffwechsels den gleichen Anteil von Kohlenstoff-14 an seinem enthaltenen Kohlenstoff hat. Das gilt auch für unsere Nahrung und für unseren Körper.

Gehört das auch zur natürlichen Strahlenbelastung?

Wie wir schon im mehrfach erwähnten letzten Artikel gesehen haben, hat Betastrahlung in festem oder flüssigem Material eine so geringe Reichweite, dass sie für Menschen nicht relevant ist, wenn sie außerhalb des Körpers entsteht. Interessant sind also nur die Zerfälle von Kohlenstoff-14, die im Körper selbst passieren. Die Zahl dieser Zerfälle (gemessen in Becquerel, also Zerfällen pro Sekunde) ist interessanterweise sehr ähnlich der, die man auch beim Kalium-40 hat. Die biologisch relevante Strahlendosis durch Kohlenstoff-14 ist allerdings viel kleiner als durch Kalium-40, weil pro Zerfall nur etwas mehr als ein Zehntel an Energie frei wird. Dementsprechend richten die herumfliegenden Elektronen auch viel weniger Schaden an. Kohlenstoff-14 ist also ein Teil der natürlichen Strahlenbelastung, macht davon aber nur einen winzigen Anteil aus.

Wie kann man das zur Altersbestimmung nutzen?

Für eine Altersbestimmung muss die Uhr ja irgendwann anfangen zu ticken. Es muss einen Zeitpunkt geben, wenn für ein Material der Anteil eines Isotops oder das Verhältnis von zwei Isotopen eingefroren werden, so dass man anschließend messen kann, wieviel seitdem zerfallen ist. Im Fall der Kalium-40-Methode war das das Zerfallsprodukt Argon-40, das beim Auskristallisieren eines Gesteins noch einen Anteil von null hat. Beim Kohlenstoff-14 nutzt man die Tatsache, dass in lebenden Organismen der Kohlenstoff über den Stoffwechsel mit der Außenwelt ausgetauscht wird und dadurch der Kohlenstoff-14-Anteil am Kohlenstoff im Organismus dem der Außenwelt entspricht. Wenn der Kohlenstoff nicht mehr ausgetauscht wird, weil der ganze Organismus gestorben oder der Kohlenstoff fest im Holz einer Pflanze eingebaut ist, dann kann kein neuer Kohlenstoff-14 aus der hohen Atmosphäre mehr hineinkommen. Der enthaltene Kohlenstoff-14 wird dann langsam zu Stickstoff zerfallen und aufgrund der abweichenden chemischen Eigenschaften von Stickstoff in der Regel entweichen. Der Anteil von Kohlenstoff-14 am Gesamt-Kohlenstoff im Material wird sich nach 5730 Jahren halbiert haben, der Rest nach weiteren 5730 Jahren noch einmal halbiert… und so weiter.

Wenn man den Anteil des Kohlenstoff-14 am Gesamtkohlenstoff bestimmt und ins Verhältnis zum ursprünglichen Anteil setzt, wird es also recht einfach, das Alter von biologischem Material zu bestimmen. Das funktioniert wieder am besten, wenn der Zeitraum ungefähr die Größenordnung der Halbwertszeit von 5730 Jahren hat – in der Praxis von einigen hundert bis einigen zehntausend Jahren.

Wie misst man das eigentlich?

Bis hierhin findet man das alles noch relativ häufig erklärt. Die meisten Beschreibungen der Methode gehen dann aber recht flott über die Frage hinweg, wie man den Kohlenstoff-14-Gehalt eines Materials denn tatsächlich misst. Für mich als experimentellen Kern-/Teilchenphysiker (das weiß bei meinem damaligen Forschungsfeld keiner so genau, wozu wir eigentlich gehören) ist aber gerade das spannend.

Die trickreiche und technisch eher einfache Methode ist, die Zerfälle von Kohlenstoff-14 zu messen. Da immer derselbe Anteil der noch vorhandenen Kerne zerfällt, kann man aus der Häufigkeit von Zerfällen die Menge des vorhandenen Kohlenstoff-14 errechnen. Die Zerfälle machen sich ja durch das abgegebene Elektron, also die Beta-Strahlung kenntlich, die sich recht einfach mit einem Halbleiterdetektor oder altmodischer mit einem Proportionalzählrohr nachweisen lassen. In beiden Messgeräten nutzt man den Effekt, dass die schnell bewegten Elektronen aus den Zerfällen weitere Elektronen aus den Atomen des Gases (beim Zählrohr) oder des Halbleiters (beim Halbleiterdetektor) herausreißen können. Diese werden dann mit einer Hochspannung beschleunigt, bis wiederum sie weitere Elektronen aus den Atomen auf ihrem Weg herausreißen können, die wieder beschleunigt werden, und so weiter, bis genügend Elektronen zusammengekommen sind, dass man sie als kleines elektrisches Signal mit einem Verstärker messen kann. Solche Messungen funktionieren für den Nachweis vieler radioaktiver Stoffe sehr gut – beim Kohlenstoff-14 gibt es aber zwei Problemchen. Erstens macht Kohlenstoff-14 eben nur diese Beta-Zerfälle, bei denen sich die Energie des Zerfalls ja auf das messbare Elektron und das nicht messbare Antineutrino verteilt – und zwar in zufällig wechselnden Anteilen. Man kann dadurch nicht sagen, dass ein Elektron einer bestimmten Energie genau aus einem Zerfall von Kohlenstoff-14 kommen muss und nicht vielleicht von irgendeinem anderen Betastrahler. Man muss also sicherstellen, dass die Probe mit keinem anderen radioaktiven Material (zum Beispiel mit Kalium-40) kontaminiert ist. Das zweite Problem ist, dass Kohlenstoff-14 so langsam zerfällt. Der gesamte Kohlenstoff im Körper eines durchschnittlichen Erwachsenen (und die Eiweiße und Fette unseres Gewebes bestehen ja zu einem großen Teil aus Kohlenstoff) verursacht weniger als 4000 Zerfälle von Kohlenstoff-14 pro Sekunde, und zwar solange der Körper noch lebt und der Kohlenstoff frisch ist. In 23.000 Jahre alten Knochen ist die Aktivität nur noch  1/16 davon, und man will ja oft nur eine Probe von ein paar Milligramm Material für die Messung verwenden. Da muss man unter Umständen ziemlich lange messen, bis man eine Häufigkeit von Kohlenstoff-14-Zerfällen angeben kann. Zudem muss man den Gesamtkohlenstoffgehalt des Materials dann noch zusätzlich mit einer anderen Methode bestimmen. Das sorgt für eine Menge Ungenauigkeiten.

Wenn man es genau wissen will, bleibt einem also nichts anderes übrig, als die Atome der unterschiedlichen Isotope einzeln auszuzählen. Das geht zum Glück automatisch in einem Massenspektrometer, ist aber trotzdem im Vergleich zur Messung der Strahlung aus den Zerfällen richtig aufwendig und teuer. Die zu analysierende Materialprobe wird dabei zunächst einmal verbrannt und das entstandene Kohlendioxid dann wieder elektrisch aufgespalten, so dass sich der Kohlenstoff auf einer Metallscheibe absetzt. Beschießt man diese Metallscheibe mit beschleunigten, elektrisch geladenen Teilchen, dann kann man einzelne Kohlenstoffatome wieder von der Metalloberfläche wegreißen. Dabei werden sie in vielen Fällen ein Elektron zu viel oder zu wenig mitbekommen haben, also elektrisch geladen sein (man bezeichnet sie dann als Ionen), so dass man sie jetzt selbst in einem elektrischen Feld beschleunigen kann. In diesem elektrischen Feld wirkt jetzt auf alle gleich geladenen Ionen (und die meisten haben eben nur die Ladung von einem Elektron zu viel oder zu wenig) die gleiche Kraft. Diese gleiche Kraft wird aber die schwereren Kohlenstoff-14-Ionen weniger stark beschleunigen als die „normalen“ Kohlenstoff-12-Ionen oder den selteneren, aber ebenfalls stabilen Kohlenstoff-13. Jetzt kann man auf unterschiedliche Arten etwas tricksen, um die Ionen noch mehr zu beschleunigen – aber immer mit elektrischen Feldern. Die leichteren Ionen werden dadurch immer schneller sein als die schweren. Dann lenkt man die Ionen um die Kurve. Das geht bei beschleunigten, geladenen Teilchen recht einfach mit einem Magnetfeld, und es passiert genau das, was man naiv erwarten würde: Die schwereren Ionen werden, obwohl sie etwas langsamer sind, ein bisschen weiter aus der Kurve getragen. Die Flugbahn ist also ein Maß für die Masse der Ionen, und wenn man einfach nur zählt (das geht wieder zum Beispiel mit Halbleiterzählern oder Zählrohren), wie viele Kohlenstoffionen wo ankommen, dann weiß man, wie hoch der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff in der Probe war. Das ist dann sehr eindeutig und genau, weil man alle Anteile mit derselben Apparatur misst und Störfaktoren sehr gut ausschließen kann, aber so ein Massenspektrometer nebst Material und Personal muss man erst einmal haben.

Welche Grenzen und Probleme gibt es?

Mit dem Massenspektrometer kann man den Anteil des Kohlenstoff-14 also sehr genau bestimmen. Neben der reinen Messgenauigkeit gibt es aber noch ein paar andere Problemchen, die die Präzision der Datierung begrenzen und die leider auch in der Presse gerne benutzt werden, um die Methode insgesamt zu diskreditieren, obwohl sie in Wirklichkeit einfach nur bedeuten, dass man eben auch bei der Radiocarbondatierung wissen muss, was man tut.

Eine vielleicht etwas überraschende Quelle von Ungenauigkeiten, weil es sich um eine tausendfach benutzte physikalische Eigenschaft eines Kerns handelt, ist die Halbwertszeit von Kohlenstoff-14. Diese wird in kernphysikalischen Datenbanken angegeben als 5730 +/- 40 Jahre. Anders gesagt, man geht nach heutigem Wissen davon aus, dass die Halbwertszeit mit einer Wahrscheinlichkeit von knapp 70 % zwischen 5690 und 5770 Jahren liegen sollte. Sie kann aber auch noch ein Stück niedriger oder höher sein. Die Ursache für die auf den ersten Blick überraschende Ungenauigkeit von knapp einem Prozent bei einer so grundlegenden Größe liegt darin, dass es nicht so ganz einfach ist, die Halbwertszeit eines seltenen, langlebigen Isotops zu bestimmen. Eine Möglichkeit, Halbwertszeiten zu messen, ist, dass man die Strahlung einer Probe über einen langen Zeitraum beobachtet, um zu messen, wie sie sich verändert. Das ist offensichtlich wenig praktikabel, wenn eine richtig deutliche Veränderung erst über Jahrhunderte zu erwarten ist, zumal auch kernphysikalische Messgeräte bei Dauerbetrieb dummerweise spürbar altern. Andererseits kann man Halbwertszeiten auch bestimmen, wenn man die Menge des zu untersuchenden Isotops und die momentane Anzahl der Zerfälle sehr genau kennt. Das geht am besten, wenn die Halbwertszeiten extrem lang sind und die emittierte Strahlung sehr charakteristisch und einfach zu messen ist, wie zum Beispiel beim Zerfall von Kalium-40 zu Argon, der immer Gammastrahlung einer genau festgelegten Energie emittiert. Kohlenstoff-14 erzeugt aber nur Betastrahlung, bei der sich, wie schon erwähnt, die für einen radioaktiven Zerfall ohnehin schon kleine Energie auch noch irgendwie zwischen Elektron und Antineutrino aufteilt. Kurz gesagt, mit sehr großem Aufwand kann man solche Messungen natürlich immer irgendwie verbessern, aber das ist in diesem Fall nicht einfach. Es ist auch die Frage, wieviel Aufwand sich da lohnt, zumal die Halbwertszeit hier ja nicht die einzige Fehlerquelle ist.

Der zweite unsichere Wert bei der Radiocarbondatierung ist der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff zum Beginn des zu messenden Zeitraums, als das biologische Material gestorben ist. Oben hatte ich sehr zuversichtlich geschrieben, dieser Anteil entspricht dem der Außenwelt – nur dummerweise ist der Kohlenstoff-14-Gehalt in der Außenwelt über die Jahrhunderte nicht konstant. Seit Beginn der Industrialisierung ist das offensichtlich, weil wir ständig zusätzliches Kohlendioxid aus fossilen Energieträgern in die Umwelt emittieren, und in diesen fossilen Stoffen hatte der Kohlenstoff-14 schon sehr viel Zeit, um zu zerfallen. Die Produktion von Kohlenstoff-14 in der Atmosphäre schwankt aber auch. Sie wird ja von der kosmischen Strahlung verursacht, die ursprünglich zu einem großen Teil aus geladenen Teilchen besteht (die Neutronen entstehen dann ja erst in Kollisionen mit den Atomkernen der Atmosphäre). Wie die beschleunigten Ionen im Massenspektrometer werden aber auch die geladenen Teilchen aus dem All durch Magnetfelder abgelenkt, und da eben vor allem durch das Erdmagnetfeld. Das Erdmagnetfeld schwankt in seiner Intensität aber ständig und hat in der Erdgeschichte auch schon des Öfteren ganz ausgesetzt. Die einfachste Möglichkeit, mit dieser Form von Ungenauigkeit umzugehen, ist, die Ergebnisse der Radiocarbondatierung zu kalibrieren, indem man sie mit Materialproben abgleicht, deren Alter man über Jahrtausende bis auf das Jahr genau kennst. Damit kommt dann plötzlich eine sehr alte und ziemlich handwerkliche Methode der Altersbestimmung zu neuer Wertschätzung, nämlich die schon mindestens seit dem 18. Jahrhundert eingesetzte Dendrochronologie, auf gut Deutsch das Auszählen der regional charakteristischen Muster dickerer und dünnerer Baumringe. Dabei wird vor allem die sehr langlebige amerikanische Borstenzapfenkiefer genutzt, aber man kann sich anhand der Muster mit erhaltenem Totholz noch weiter in die Vergangenheit hangeln. Das funktioniert über ungefähr die letzten 10.000 Jahre ganz ordentlich, aber davor, vor allem in der spannenden Zeit um die Besiedelung Europas durch den Homo sapiens und das Verschwinden der Neandertaler vor rund 40.000 Jahren herum, sind die Unsicherheiten noch relativ groß.

Die dritte Unsicherheit bei der Radiocarbondatierung bezieht sich auf die Frage, inwieweit der in der jeweiligen Probe untersuchte Kohlenstoff-14 tatsächlich ein repräsentatives Überbleibsel des Objekts ist, dessen Alter man wissen will. Dass das nicht immer stimmen kann, stellt man zum Beispiel fest, wenn man den Kohlenstoff-14-Anteil in Millionen Jahre alten Kohlevorkommen bestimmt. Darin dürfte eigentlich überhaupt kein Kohlenstoff-14 mehr übrig sein. Dennoch finden sich immer wieder Spuren des Isotops in solchen Lagerstätten, meist hart an der Nachweisgrenze der eingesetzten Verfahren, aber eben nicht null. Zum Teil kann man aus diesen Spuren ein rechnerisches Alter in der Größenordnung einiger zehntausend Jahre ermitteln. Von Kreationisten wird das regelmäßig als Nachweis präsentiert, dass  wissenschaftliche Angaben über das Alter der Erde nicht stimmen könnten und dass Kohlelagerstätten vor relativ kurzer Zeit als Folge der Sintflut entstanden seien. Dazu passt natürlich nicht, dass die gemessenen Mengen des Isotops sich zwischen Lagerstätten deutlich unterscheiden.  Tatsächlich entsteht Kohlenstoff-14  zwar überwiegend, aber eben nicht ausschließlich durch kosmische Strahlung in der Atmosphäre. Wissenschaftler, die für ihre Experimente gezielt nach besonders Kohlenstoff-14-armer Kohle suchen, berichten, dass der Gehalt des Isotops stark mit der sonstigen Radioaktivität der Lagerstätten, vor allem durch Uran, korreliert. Offensichtlich können Spuren von Kohlenstoff-14 also auch durch die Strahlung aus dem Uran erzeugt werden. Hinzu kommen gegebenenfalls auch Verunreinigungen durch Kohlenstoff in Mikroorganismen, die von außen eingetretenes Kohlendioxid aus der Luft, gegebenenfalls auch noch während oder nach der Förderung, verarbeitet und auf der Kohle hinterlassen haben. Das National Center for Science Education verweist zudem darauf, dass bei den extrem geringen nachgewiesenen Mengen unter Umständen nicht einmal klar sei, ob die gemessene Strahlung überhaupt von Kohlenstoff-14 stammt. Wie schon erwähnt, kann man aus Betastrahlung nicht eindeutig ablesen, von welchem Isotop sie emittiert wurde. Unter Umständen wird also mitunter auch Strahlung aus in den Kohlelagerstätten vorkommendem Kalium-40 oder den Zerfallsprodukten von Uran und Thorium fälschlich dem Kohlenstoff-14 zugeordnet. Das kann aber eigentlich nur passieren, wenn die Messungen nicht mit dem teureren Massenspektrometer gemacht sind, weil dort ja wirklich die Kerne und nicht ihre Betastrahlung gemessen werden.

Eine Kontamination der Proben mit neuerem Material, zum Beispiel durch eine Besiedelung mit Mikroorganismen, ist aber auch bei echten Datierungen von Fundstücken immer eine Gefahr, die bedacht und minimiert werden muss. Wichtig ist dabei, dass eine unkorrigierte Verunreinigung mit Kohlenstoff-14 aus neuem Material immer dazu führt, dass eine Probe zu jung eingeschätzt wird.

Welche Grenzen haben diese Probleme?

Alle die Unsicherheiten bei Radiocarbondatierungen, die gerade erwähnt wurden, haben ein paar Gemeinsamkeiten: Sie sind messbar, sie sind (mit Ausnahme der offenbar uneinheitlichen Ursachen der winzigen 14C-Spuren in Kohle) gut verstanden und nachvollziehbar, und sie sind vor allem insgesamt ziemlich klein. Relevant sind sie trotzdem, weil eine Fehldatierung von 50 Jahren im Mittelalter oder der Antike oder von einigen Jahrhunderten in der Zeit der Neandertaler natürlich einen erheblichen Unterschied für die Wissenschaft ausmachen können.

Leider werden auch immer wieder ganz andere Größenordnungen von Fehldatierung behauptet, und ähnlich wie bei bei den Behauptungen zu Kohlenstoff-14-Spuren in Kohlevorkommen ist das Ziel, religiösen Glaubenssätzen einen pseudo-wissenschaftlichen Anstrich zu geben. Es geht dabei vor allem um das sogenannte Turiner Grabtuch, in dem nach einer nicht einmal von der katholischen Kirche selbst anerkannten Vorstellung Jesus begraben gewesen sein soll. Ein hochauflösendes Bild findet sich hier. An sich ist dazu gar nicht viel zu sagen. Kunsthistorisch handelt es sich um ein typisches Produkt der mittelalterlichen Reliquienfertigung, die ihren Höhepunkt im 13. Jahrhundert hatte und Kirchen quer durch Europa mit zentnerweise Stücken des heiligen Kreuzes, mehreren Schweißtüchern Jesu und heiligen Lanzen sowie den Gebeinen von diversen Petrussen und Paulussen versorgt hat. Die ältesten nachgewiesenen Erwähnungen des Turiner Tuchs stammen aus der Mitte des 14. Jahrhunderts, und drei voneinander unabhängige Radiokohlenstoffdatierungen geben ein Herstelldatum im 13. Jahrhundert an. Dennoch gibt es eine treue Fangemeinde von überwiegend fachfremden Personen, die sich wissenschaftlich berufen fühlen, die Entstehung des Tuchs aufgrund von (für eine Datierung völlig ungeeigneten) chemischen Methoden, fragwürdigen Pollenanalysen oder purem Anschein ins Vorderasien vor rund 2000 Jahren  zu verlegen.

Lustig wird es bei den Versuchen, die den vorgefassten Glaubenssätzen widersprechenden Radiocarbondatierungen wegzudiskutieren, beziehungsweise ihnen lächerlich große Fehler anzudichten. Ja, aus den schon erwähnten Gründen sind Unsicherheiten von 50 oder in einigen Fällen auch 100 Jahren bei Proben aus dem Mittelalter immer denkbar, wie diese aufgrund wissenschaftlicher Daten auf Wikipedia veröffentlichte (Urheber dort nachlesbar) Kalibrationskurve zeigt:

Um angeblich 2000 Jahre alte Proben um satte 1200 Jahre falsch zu datieren, müssten allerdings schon sehr seltsame Dinge passiert sein. Wenn man von einem Wunder (wie der intensiven Strahlung der Auferstehung) mal absieht, landet man letztlich immer wieder bei Verunreinigungen durch Staub, Ruß, Mikroorganismen oder Reparaturfäden, die irgendwann zwischen dem 14. und dem 16. Jahrhundert in das Tuch gelangt sein müssten.

Abgesehen davon, dass es ziemlich absurd ist, dass das Tuch am Rand, wo die Proben entnommen wurden, unsichtbar per Kunststopfen repariert worden sein soll, während man auf die großen Löcher mittendrin einfach plumpe Flicken gesetzt hat: Überschlagen wir mal, wie plausibel ein solcher Effekt von Verunreinigungen ist, und weil es bei der Überlegung auf 50 Jahre mehr oder weniger nicht ankommt, vernachlässigen wir einfach die Kalibration und tun so, als sei der Kohlenstoff-14-Gehalt in der Atmosphäre und damit auch in frisch getrocknetem Flachs, aus dem man ein Leintuch herstellt, konstant. Diesen vereinfacht konstant angenommenen Kohlenstoff-14-Anteil setzen wir auf 100 % und betrachten, wie das Isotop über die nächsten 2000 Jahre zerfällt. Dann kommen wir auf die folgende Kurve:

Eine Radiocarbondatierung auf ein Alter von 750 Jahren bedeutet also, dass ein Kohlenstoff-14-Gehalt von rund 91,5 % des ursprünglichen Wertes gemessen wurde. Bei einer 2000 Jahre alten Probe dürfte der Restgehalt aber nur noch 78,5 % betragen. Bei den unterstellten Verunreinigungen oder Reparaturfäden wird in der Regel geschrieben, dass diese mindestens vor 500 Jahren auf das Tuch geraten sein müssten, entsprechend einem Kohlenstoff-14-Restgehalt von 94 %. Wenn man sich jetzt fragt, wieviel Verunreinigung mit 94 % Restgehalt man mit Originalmaterial von 78,5 % Restgehalt vermischen muss, um auf einen Restgehalt von 91,5 % zu kommen, stellt man fest, dass die untersuchten Proben zu 84 % aus Verunreinigungen bestanden haben müssten und nur zu einem kleinen Rest aus dem eigentlichen Tuch. Selbst wenn die Verunreinigungen vollkommen neu wären, was man ausschließen kann, müssten sie immer noch mehr als 60 % der untersuchten Proben ausmachen, um die gemessenen Werte zu erklären (eigentlich noch mehr, weil in neuen Verunreinigungen ja der Kohlenstoff-14-Gehalt duch die Verbrennung fossiler Energieträger reduziert ist). Verunreinigungen in dieser Größenordnung müsste man auf jeden Fall mit bloßem Auge erkennen können, egal, ob sie aus Ruß, Mikroorganismen oder später eingezogenen Reparaturfäden bestehen.

Von alten Steinen und radioaktiven Bananen

Neulich sollte ich für Tommy Krappweis im Ferngespräch die Radiocarbondatierung (auch bekannt als C-14-Methode) erklären. Ich habe vor, das hier auch noch einmal detaillierter anzusehen, weil diese Datierungsmethode immer wieder in die Auseinandersetzungen um allerlei Pseudowissenschaft hineingezogen wird.

Beim Auffrischen meiner Erinnerung bin ich aber über eine andere Methode zur Altersbestimmung gestolpert, die ebenfalls auf Kernphysik beruht und weitaus weniger bekannt, aber ebenso spannend ist. Auch hier wird ein Zerfallsprozess aus der natürlichen Radioaktivität genutzt, um das Alter von Materialien zu bestimmen. Aufgrund der deutlich längeren Halbwertszeit blickt man dabei aber viel weiter in die Vergangenheit. Die Kalium-Argon-Datierung hilft also nicht der Geschichte und Archäologie, sondern eher der Geologie und der Paläontologie. Interessanterweise treffen wir dabei auf ein Radioisotop, das schon im Artikel über den Wodka aus Tschernobyl vorkam.

Kalium-40 wird im Gegensatz zu anderen Bestandteilen der natürlichen Radioaktivität, wie dem bereits erwähnten Kohlenstoff C-14, nicht laufend nachproduziert. Sämtliches Kalium-40, das wir auf der Erde finden, stammt aus Explosionen längst vergangener Sterne und ist Teil der Erde, seit sie sich aus einer Staubansammlung um die Sonne gebildet hat. Dennoch handelt es sich um einen instabilen Kern: Kalium-40, bestehend aus 19 Protonen und 21 Neutronen, kann sich (in den meisten Fällen) umwandeln in Calcium-40. Der Begriff Umwandlung beschreibt das besser als der gebräuchlichere, radioaktiver Zerfall. Im Detail betrachtet emittiert dabei eins der Neutronen ein negativ geladenes, hoch beschleunigtes Elektron und bleibt als positiv geladenes Proton zurück im neuen Kern, der jetzt je 20 Protonen und Neutronen hat, also ein Calciumkern geworden ist. Als Ausgleich für das sozusagen aus dem Nichts entstandene Elektron muss noch ein Antiteilchen entstehen, ein ungeladenes Antineutrino, das aber weder direkt nachweisbar ist noch Schaden anrichtet. Verantwortlich dafür, dass das Antineutrino entstehen muss, ist die Erhaltung von Quantenzahlen – ein zentraler Grundsatz der Quantenphysik, der von Quantenesoterikern fast nie erwähnt wird, weil sich damit offensichtlich nicht gut schwurbeln lässt. Problematisch ist das emittierte Elektron, das eine (natürlich mikroskopisch kleine) Spur der Verwüstung durch lebendes Gewebe ziehen und auf dem Weg diverse Moleküle zerstören kann. Wenn davon das Erbgut einer Zelle betroffen ist, kann das zum Zelltod oder, seltener aber schlimmer, zu unkontrolliertem Wachstum als Tumor führen. Daraus, dass überhaupt noch Kalium-40 da ist, ist offensichtlich, dass diese Zerfälle (besser: Umwandlungen) sehr langsam – oder vielmehr, bezogen auf einzelne Kerne, sehr selten – ablaufen: Die Halbwertszeit von Kalium-40 liegt bei 1,25 Milliarden Jahren.

Viel ist dennoch nicht mehr übrig: Nur etwas über 0,01 Prozent des auf der Erde vorkommenden Kaliums ist Kalium-40. Chemisch ist es aber vom sonstigen Kalium nicht zu unterscheiden, weshalb es sich auch sehr gleichmäßig verteilt hat. Wo immer uns auf der Erde Kalium begegnet, enthält es ziemlich genau denselben Anteil von radioaktivem Kalium-40. Kalium begegnet uns nun aber vor allem in uns selbst: Im Körper eines durchschnittlichen Erwachsenen finden sich rund 140 Gramm Kalium, also auch etwa 16 Milligramm radioaktives Kalium-40. Davon zerfallen pro Sekunde über 4000 Atomkerne (man spricht von 4000 Becquerel Aktivität), wovon die meisten die erwähnten zerstörerischen Elektronen emittieren. Das Kalium in uns macht damit rund ein Zehntel der Strahlungsdosis aus, der wir natürlicherweise ausgesetzt sind.

Da sie immer auch Kalium-40 enthalten, haben logischerweise kaliumreiche Lebensmittel eine auffällig hohe natürliche Radioaktivität. Bekannt ist das vor allem bei Bananen. Ein Kilogramm durchschnittlicher Bananen hat eine Kalium-40-Aktivität von 130 Becquerel, entsprechend etwa der Aktivität von einer halben Tasse des gefürchteten Wassers, das in Fukushima in den Pazifik abgelassen werden soll, oder von sechs Kilogramm des Getreides aus Tschernobyl, das wegen dieser Strahlenbelastung nicht mehr gegessen werden darf. Heimisches Obst oder Gemüse mit der Radioaktivität einer normalen Banane dürfte in Japan nicht als Lebensmittel verkauft werden.

Nun könnte man auf die Idee kommen, seine Strahlenbelastung senken zu wollen, indem man auf Bananen, Kartoffeln, Fisch und andere kaliumreiche Nahrungsmittel verzichtet. Das wäre aber keine gute Idee, denn wir brauchen Kalium. Unter anderem nutzt unser Körper in Wasser gelöstes Kalium als Gegenpart zum im Kochsalz vorkommenden Natrium, um den Flüssigkeitshaushalt von Zellen und den Blutdruck zu steuern. Die richtige Kaliummenge im Körper wird dabei durch die Nieren reguliert. Wenn wir mal zum Beispiel bei scharfem Bananensalat (kann ich sehr empfehlen, allerdings natürlich mit Kreuzkümmel/Cumin und nicht wie in diesem Rezept mit Kümmel) richtig zuschlagen, dann landet hinterher einfach mehr Kalium in der Toilette. Das ist also etwas ganz anderes, als wenn wir radioaktive Spurenstoffe aufnehmen, deren Konzentration im Körper, vor allem in einzelnen Organen, sich durch zusätzliche Aufnahme mit der Nahrung möglicherweise sogar sehr langfristig verändern kann.

Was können uns nun aber Kernumwandlungen von Kalium-40 über das Alter von Gesteinen erzählen? Die schon beschriebenen Umwandlungen zu Calcium nutzen da tatsächlich nicht viel, weil sowohl Kalium als auch Calcium in allen möglichen Gesteinen und in ihren Ausgangsstoffen vorkommen. Wenn man etwas über einen radioaktiven Zerfall datieren will, müssen die enthaltenen Mengen oder Mengenverhältnisse ja beim Entstehen der zu datierenden Sache irgendwie festgelegt werden.

Für die Datierung nützt uns aber ein anderer Zerfall, denn mit einer Wahrscheinlichkeit von 10,7 Prozent wandelt sich ein Kalium-40-Kern nicht zu Calcium-40, sondern zu Argon-40 um. Dabei passiert genau der umgekehrte Prozess wie beim Zerfall zu Calcium: Es ist nicht ein Neutron, das ein (negativ geladenes) Elektron abgibt, sondern ein positiv geladenes Proton fängt ein Elektron ein und wird damit elektrisch neutral, also zu einem Neutron. Wegen der Erhaltungssätze wird dabei noch ein Neutrino abgegeben (sozusagen der ladungslose Quantenzahlen-Rest des Elektrons), das aber wieder nicht weiter interessiert. Biologisch problematisch ist hierbei lediglich die freiwerdende Energie, die als ein Quant einer energiereichen elektromagnetischen Welle, sogenannter Gammastrahlung, abgegeben wird. Anders als das Elektron beim Zerfall zu Calcium zieht Gammastrahlung keine Spur der Zerstörung durch lebendes Gewebe, hat dafür aber eine größere Reichweite, bis sie in der Regel ein einzelnes getroffenes Molekül zerstört. Deswegen ist diese Art der Umwandlung von Kalium-40 für die Strahlenbelastung des Menschen eher unbedeutend.

Dass sich in demselben Kern sowohl ein Proton in ein Neutron als auch ein Neutron in ein Proton umwandeln kann und dass in beiden Fällen Energie freigesetzt wird, ist kernphysikalisch ein Sonderfall. Das liegt daran, dass im Kalium-40 die ungerade Zahl von 19 Protonen und 21 Neutronen quantenphysikalisch doppelt ungünstig ist und sowohl 18:22 (Argon-40) als auch 20:20 (Calcium-40) stabilere Zustände darstellen. Materieteilchen (sogenannte Fermionen) bilden eben gerne Pärchen.

Warum ist dieser Zerfall nun aber für die Datierung von Gesteinen interessanter als der andere? Das liegt daran, dass, während sich das Alkalimetall Kalium und das Erdalkalimetall Calcium chemisch einigermaßen ähnlich verhalten, das Edelgas Argon chemisch völlig anders reagiert (nämlich eigentlich gar nicht). Kalium und Calcium sind sehr reaktiv und kommen in der Natur fast nie als Metall vor, sondern entweder in Form von Kristallen als Gestein oder gelöst in Wasser. Ein Argonatom ist dagegen allein am stabilsten, weshalb wir den allergrößten Teil des Argons auf der Erde als Atome frei herumfliegend in der Atmosphäre finden. Gleichzeitig hat Argon weniger als das leichtere Edelgas Helium die Tendenz, durch feste Materialien einfach hindurchzudiffundieren (jetzt wissen Sie auch, warum Heliumballons auf dem Jahrmarkt in der Regel aus Metallfolie anstatt aus Gummi bestehen und trotzdem schneller Druck verlieren als luftgefüllte Ballons). Wenn nun ein Kalium-40-Atomkern in Wasser gelöst ist oder in flüssigem Magma schwimmt und sich in einen Argon-40-Kern umwandelt, dann kann das entstehende Argonatom schnell in die Atmosphäre entweichen. Passiert dasselbe aber in bestimmten Mineralen unter der Erde, dann bleibt das Argon dort im Gitter der einzelnen Kristalle eingeschlossen. Umgekehrt gilt: Findet man Argon-40 in diesen Mineralen, dann kann es eigentlich nur durch den Zerfall von Kalium-40 dorthin gelangt sein – und zwar nachdem sie in ihrer jetzigen Form ausgehärtet sind. Wenn man also feststellt, wieviel Kalium in einem Gestein vorhanden ist und wieviel vom enthaltenen Kalium-40 schon zu Argon-40 zerfallen ist, kann man ausrechnen, wie lange das Gestein schon ausgehärtet ist. Das funktioniert gut, wenn das Material nicht in der Zwischenzeit durch geologische Vorgänge wie starke Erhitzung noch einmal verändert worden ist und wenn die betrachteten Zeiträume ganz grob der Größenordnung der Halbwertszeit ähneln, also mit einigen hundert Millionen Jahren gerade in geologisch interessanten Zeiträumen. Will man hingegen wissen, aus welchem der Ausbrüche des Kilauea in den letzten 500 Jahren eine Lavaschicht stammt, dann ist dafür in der Regel einfach noch nicht genug Argon entstanden. Wenn man genau genug misst, soll es aber schon für den Ausbruch des Vesuv vor knapp 2000 Jahren reichen, was ich ziemlich beeindruckend finde.

Dieses Verfahren begegnet einem mal unter der Bezeichnung Kalium-Argon-Methode und mal als Argon-39-Argon-40-Methode, aber der Unterschied liegt eigentlich nur darin, wie man den Kaliumgehalt (zu dem man das Argon-40 ins Verhältnis setzt) genau bestimmt. Das ist dann natürlich für einen experimentellen Kernphysiker wie mich noch spannend, aber nicht mehr unbedingt für diesen Artikel…

Ein Unfall in Nordrussland und was Radioaktivitätsmesswerte bedeuten

Als ich meinen letzten Artikel angefangen habe, wollte ich die Geschichte über den Wodka aus Tschernobyl eigentlich nur als kleinen Aufhänger benutzen, um etwas über veröffentlichte Radioaktivitätsmesswerte und den dabei verwendeten Wust von Einheiten zu schreiben. Dann ist doch wieder eine typische Relativer-Quantenquark-Tirade daraus geworden, und die Erklärung der Einheiten wäre am Schluss einfach zu kurz gekommen – also habe ich da einen Folgeartikel angekündigt, den ich auch ganz schnell liefern will. Allerdings sind mir die tagesaktuellen Nachrichten auch da wieder zuvorgekommen: Aktuell häufen sich in den Medien Berichte über eine Freisetzung von radioaktiven Substanzen in Nordwestrussland. Da man das oft nicht so richtig einordnen kann, der Ort des Geschehens in Nyonoska liegt bei der roten Markierung, also ziemlich abgelegen, aber nicht wahnsinnig weit von Finnland entfernt.

Quelle: Openstreetmap, Lizenz: https://opendatacommons.org/licenses/odbl/1.0/

Welche Gefährdung von den in den Artikeln genannten 1,78 bis 2 Mikrosievert gemessener Dosis pro Stunde über einen Tag hin ausgehen sollte, sollte man am Ende dieses Artikels ganz gut einschätzen können. Dass in der Region viel Gemüse aus dem eigenen Garten verzehrt wird, was, wie im letzten Artikel schon erklärt, die Bewertung beeinflussen sollte, halte ich dort für eher unwahrscheinlich. Die Bilder in russischen Medien sehen primär nach einem Großbrand eines ganz normalen Brennstoffs aus, aber wenn in diesem Brand irgendwo radioaktives Material freigesetzt wird, muss man natürlich schon davon ausgehen, dass das mit dem aufsteigenden Rauch einigermaßen großräumig verteilt wird. Videos auf Youtube, die den Vorfall zeigen sollen und eine riesige, ziemlich offensichtlich von konventionellem Brennstoff stammende, schwarze Rauchwolke zeigen, kursieren allerdings, wie Correctiv herausgefunden hat schon seit 2015 im Netz, so dass nähere Informationen weiterhin rar sind. 

Die Annahme derzeit ist, dass die Explosion bei Tests für den experimentellen russischen Flugkörper SSC-X-9 Skyfall (russische Bezeichnung 9M730 Буревестник „Sturmvogel“) ereignet haben dürfte. Das interessante an diesem Flugkörper, der nach amerikanischen Informationen allerdings bislang nur Abstürze produziert hat, ist, dass er über einen nuklearen Antrieb verfügen soll. Mit dem großen Energievorrat soll er nach einem russischen Video in der Lage sein, jedes Ziel auf der Welt im Tiefflug auf beliebigen Umwegen zu erreichen, was eine Abwehr erschweren soll. Das Video besteht allerdings zum größten Teil aus Computeranimationen – die echten Aufnahmen darin zeigen nur die Startphase, in der ziemlich offensichtlich eine konventionelle Feststoffrakete eingesetzt wird:

Als Physiker interessiert mich natürlich, wie so ein Antrieb funktionieren soll – und das müsste man auch wissen, um die Folgen eines Unfalls einschätzen zu können. Da muss ich zum Glück nicht wieder ausufern und mein eigentliches Thema wieder verschieben, denn dieser lange, aber wirklich gute Artikel mit dem Titel „The Best Bad Idea Ever?“ beleuchtet die wichtigsten technischen Aspekte und die Geschichte der Erforschung nuklear getriebener Flugzeuge und Flugkörper – und er erklärt, warum nie ein solches Flugzeug geflogen ist und wohl besser auch nicht sollte. In dem Artikel wird auch deutlich, was gemeint sein dürfte, wenn in diesem Kontext immer wieder mal eine ähnliche Technologie aus den USA erwähnt wird. Donald Trump twittert sogar, diese sei fortschrittlicher als die russische Skyfall, womit er offensichtlich die höhere Einsatzgeschwindigkeit der amerikanischen reaktorbeheizten Project-PlutoStaustrahltriebwerke meint. Dabei fällt in der Regel unter den Tisch, dass diese amerikanischen Versuche vor 55 Jahren aufgegeben wurden…

Entscheidend für die Einschätzung eines Unfalls ist das enthaltene Material. Wenn man davon ausgeht, dass ein typischer Marschflugkörper im geraden Flug (abgeschätzt nach dem amerikanischen Tomahawk) etwa 3000 Newton Schub braucht und ungefähr 250 Meter pro Sekunde (900 km/h) schnell fliegt, dann leistet das Triebwerk etwa 750 Kilowatt. Rechnet man typische Wirkungsgrade dazu, dann müsste der Reaktor ungefähr ein Zehntel der Leistung des Forschungsreaktors München II haben, der durch Verwendung von hoch angereichertem Uran mit 8 kg Brennstoff auskommt. Der Reaktor des Flugkörpers müsste bei ähnlicher Masseneffizienz also ungefähr ein Kilogramm Uran enthalten. Sollte ein solcher Reaktor außer Kontrolle geraten und von seiner eigenen thermischen Leistung zerrissen werden, dann sollte sich das meiner Ansicht nach in der Umgebung durch weitaus mehr Fallout als die gemessenen 2 Mikrosievert pro Stunde äußern. Ich bin jedenfalls gespannt, was wir zu diesem Unfall noch erfahren werden. Im günstigsten Fall beendet er die Entwicklung dieser skurrilen Höllenmaschine, die heutzutage nun wirklich kein Mensch braucht.

Und damit zum eigentlich geplanten Thema, den Einheiten, die einem in Berichten über genau solche Ereignisse begegnen:

Im letzten Artikel habe ich nur die Einheiten Becquerel (Bq) und Sievert (Sv) verwendet, und das sind meines Erachtens auch die einzigen Einheiten zur Radioaktivität, die man in der Kommunikation mit Nichtphysikern verwenden sollte. Ich muss auch selbst jedesmal nachschlagen, wenn mir jemand Messwerte in antiquierten Einheiten wie Curie oder Milliröntgen um die Ohren haut, nur weil er zu faul ist, die Anzeige seines Messgeräts in aussagekräftige, zeitgemäße Einheiten umzurechnen. Becquerel und Sievert sind die einzigen Einheiten, die es sich meines Erachtens lohnt zu merken. Dazu lohnt es sich dann auch, sich ein paar Vergleichswerte zu merken, um Zahlen, die einem irgendwo begegnen, halbwegs einordnen zu können. Was die anderen Messwerte bedeuten und wie man sie umrechnet, möchte ich am Ende dieses Artikels kurz zusammenstellen.

Zunächst einmal muss man sich bei einer Messung zur Radioaktivität fragen, was man überhaupt messen möchte. Grundsätzlich können Radioaktivitätsmessungen Antworten auf drei ganz unterschiedliche Fragen liefern:

  1. Wieviel Radioaktivität ist da überhaupt? Besser wäre noch die Formulierung „wieviel Radioaktivität passiert da“, denn es geht ja schließlich um eine Aktivität. Anzugeben ist also, wie viele radioaktive Zerfälle (Umwandlungen eines Atomkerns in einen anderen unter Aussenden von Strahlung) in einem Material innerhalb eines gewissen Zeitraums passieren. Wählt man als Zeitraum eine Sekunde, dann kommt man genau auf die Einheit Becquerel (Bq), nämlich Zerfälle pro Sekunde. Wenn man nicht eine genau abgegrenzte Strahlenquelle, sondern ein in größerer Menge vorkommendes Material betrachtet, wird häufig die Aktivität pro Menge in Becquerel pro Kilogramm (Bq/kg) angegeben. Nun ist ein Atom in Größenordnungen unseres Alltags sehr klein, und entsprechend klein sind die bei Zerfällen freigesetzten Energiemengen. Beim Zerfall eines Kern des Wasserstoffisotops Tritium (das vor allem im Kühlwasser von Reaktoren entsteht) werden zum Beispiel 0,000000000000003 Joule Energie frei, davon etwa ein Drittel in Form von biologisch relevanter Betastrahlung (der Rest verbleibt im umgewandelten Atomkern oder verschwindet im nicht mehr nachweisbaren Neutrino auf Nimmerwiedersehen). Da man sich unter einem Joule auch nicht so viel vorstellen kann: Ein Joule ist etwa die Fallenergie von einem halben Pfund Butter, das aus 40 cm Höhe auf den Boden klatscht. Wenn man das halbe Pfund Butter hingegen aufisst, hat es einen Nährwert von etwa 8000 Kilojoule, also 8 Millionen Joule. Für eine physikalisch relevante Gesamtaktivität braucht man also schon einiges an Becquerel. Wenn man im Labor mit einer radioaktiven Quelle arbeitet, mit der man vernünftig etwas messen kann, ohne dass man im Umgang damit besondere Schutzausrüstung braucht, dann hat die in der Regel einige Kilobecquerel. Wenn man liest, dass beim Reaktorunfall von Three Mile Island (Harrisburg) 1979 geschätzte 1665 Terabecquerel (also Billionen Bq) Radioaktivität in Form von Gasen freigesetzt wurden, dann klingt das gigantisch. Zur Einordnung muss man sich allerdings klarmachen, dass auch ältere Bestrahlungsanlagen zur Krebstherapie in Krankenhäusern Kobalt-60-Quellen von einigen hundert Terabecquerel enthalten. Was eine Becquerel-Zahl für den Menschen bedeutet, hängt stark davon ab, um welche Art von Strahlung es sich handelt und wo die Zerfälle auftreten, insbesondere ob die Strahlenquelle sich außerhalb oder innerhalb des Körpers befindet und wie lange sie dort verbleibt. Mit dem 2015 in ein Überlaufbecken auf dem Werksgelände ausgetretenen Reaktorkühlwasser im Kraftwerk Temelin mit einer Tritium-Aktivität von 272 Becquerel pro Liter würde ich mir zum Beispiel bedenkenlos die Hände waschen oder auch darin baden. Trinken würde ich es dagegen nur im Notfall – allerdings immer noch lieber als zum Beispiel ungefiltertes Flusswasser. Gelangt radioaktives Material in den Körper, ist die Frage, wie lange es dort wo verbleibt. Bei der Ventilationsszintigraphie zur Untersuchung der Lunge atmet man 400 bis 800 Megabecquerel eines radioaktiven Edelgases ein. Da ein Edelgas mit praktisch nichts chemisch reagiert, wird es aber auch direkt wieder ausgeatmet. Die 55 Becquerel Tritiumaktivität aus einem Glas Temelin-Kühlwasser würden über den normalen Stoffwechsel des Körpers über die nächsten Tage wieder ausgeschieden. Jod-131, ein Produkt der Kernspaltung, ist der wichtigste Problemstoff in den ersten Wochen nach einem Reaktorunfall. Da bei den meisten Mitteleuropäern, die nicht regelmäßig Fisch essen oder mit Jodsalz kochen, der Jodbedarf des Körpers allenfalls knapp gedeckt ist, wird dieses radioaktive Jodisotop vom Körper gut aufgenommen, in der Schilddrüse eingelagert und kaum wieder ausgeschieden, sondern zerfällt mit einer Halbwertszeit von acht Tagen. Daher können auch relativ kleine Becquerel-Zahlen von Jod-131 im kleinen Volumen der Schilddrüse ein erhebliches Krebsrisiko verursachen. So ist der sonst seltene Schilddrüsenkrebs die einzige Krebsart, für die nach Tschernobyl in der allgemeinen Bevölkerung der Anliegerstaaten Ukraine und Weißrussland (außerhalb der an den Aufräumarbeiten beteiligten Liquidatoren) tatsächlich ein Anstieg erkennbar ist. Glücklicherweise ist Schilddrüsenkrebs zwar eine schwere Erkrankung, die erhebliche Einschränkungen der Lebensqualität mit sich bringt, verläuft aber nur in rund einem Zehntel der Fälle tödlich. Die Einlagerung von Jod in der Schilddrüse ist auch der Grund, weshalb man nach Reaktorunfällen bei gefährdeten Personen versucht, durch hochdosierte Jodtabletten ein Überangebot an nicht radioaktivem Jod zu schaffen, so dass ein möglichst großer Anteil des insgesamt verfügbaren (somit auch des radioaktiven) Jods wieder ausgeschieden wird. Radioaktive Problemstoffe, die sich über viele Jahre in den Knochen oder der Leber anreichern, sind die Brennstoffe Uran und Plutonium sowie die Spaltprodukte Cäsium-137 und Strontium-90. Da sie auch über viele Jahre nur zu kleinen Teilen zerfallen, können sich von diesen Stoffen selbst kleine Becquerel-Zahlen mit der Zeit zu erheblichen Belastungen aufsummieren. Das gilt insbesondere, wenn über einen langen Zeitraum die tägliche Nahrung belastet ist, was den im letzten Artikel erwähnten extrem niedrigen Strontium-90-Grenzwert in der Ukraine erklärt. Wegen dieser Unterschiede in der biologischen Relevanz der Aktivität unterschiedlicher Stoffe ist es auch so problematisch, wenn in dem in Fukushima aus den Reaktorruinen gepumpten Sickerwasser neben den rund einer Million Bq/l Tritium auch nach der Entsalzung noch Mengen von jeweils rund 100 Bq/l von anderen Isotopen gefunden werden. Ginge es nur um die insgesamt 760 Terabecquerel Tritiumaktivität des in Fukushima gespeicherten Wassers, dann könnte ich beim besten Willen nicht verstehen, warum man so zögert, diese einfach ins Meer abzuleiten: Tritium ist chemisch einfach Wasserstoff und reichert sich daher nirgends an, und verglichen mit der natürlichen Radioaktivität und selbst mit sonstigen menschlichen Einleitungen in die Weltmeere wäre diese Menge vernachlässigbar. Wenn man es aber tatsächlich nicht schafft, die Verunreinigungen mit radioaktiven Isotopen von Strontium, Cäsium oder anderen Substanzen, die sich in Fischen anreichern könnten, hinreichend gut zu entfernen, wäre das Verdampfen die teurere, aber sicherere Variante, weil diese Stoffe dabei in sehr kompakter Form zurückblieben. Die Aktivität in Becquerel ist also eigentlich nur in Verbindung mit anderen Informationen zur Beurteilung der Gefährlichkeit geeignet. Aussagekräftiger ist schon die folgende Frage:
  2. Welche Strahlendosis wird von einem (lebenden) Material aufgenommen? Hier handelt es sich um eine absorbierte Energiemenge pro Material, gemessen in Joule pro Kilogramm, bezeichnet als die Einheit Gray (Gy). Die Dosis ist keine zeitbezogene Größe, kann sich also über Jahre aufsummieren. Will man die laufende Belastung an einem bestimmten Ort beschreiben, so verwendet man die Dosisleistung in (gegebenenfalls Milli- oder Mikro-) Gray pro Sekunde, Stunde oder Jahr. Geht es um Strahlungsschäden in technischen Geräten, zum Beispiel bei Halbleitern in Teilchendetektoren oder auf Satelliten, ist die Gesamtdosis über die Einsatzdauer die relevante Kennzahl. Bei lebendem Material, also auch in gesundheitlichen Fragen, ist die Situation komplexer. Für das Auftreten von akuter Strahlenkrankheit ist die innerhalb eines Zeitraums weniger Tage aufgenommene Dosis maßgebend. Über das Krebsrisiko und das Auftreten von Mutationen in der nächsten Generation entscheidet nach der bereits im letzten Artikel erwähnten Linearen Hypothese LNT ausschließlich die Gesamtdosis über die bisherige Lebenszeit ohne jegliche Heilungs- und Reparaturchancen. Wer sich mit der Frage beschäftigen will, wie realistisch das ist, dem empfehle ich den schon dort verlinkten Bericht des zuständigen wissenschaftlichen Ausschusses der Vereinten Nationen. Es wird aber, wie so oft in Gesundheitsfragen, noch komplizierter: Alle drei gesundheitlichen Folgen (Strahlenkrankheit, Krebs und Mutationen) entstehen durch Schäden des Erbguts, also der DNA, durch die absorbierte Energie der Strahlung. Die DNA bildet aber einen Doppelstrang, an dem die Erbinformation jeweils spiegelbildlich hinterlegt ist. Entsteht ein Schaden nur an einem Strang der DNA, so haben die zelleigenen Reparaturmechanismen wesentlich bessere Erfolgschancen, als wenn beide gegenüberliegenden Basen beschädigt oder gar beide Stränge durchtrennt sind. Es macht also einen Unterschied, ob die Energie der Strahlung an lauter isolierten Punkten durch das Gewebe verteilt wird oder ob elektrisch geladene Teilchen im Gewebe jeweils eine Spur der Verwüstung hinterlassen. Das führt zu der Frage:
  3. Welcher Schaden entsteht durch die Strahlung in lebendem Gewebe? Diese Frage beantwortet die Äquivalentdosis in der Einheit Sievert (Sv). Sie errechnet sich einfach durch die Strahlungsdosis in Gray multipliziert mit einem Wichtungsfaktor, der sich nach der Art der Strahlung richtet. Für Teilchenstrahlung direkt aus einem Reaktor oder Beschleuniger sind diese Wichtungsfaktoren recht kompliziert, aber bei der Strahlung aus radioaktiven Zerfällen sind sie ganz einfach: Alphastrahlung, also die geladenen Heliumkerne, die nur von sehr schweren Kernen wie Uran oder Plutonium emittiert werden, hat den Wichtungsfaktor 20, sonstige radioaktive Strahlung den Wichtungsfaktor 1. Alphastrahlung kann die menschliche Haut nicht durchdringen und ist nur schädlich, wenn das radioaktive Material in den Körper gelangt. Daher ist für jede Strahlung, die von außen in den Körper hinein wirken kann, der Wichtungsfaktor 1 und damit die Äquivalentdosis in Sievert gleich der Strahlungsdosis in Gray. Neben den Wichtungsfaktoren für die Strahlungsart gibt es Gewebe-Wichtungsfaktoren, die eine Umrechnung zwischen den Äquivalentdosen einzelner Organe und der Ganzkörperdosis ermöglichen sollen. Da die Wichtungsfaktoren erkennbar den Charakter von Abschätzungen haben, hat es offensichtlich wenig Sinn, sich bei Äquivalentdosen Gedanken um die zweite oder dritte von Null abweichende Ziffer zu machen. Daher gibt es auch eine deutlich komplexere Berechnung der Äquivalentdosis nach sogenannten Qualitätsfaktoren, die für Teilchenstrahlung auf dem zu messenden Energieverlust beruhen, wenn man es wirklich genau wissen will. Für die Einschätzung von Risiken ist es aber eher entscheidend, die wievielte Ziffer einer Äquivalentdosis überhaupt von Null abweicht. Auch für die Äquivalentdosis wird häufig die Dosisleistung, zum Beispiel in Mikrosievert pro Stunde, angegeben.

Nachdem also die entscheidenden Fragen gestellt und grob charakterisiert sind, auf die Messwerte antworten sollen, können wir uns jetzt den einzelnen Einheiten zuwenden, die einem in den Medien begegnen können, wenn es um Radioaktivität geht – angefangen mit den beiden, die man tatsächlich kennen sollte und dafür jeweils ein paar Vergleichsgrößen zur Interpretation solcher Werte.

  • Becquerel (Bq): Das Becquerel ist, wie oben erläutert, eine Einheit für die Aktivität und bezeichnet einen Zerfall pro Sekunde. Angegeben sind häufig auch Becquerel pro Menge eines Materials in Kilogramm oder Liter. Die Aktivitäten unterschiedlicher radioaktiver Substanzen sind hinsichtlich ihrer biologischen Relevanz nur bedingt vergleichbar. Ungefähre Vergleichswerte:
      • 130 Bq: Natürliche Aktivität einer Banane.
      • 4000 Bq: Natürliche Aktivität im Körper eines Erwachsenen.
      • 1 GBq = 1.000.000.000 Bq: Größenordnung der Aktivität, die einem Patienten bei der Positronen-Emissions-Tomographie (PET) injiziert wird (Halbwertszeit maximal wenige Stunden).
      • 100 TBq = 100.000.000.000.000 Bq: Größenordnung der Aktivität in einer älteren Strahlungsquelle zur Krebstherapie.
      • 50.000 TBq = 50.000.000.000.000.000 Bq: Freisetzungsschwelle  zur höchsten Unfallstufe der IAEO-Skala für nukleare Ereignisse (Mayak 1957, Tschernobyl 1986, Fukushima 2011).
    • Sievert (Sv): Das Sievert ist eine Einheit für die Äquivalenzdosis, also die nach biologischer Wirkung gewichtete absorbierte Strahlendosis und hat die Dimension Energie pro Masse. Sie ist die beste bekannte Annäherung an den tatsächlich entstandenen Schaden. Im Gegensatz zum Becquerel ist das Sievert eine sehr große Einheit, so dass in der Regel Millisievert (mSv) oder Mikrosievert (μSv) angegeben werden. Ungefähre Vergleichswerte für die Ganzkörperdosis:
      • 50 μSv = 0,05 mSv: Ein Langstreckenflug.
      • 500 μSv/Jahr = 0,5 mSv/Jahr: Variation der natürlichen Radioaktivität zwischen unterschiedlichen Wohnorten in Deutschland.
      • 5 mSv/Jahr: Durchschnittliche Gesamtstrahlenbelastung in Deutschland (ca. 50% natürlich, 50% medizinisch).
      • 1.000 mSv = 1 Sv in kurzer Zeit: Einsetzen der akuten Strahlenkrankheit
      • 7.000 mSv = 7 Sv in kurzer Zeit: 100% tödlich.

Neben diesen beiden Einheiten, die man sinnvollerweise kennen sollte, um Informationen aus den Medien einordnen zu können, begegnen einem dort immer wieder auch andere Einheiten, die man nicht unbedingt kennen muss, deren Bedeutung und Umrechnung man aber bei Bedarf (z.B. hier) nachschlagen kann:

  • Gray (Gy): Das Gray ist wie schon erwähnt die Standardeinheit für die Dosis, also die aufgenommene Strahlungsenergie pro Masse eines Materials, ohne Gewichtung der biologischen Wirksamkeit. Insofern ist sie zwar nicht veraltet, aber für gesundheitliche Fragen eher uninteressant, und die Werte sind häufig identisch mit denen in Sievert. Für Alphastrahlung aus Uran oder Plutonium gilt 1 Gy = 20 Sv, für alle andere Strahlung aus radioaktivem Material 1 Gy = 1 Sv.
  • Rad (rd): Das Rad (radiation absorbed dose) ist eine seit mehr als 40 offiziell nicht mehr verwendete Einheit für die ungewichtete Dosis. Gerade Autoren mit, sagen wir, überschaubarer Sachkompetenz und vor allem aus dem medizinischen Sektor geben jedoch immer noch regelmäßig Messdaten in Rad an. Mitunter finden sich auch in derselben Tabelle, gedankenlos irgendwo abgeschrieben, untereinander Daten in Gray und in Rad ohne die wirklich triviale Umrechnung: 100 rd = 1 Gy; das entspricht 20 Sv für Alphastrahlung oder 1 Sv für sonstige Radioaktivität.
  • Roentgen (R): Das Roentgen ist eine noch antiquiertere Einheit (es stammt aus der Frühzeit der Atomphysik und gilt schon seit 1953 als veraltet) und beschreibt eine Art Strahlungsintensität von Gamma- oder Röntgenstrahlung, die an einem Ort ankommt, gemessen an ihrer Fähigkeit, elektrische Ladungen aus Luftmolekülen herauszulösen. Das Problem dabei ist, dass die Umrechnung von Roentgen in eine Dosis vom Material abhängt, auf die die Strahlung auftrifft. Trotzdem stirbt auch das Roentgen in den Medien irgendwie nicht aus. In weichem Körpergewebe, das bei Strahlenschäden in der Regel interessiert, entsprechen 100 Roentgen knapp einem Sievert.
  • Rem (rem): Mit dem Rem (Roentgen equivalent in man) wird es endgültig wirr, weil sich das Rem, wie aus dem Namen noch hervorgeht, ursprünglich von der Einheit Roentgen herleitete, es dann aber irgendwann als Äquivalentdosis zum Rad umdefiniert wurde. Dennoch erfreut sich das Rem vor allem in den USA bis heute großer Beliebtheit, wo man ja auch sonst der Meinung zu sein scheint, internationale Standardeinheiten machten das Leben zu einfach. Immerhin ist seit der Anlehnung an das Rad die Umrechnung überschaubar: 100 rem = 1 Sv.
  • Curie (Ci): Das Curie ist eine Einheit für die Aktivität, die allen Ernstes 1910 noch unter Mitwirkung von Marie Curie selbst festgelegt wurde, und zwar als die Aktivität von einem Gramm Radium. Es wird seitdem hartnäckig immer noch benutzt, möglicherweise weil 10 Mikrocurie für eine radioaktive Quelle im Labor oder 45 Megacurie für die Jod-131-Freisetzung in Tschernobyl einfach weniger bedrohlich gigantisch klingen als die gleichen Werte in Becquerel. Leider gibt es für die Umrechnung keine einfach zu merkende Faustregel: 1 Curie entsprechen circa 37 Gigabecquerel…

Missverquanten (1): Der Beobachtereffekt

„Die moderne Quantenphysik zeigt uns unabweisbar, dass bereits das
bloße Beobachten eines Vorganges, bereits dessen Verlauf verändert,“ schreibt die Hebamme Kiria Vandekamp. „Deshalb sollte eine Frau auch keine Personen während der Geburt um sich haben, die nicht daran glauben, dass sie natürlich und lustvoll gebären kann.“

Eine solche Behauptung ist nicht nur eine Zumutung für all jene Frauen, für die eine Geburt in erster Linie mit kaum erträglichen Schmerzen verbunden ist. Ein ungutes Gefühl im Bauch bekommt man schon, wenn man mit solchen Erklärungen konfrontiert ist und wenigstens ein vages Verständnis naturwissenschaftlicher Zusammenhänge hat. Irgendetwas kann da ja nicht stimmen – aber was? Einen Beobachtereffekt gibt es in der Quantenphysik doch tatsächlich.

Bislang habe ich mir hier im Blog kaum Platz gelassen, solche Begriffe wirklich zu erklären. Überwiegend sind die Artikel hier eher längere Zusammenstellungen von besonders haarsträubenden Beispielen dieser Art von Quantenunsinn, wobei ich üblicherweise nur in kurzen Anmerkungen darauf eingehe, was wirklich hinter den jeweils missverstandenen oder missbrauchten Begriffen steckt. Dafür verweise ich naheliegenderweise gerne auf das Quantenquark-Buch, in dem ich mehr Platz habe, derlei Zusammenhänge zu erläutern, oder ich verlinke ausführlichere Artikel reiner Physik-Blogger, zum Beispiel im großartigen Hier wohnen Drachen von Martin Bäker. Dort sind die Darstellungen oft detaillierter als hier, und Martin Bäker ist eben auch ein richtig solider theoretischer Physiker. Sie erfordern aber mitunter schon gewisse Vorkenntnisse, und auch bei den Drachen findet sich nicht unbedingt immer ein geeigneter, allgemeinverständlicher Artikel zu genau dem gesuchten Thema. Schließlich könnte es hier ja auch tatsächlich Blogleser geben, die sich unverschämterweise nicht mein Buch kaufen wollen… Kurz, wenn ich hier schnell irgendwo auf Erklärungen zu regelmäßig wiederkehrenden Stichworten wie „Beobachtereffekt“, „Verschränkung“, „Welle-Teilchen-Dualismus“ oder ähnlichem verweisen will, finde ich hier zwar Artikel, in denen diese Effekte vorkommen, aber kaum eine grundsätzliche, systematische Erklärung, und die, die sich außerhalb finden, sind nicht unbedingt immer so, wie ich sie schreiben würde.

Ich möchte also in nächster Zeit in loser Folge immer mal auf eins dieser Stichworte etwas genauer eingehen, allein schon, damit ich in Zukunft selbst einfach darauf verlinken kann. Vielleicht hilft es dem einen oder anderen ja auch in der nächsten Facebook-Kommentarschlacht. In diesen Artikeln kann ich dann mein Lästermaul nicht ganz so ausgiebig auf schlechte Beispiele loslassen, aber keine Sorge, das kommt auch wieder. Ich habe ja auch diesen Artikel erst mal mit einem besonders unappetitlichen Quarkstückchen angefangen, und es werden auch noch ein paar am Ende kommen.

Jetzt aber: Was ist nun eigentlich der Beobachtereffekt?

Zunächst einmal muss man sich klar machen, dass sich die Quantenmechanik eben nicht wie die klassische Physik mit den Objekten unseres Alltags beschäftigt. Die kann man zwar theoretisch auch quantenmechanisch modellieren, aber das wird beliebig kompliziert, und man käme am Ende zum exakt gleichen Ergebnis wie mit der viel einfacheren klassischen Beschreibung. Gebraucht wird die Quantenmechanik, wenn man es mit einzelnen Elementarteilchen oder relativ kleinen Systemen solcher Teilchen bis maximal ungefähr zur Größe etwa eines Moleküls zu tun hat. Am Rande bemerkt, so ein Molekül ist schon verdammt klein, auch wenn man einige Riesenmoleküle, zum Beispiel die Chromosomen unseres Erbguts, immerhin schon mit einem guten Lichtmikroskop sehen kann.

Will man eine Eigenschaft eines solchen Teilchens messen, selbst eine ganz grundlegende Eigenschaft wie seinen Ort, dann ist das nicht so einfach wie bei einem Alltagsobjekt, das man sehen kann. Bei dem wäre der Fall relativ einfach, wie hier bei einem Objekt skizziert, das uns relativ vertraut sein dürfte:

Man sieht den Ball, also kann man ihn spielen. Ein kleinstes Teilchen, sagen wir zum Beispiel ein Elektron, kann man aber nicht sehen. Um seinen Ort bestimmen zu können, braucht man also ein Messgerät. Auch dieses Messgerät muss aber irgendwie an die Information kommen, wo sich das Elektron befindet. Um diese Information vom Quantenphysik-kleinen Elektron zum alltagsgroßen Messgerät zu bringen, braucht man aber eine Wechselwirkung. In einer ganz traditionellen Formulierung der klassischen Physik, die jeder in der Schule mal kennengelernt haben sollte, würde man sagen, es muss eine Kraft wirken. Und woran man sich auch aus der Schule erinnern sollte: Wo eine Kraft wirkt, gibt es auch eine Gegenkraft. Das gleiche gilt für quantenmechanische Wechselwirkungen: In einer Wechselwirkung beeinflussen sich Teilchen gegenseitig.

Wenn das Elektron aber nicht gerade direkt in den Detektor fliegt, kommt noch ein weiterer Faktor hinzu. Die Information muss dann ja noch vom Elektron zum Detektor über eine gewisse Strecke transportiert werden. Das erreicht man normalerweise, indem man ein weiteres Teilchen vom zu messenden Elektron abprallen lässt („streut“, wie man in der Physik sagt). Dafür eignet sich in diesem Fall zum Beispiel ein Lichtteilchen, ein Photon. Das Photon macht eine Wechselwirkung mit dem Elektron, fliegt von dort aus zum Messgerät und macht dort eine Wechselwirkung mit dem Detektormaterial, die das Messgerät registrieren kann. Aus der Richtung des ankommenden Photons kann das Messgerät dann erkennen, in welcher Richtung sich das Elektron befinden.

Das ist soweit fast richtig, aber nur fast, denn die Information, die das Photon zum Messgerät trägt, ist nicht, wo sich das Elektron jetzt befindet, sondern, wo sich das Elektron befand, bevor es die Wechselwirkung mit dem Photon hatte. Durch die Wechselwirkung mit dem Photon hat das Elektron aber einen Impuls übertragen bekommen. Es ist also nicht mehr da, wo es eben war, und bewegt sich auch nicht mehr in gleicher Weise.

 

Fliegt das Elektron selbst direkt ins Messgerät, dann braucht man das Photon nicht zur Informationsübertragung. Dafür gibt es aber eine Wechselwirkung des Elektrons selbst mit dem Detektormaterial, die ebenfalls dazu führt, dass die Bewegung des Elektrons verändert wird. In den meisten Fällen wird das Elektron von den Atomen des Detektormaterials schlicht verschluckt. So oder so können wir keine Messung des Elektrons durchführen, ohne es dabei zu verändern.

Das und nichts weiter ist der quantenmechanische Beobachtereffekt. Man kann kein Teilchen und letztlich überhaupt keinen quantenmechanischen Zustand messen, ohne diesen Zustand dabei zu verändern, einfach weil man dafür eine Wechselwirkung mit dem Messgerät, also einem Teil der Außenwelt braucht. Klingt nicht sonderlich geheimnisvoll, oder? In Verbindung mit anderen Aspekten der Quantenmechanik, insbesondere dem Welle-Teilchen-Dualismus, kann eine solche Wechselwirkung mit der Außenwelt allerdings interessante Folgen haben. Der Welle-Teilchen-Dualismus wird uns aber noch in einer späteren Folge dieser kleinen Reihe beschäftigen.

Damit stellt sich jetzt aber die Frage: Wenn der Beobachtereffekt bei kleinsten Teilchen auftritt, aber alle großen Objekte aus solchen Teilchen bestehen, warum tritt der Beobachtereffekt dann zum Beispiel nicht beim Fußball auf? Warum müsen wir den Fußball nicht verändern, wenn wir seinen Ort messen wollen? Nun, genau betrachtet verändern wir ihn tatsächlich – wir merken es nur nicht, und es ist uns auch egal. Wie wir ein Photon am Elektron streuen müssen, um seinen Ort zu bestimmen, können wir auch den Ort des Fußballs nur dann berührungsfrei erkennen, wenn Licht auf ihn fällt. Wie das Photon auf das Elektron, übertragen auch die unzähligen Photonen des Lichts einen Impuls auf die Elektronen in den Atomhüllen des Fußballs. Im Verhältnis zur Größe des Fußballs und zu den vielen Reibungswiderständen verändert dieser Impulsübertrag den Fußball aber nicht erkennbar – allerhöchstens wird er von der Sonneneinstrahlung etwas erwärmt. Dieser minimale „Beobachtereffekt“ spielt bei der Größe des Balls schlicht keine Rolle.

An diesem extremen Beispiel wird aber auch deutlich, dass der Beobachtereffekt nichts, absolut gar nichts, mit dem eigentlichen Akt des Beobachtens, der Person oder gar dem Bewusstsein des Beobachters zu tun hat. Er entsteht einfach nur dadurch, dass man eine Wechselwirkung mit der Außenwelt braucht, um überhaupt etwas beobachten zu können.

Warum spricht man dann aber überhaupt vom Beobachtereffekt und nicht zum Beispiel vom Wechselwirkungs- oder vom Außenwelteffekt? Der Grund ist wie bei vielen missverständlichen Formulierungen der Quantenphysik schlichtweg historisch. Der Begriff des Beobachtereffekts stammt aus der Zeit vor rund 90 Jahren, als Theoretiker wie Bohr, Schrödinger und Heisenberg die Grundzüge der heutigen Quantenmechanik erstmals formuliert haben. Viele Aspekte der Quantenmechanik, die für heutige Physiker alltäglich und einigermaßen banal erscheinen, zeichneten sich damals erst vage ab, und man musste sich daraus irgendwie einen Sinn zusammenreimen. Gerade die Überlegungen von Werner Heisenberg waren dabei zwar oft bahnbrechend kreativ, seine Formulierungen zeichneten sich aber nicht unbedingt immer durch sachliche Nüchternheit aus. Zu allem Überfluss konnte man sich damals eine Messung kaum ohne einen menschlichen Beobachter vorstellen. Es lag also durchaus nahe, zunächst einmal von einem Beobachtereffekt zu sprechen und zumindest als Gedankenspiel in Erwägung zu ziehen, dass er auch mit dem Beobachter zu tun haben könnte. In diesem historischen Kontext entstand auch die schon damals durchaus polemische und bewusst absurd formulierte Frage von Albert Einstein: „Existiert der Mond auch dann, wenn keiner hinsieht?“ Aus heutiger Sicht können solche Diskussionen nur entstehen, wenn man versucht, quantenmechanische Effekte mit den denkbar ungeeigneten Begriffen unseres Alltags zu beschreiben. Die Vorstellung, was Quantenmechanik eigentlich ist und was sie bedeteutet, war in den 1920er Jahren jedoch erst am Entstehen.

Bei den meisten Messungen, die heute in der Physik stattfinden, gibt es aber überhaupt keinen menschlichen Beobachter. In den Experimenten des Large Hadron Collider (LHC) am CERN in Genf passieren im normalen Betrieb 31,6 Millionen mal pro Sekunde jeweils rund 20 Teilchenkollisionen gleichzeitig. In jeder dieser Kollisionen entstehen mehrere, oft Dutzende, messbare Teilchen. Deren Effekte werden in Messungen auf Tausenden von Kanälen gleichzeitig registriert. Diese Unzahl von Messungen kann buchstäblich kein Mensch auswerten. Tatsächlich könnten auch die leistungsstärksten Computer nicht alle diese Messungen auswerten, und es ist nicht einmal möglich, die Messergebnisse in dieser Geschwindigkeit aufzuzeichnen. Stattdessen sortieren schnelle, fest eingebaute elektronische Schaltungen in mehreren, zunehmend komplexen Stufen aus, welche Kollisionen möglicherweise interessante Ergebnisse enthalten und somit an die nächste Stufe weitergegeben werden können. Der Rest geht unmittelbar nach der Messung wieder verloren. Nur ein winziger Bruchteil der gemessenen Kollisionen wird schließlich auf Datenträgern gespeichert um dann eventuell irgendwann später von einem Computerprogramm ausgewertet zu werden, dessen über Hunderttausende von Kollisionen aufsummierte Ergebnisse sich dann irgendwann ein menschliches Wesen ansieht. Dennoch tritt natürlich bei jedem in einer solchen Kollision produzierten Teilchen, das mit dem Detektor oder irgendeinem anderen Teil der Außenwelt wechselwirkt, ein Beobachtereffekt auf – selbst wenn die Information darüber nie einen Beobachter erreichen wird.

Kurz gefasst ist der quantenmechanische Beobachtereffekt also ein ziemlich banaler Effekt mit einem ziemlich unglücklichen Namen. Wie unglücklich der Name ist, zeigt sich, wenn man sieht, was in der Esoterik- und Alternativmedizinszene so in ihn hineinphantasiert wird.

Mein Lieblingsbeispiel zum Beobachtereffekt bleibt der Ingenieur und Quantentherapie-Höker Walter Thurner, über den ich hier schon einen ganz eigenen Artikel verfasst habe. Aus dem Beobachtereffekt zur folgenden Aussage zu kommen, erfordert schon wirklich bemerkenswerte… nennen wir es gedankliche Flexibilität: „Die Quanten sind sehr extreme Wesenheiten, wenn die wissen, bei einem Versuch, […] dass ich hinschau und bringen andere Ergebnisse als wenn ich wegschau. […] Das müssen Wesenheiten sein; die müssen ein Bewusstsein haben.“ Die besten Stellen kommen im folgenden Video ab Minute 3:45:

Nicht ganz so witzig, aber wesentlich gefährlicher wird es, wenn der der Beobachtereffekt missbraucht wird, um Menschen abstrusen Wunsch-Bullshit nach dem Vorbild von The Secret oder Bestellungen beim Universum zu verkaufen.

Hierzu wird typischerweise behauptet, der Beobachtereffekt (oder einfach „die Quantenphysik“) beweise, bei einem Ereignis mit mehreren denkbaren Ausgängen könne der Beobachter entscheiden, welcher der möglichen Endzustände eintritt. Tatsächlich besagt die Quantenmechanik aber das exakte Gegenteil davon: Wenn ein Quantenzustand mehrere denkbare Messergebnisse mit jeweils durch den Quantenzustand festgelegten Wahrscheinlichkeiten hat, dann ist das tatsächliche Messergebnis im Rahmen dieser Wahrscheinlichkeiten absolut zufällig und durch nichts mehr zu beeinflussen.

Das können wir uns wieder an unserem Beispiel mit dem Elektron, dem Photon und dem Messgerät verdeutlichen, und dazu müssen wir noch nicht mal in die richtige Quantenmechanik mit Wellenfunktionen, Wirkungsquerschnitten und anderen Komplikationen einsteigen. Das kommt in der nächsten Folge der kleinen Artikelserie (hoffentlich bald), mit dem Welle-Teilchen-Dualismus, der noch viel mehr Zufälle in unsere Messergebnisse bringt. Für den Moment genügt es uns, nach den Grundannahmen, die auch die Quantenmechanik macht, so zu tun, als wären alle betrachteten Teilchen einfach nur Teilchen – eine quasiklassische Betrachtung, wie man in der Physik sagt, etwa auf dem Niveau der entstehenden Quantenmechanik vor rund 100 Jahren. Wir nehmen dazu noch vereinfachend an, dass das Elektron am Anfang stillsteht, was einigermaßen unrealistisch ist, aber nichts Grundlegendes verändert. Nach den Behauptungen der Wunschdenker sollte der Beobachter (genau genommen sein Bewusstsein, ohne dass er dafür etwas physisch tun muss) bestimmen können, wohin das Elektron bei der Streuung des Photons „zurückprallt“. Das Problem dabei ist, obwohl das Photon und das Elektron mit einer endlichen Wahrscheinlichkeit wechselwirken (also „zusammenprallen“) sind beide Teilchen punktförmig. Ihre Ausdehnung ist null – das weiß man aus genau solchen Streuversuchen. Das bedeutet, dass ich, egal wie genau ich mit dem Photon zielen wollte, nicht wie bei einer Billardkugel eine bestimmte Stelle am Elektron treffen könnte, weil das Elektron ja nur aus einer Stelle besteht. Die Richtung, in der das Elektron zurückprallt, entspricht also der Richtung, in der ursprünglich das Photon geflogen ist, plus oder minus eines bestimmten Winkels (der natürlich mit dem Winkel zusammenhängt, in dem das Photon zurückgestreut wird), und weil beide Teilchen punktförmig sind und man also nicht auf einen Punkt innerhalb des Elektrons zielen kann, ist dieser Winkel (also auch der Winkel des Photons) im Rahmen einer Wahrscheinlichkeitsverteilung absolut zufällig. Wie gesagt, wenn man das Gleiche korrekterweise mit Wirkungsquerschnitten zwischen Wellenfunktionen rechnet, wird es nur noch zufälliger. Und es gibt vor allem nichts, absolut nichts, was man tun könnte, um diesen Zufall zu überlisten.

Eigentlich sollte sich der ganze Wunsch-Bullshit an dieser Stelle in Luft aufgelöst haben, aber leider wird er regelmäßig verbreitet, und zwar immer wieder unter Berufung auf den Beobachtereffekt. Bei Rolf Froböse ist das die zentrale Aussage eines ganzen Buchs. Ein richtig bizarres Beispiel von Angelika Schlinger, die auch die Gifte aus Chemtrails detoxed und Quantenphysik cool findet, aber nichts davon verstanden hat, hatte ich im Februar schon mal angeführt. Sandra Weber, die eine „Praxis für Gesundheit und Glück“ nebst entsprechender Heilerschule am Bodensee betreibt, behauptet aufgrund eben dieses falsch vestandenen Beobachtereffekts „Wir sind die Erschaffer unseres Lebens“. Nun bin ich wirklich der Letzte, der Menschen die Verantwortung für ihr eigenes Leben absprechen würde, und Dinge wie wirtschaftlicher Erfolg werden neben unseren ererbten Voraussetzungen und viel ganz gewöhnlichem Glück natürlich auch maßgeblich von unseren eigenen Entscheidungen und unserem Einsatz bestimmt. Ich könnte auch um neue Kunden werben und Geld verdienen, anstatt diesen Artikel zu schreiben. Der ist mir aber im Moment gerade wichtiger. Mancher hat sicher auch seine Leber kaputtgesoffen oder ist bewusst ein Lungenkrebsrisiko eingegangen. Am Ende ist aber Leben immer lebensgefährlich, und wer gesund stirbt, hat meistens nicht lange gelebt. Schwer kranken Menschen mit einer solchen Wunschdenkensideologie auch noch die Schuld an ihrem Schicksal zuzuschieben, ist daher in einer so erschreckenden Weise menschenverachtend, dass mir gerade schon wieder sehr bewusst wird, warum mir dieser Artikel wichtig ist. Frau Weber begründet mit ihrem falschen Beobachtereffekt jedenfalls ihre „mentalen Heilmethoden“, mit denen sie laut Homepage unter anderem Wirbelsäulenprobleme, Allergien, nicht näher bezeichnete „chronische Krankheiten“, Süchte und Depressionen behandelt. Immerhin keinen Krebs, möchte man erleichtert sagen, wenn man weiß, was Geistheiler sonst so auf der Pfanne haben, wobei natürlich auch Süchte und Depressionen bei falscher oder „mentaler“ (= im Zweifelsfall keiner) Behandlung vermeidbar tödlich enden können.

Wer starke Nerven hat oder für heute keine Pläne mehr hat und nicht zu Schlafstörungen neigt (ich meine das ernst, der Artikel ist krass),  kann sich hier eine Recherche von Correctiv zur „Behandlung“ einer Geistheilerin bei einer Krebskranken durchlesen. Zur Richtigkeit der darin genannten Sachverhalte kann ich nichts sagen – ich weiß nur, dass der Artikel seit über einer Woche online ist, und es scheint noch niemand erfolgreich dagegen vorgegangen zu sein. Die darin vorkommende Geistheilerin scheint sich nicht ausdrücklich auf Quantenquark zu berufen, aber immerhin war sie noch 2015 Vorsitzende des „Dachverbands geistiges Heilen“, dem zumindest mehrere Schüler von Sandra Weber angehören. Auf dem Kongress dieses Verbandes eben im Jahr 2015 ging es unter anderem um: „Hirnforschung, Quantenphysik, Arzt-Heiler-Kommunikation, Spontanheilung bei Krebs und zur Frage der Unsterblichkeit der Seele“

Eh isch misch uffreesch, wie man bei uns in Hessen sagt, abschließend noch kurz zur Frage, ob man derlei Verdummbeutelung der Physik nicht schon in der Schule vorbeugen könnte. Ich bilde mir ja ein, ich hätte den Beobachtereffekt – und warum das Leben auch als Quanten-Beobachter kein Wunschkonzert ist – hier in einem überschaubaren (ja, er ist wieder lang…) Artikel halbwegs verständlich erklärt. Das müsste ja eigentlich auch die Schule leisten können, wenigstens in der Oberstufe. Klar, Lehrer haben oft nicht sonderlich viel Quantenphysik gelernt und dann meist auch wenig davon gebraucht. Da würden sie sich sicherlich über eine Handreichung von kompetenten Fachdidaktikern freuen, wie man Quantenmechanik richtig und verständlich vermittelt… vielleicht von einer der angesehensten naturwissenschaftlichen Hochschulen des deutschsprachigen Raums… wie wäre es mit der Eidgenössischen Technischen Hochschule in Zürich, der berühmten ETH? Dummerweise findet sich gerade dort bei der Fachdidaktik Physik ein Leitprogramm zur Quantenphysik für die Klassen 11 bis 13 mit dem Titel „Es spukt also doch bei den Quanten„. Der Text liest sich in weiten Teilen so, als stamme er von der Seite irgendeines Pseudophysik-Schwurblers, mit einem zumindest missverständlich formulierten Beobachterbegriff: „Der Beobachter „erschafft“ sein eigenes Teilchen. […] Aber vom philosophischen Standpunkt her gesehen haben wir ein unerhörtes Problem. Niemand hat bisher eine brauchbare Lösung gefunden.“ Kein Wort dazu, dass das philosophische Problem nur existiert, wenn man versucht, Quantenobjekte in die unpassenden Kategorien unserer Alltagswelt zu pressen. Kein Wort, dass der angebliche Beobachter mit im Vergleich extrem wenigen Ausnahmen einfach die unbelebte Außenwelt ist – eine Bleiabschirmung, die Laborwand, ein Molekül der Umgebungsluft. Das entscheidende Stichwort, nach dem von dem ganzen philosophischen Problem nur noch Prinzipienreiterei bleibt, nämlich „Dekohärenz“, kommt in dem Text praktischerweise nicht vor. Dafür folgen drei Interpretationsansätze für das vermeintliche philosophische Problem. Nur die dritte davon ist eine der gängigen (wenngleich auch schon reichlich angestaubten und für die reale Welt ziemlich uninteressanten) „Deutungen“ der Quantenmechanik. Als Erstes genannt wird der völlig verstaubte Positivismus, und die zweite „Interpretation“ der Züricher Physikdidaktiker ist purer… Quantenquark.

Da könnt isch misch scho widder uffreesche… Aber zum Glück gibt es auch Andere, die Dekohärenz erklären. Richtig gut sogar. Zum Beispiel gerade erst vor ein paar Wochen Harald Lesch. Wenn der religiös oder ökoromantisch wird, kann ich mich über den zwar auch manchmal aufregen, aber Physik erklären kann er:

Hoffentlich hört sich das jetzt nicht jemand an und missversteht daraus, dass durch die Dekohärenz doch irgendwie alles mit allem zusammenhängt. Aber wenn ich darüber jetzt nachdenke, reesch isch misch doch widder uff.