Kurzes Impfstoff-Update: Keine gute Nachricht aus Tübingen

Die aktuelle Wasserstandsmeldung zur Phase-III-Studie für den mRNA-Impfstoff von CureVac ist auf jeden Fall keine gute Nachricht. Es gibt noch immer kein vollständiges Ergebnis, aber eine geschätzte Wirksamkeit von 47% ist ganz sicher nicht konkurrenzfähig mit den Impfstoffen, die wir heute in Deutschland einsetzen. Das Unternehmen verweist mit einer gewissen Berechtigung darauf, dass die Studie (die zum Teil in Lateinamerika durchgeführt wurde) mit anderen, aggressiveren Virusvarianten zu tun hatte als die Zulassungsstudien früherer Impfstoffe. Ich habe auch immer betont, dass Zahlen zur Wirksamkeit aus unterschiedlichen Studien kaum vergleichbar sind und zwischen BioNTech, Moderna, Janssen und AstraZeneca (AZ) in den Medien gerne Äpfel und Birnen gegenübergestellt werden. Gleichzeitig gilt aber, dass jeder ganz neue Impfstoff gegenüber denen, die schon zigmillionenfach eingesetzt wurden, immer ein zusätzliches Risiko unentdeckter seltener Nebenwirkungen hat. Wer mit einem Arzneimittel für denselben Bedarf später kommt, muss in der Regel in irgendeiner Hinsicht einen deutlichen Zusatznutzen mitbringen, um noch eine Zulassung zu bekommen, und da sind solche Zwischenergebnisse vor allem gegenüber den amerikanischen und europäischen Behörden sicher nicht hilfreich. 
Schlecht ist das vor allem im globalen Maßstab, weil viele Länder außerhalb Europas und Nordamerikas immer noch einen riesigen Bedarf an Impfstoff haben. Bei aller Schwierigkeit, Daten aus unterschiedlichen Studien zu vergleichen: Eine Wirksamkeit von 47% gegen Erkrankungen durch das aktuelle Variantenumfeld in Europa und Lateinamerika ist ähnlich gut, möglicherweise sogar besser als das, was die in vielen Ländern eingesetzten chinesischen Totimpfstoffe bieten. Die lagen schon gegen den ursprünglichen Wildtyp nur in dieser Größenordnung der Wirksamkeit. Ich denke aber nicht, dass CureVac sich ernsthaft mit dem Ruf eines drittklassigen Impfstoffs um eine Zulassung in diesen Ländern bemühen würde, wenn sich die Daten so erhärten und eine Zulassung bei EMA und FDA aussichtslos bleiben dürfte.
Gleichzeitig ist dieser Zwischenstand auch nicht so katastrophal, dass CureVac-Partner wie Bayer jetzt sehr kurzfristig aufgeben und ihre vorgehaltenen Produktionskapazitäten an Pfizer vermieten würden. Das wird uns also global einfach deutlich Zeit kosten.
Für Deutschland sehe ich den Effekt nicht so wahnsinnig dramatisch. Es war schon seit ein paar Wochen absehbar, dass CureVac durch den Rückgang bei den Fallzahlen gerade in Europa nicht genug Erkrankungen in der Studie haben würde, um noch im Juni eine Wirksamkeit belegen und im Juli zu unserer Versorgung beitragen zu können. Damit man zeigen kann, dass Geimpfte weniger erkranken als Placeboteilnehmer, braucht man ja Infektionen – ein Problem, das schon AstraZeneca letzten Sommer in Großbritannien hatte. 
Um mit dem ersten Durchimpfen der impfbereiten Erwachsenen bis September fertig zu sein, brauchen wir die ursprünglich eingeplanten Dosen von CureVac aber auch nicht. Dafür war es eben gut, dass Deutschland und die EU von vornherein auf diverse Hersteller verteilt viel mehr bestellt haben als nötig. Die aktuelle Impfkampagne läuft mit vier Impfstoffen parallel auf Hochtouren, und sie dürfte in der zweiten Junihälfte nochmal an Fahrt aufnehmen.
Eine kleine Delle bei den Lieferungen erwartet uns nochmal im Juli. Bislang wird die Kampagne mit mehr als 70% der insgesamt gelieferten Dosen ganz massiv durch den mRNA-Impfstoff von BioNTech/Pfizer getragen, auch durch die zusätzlichen Kontingente, die Deutschland als Gegenleistung für die Anschubfinanzierung der Bundesregierung bei BioNTech erhält. Diese Sonderkontingente laufen aber aus – nach 50 Millionen Dosen allein im zweiten Quartal sind von BioNTech/Pfizer nur noch 57 Millionen für den gesamten Rest des Jahres in der Planung. Bis September sollten das die anderen Hersteller aber ausgeglichen haben. Vor allem Moderna hat mit seinem mRNA-Impfstoff zunächst seinen eigenen Geldgeber USA priorisiert. Deutschland hat bislang erst 6 Millionen Dosen von Moderna erhalten, aber bis zum Jahresende sollen noch weitere 72 Millionen Dosen kommen, also deutlich mehr als von BioNTech. Bei diesem relativ teuren Impfstoff dürfte auch der Andrang von Drittländern, die deutschen Kontingente zu übernehmen, überschaubar sein. Bei Janssen mit seiner amerikanischen Muttergesellschaft Johnson & Johnson ergibt sich ein sehr ähnliches Bild. Die Zahlen sind insgesamt nur etwa halb so groß, aber dieser Impfstoff wird ja aktuell als Einzeldosis eingesetzt (wobei ich vermuten würde, dass das die ersten Kandidaten für eine Auffrischung im Herbst sein werden, weil der Impfschutz nach aktueller Datenlage wirklich nicht gleich gut ist wie zwei Dosen der Wettbewerber). Bei AstraZeneca sind die zukünftigen Mengen am unsichersten, weil noch nicht klar ist, wie der Rechtsstreit mit der EU wegen der bisherigen Lieferverzögerungen beigelegt wird. Eigentlich hat Deutschland noch über 40 Millionen Dosen Vaxzevria zu bekommen – aber nach schlechter Presse hält sich das Interesse der deutschen Bevölkerung an diesen Dosen ja bekanntlich sehr in Grenzen, und ein großer Teil davon wird als Hilfe in anderen Ländern dankbar aufgenommen werden. Moderna, Janssen und AZ sind jedenfalls dabei, ihre Lieferungen deutlich zu steigern, werden aber wohl Anfang Juli den Rückgang bei BioNTech/Pfizer noch nicht ganz auffangen können.
So oder so – in zwei bis drei Monaten wird es bei den Erwachsenen nur noch darum gehen, wer sich impfen lassen will. Es bleibt nur zu hoffen, dass dann, mit mehr Daten aus den USA, auch die STIKO bereit ist, ihre Haltung (was man nicht direkt aus Patientendaten ablesen kann, wird immer in Richtung Harmlosigkeit der Krankheit und Gefährlichkeit der Impfung interpretiert) zur Impfung von Jugendlichen zu überdenken, damit wir nicht im Winter eine massive Durchseuchung der Schulen erleben und wieder ständig Schulklassen in Quarantäne haben müssen. Von den Kultusministern darf man hinsichtlich Vorsichtsmaßnahmen ja bekanntlich kein Verantwortungsbewusstsein erwarten.

Von Teilchenschauern zu alten Tüchern

Bevor ich mich hier wahrscheinlich doch bald wieder mit dem bräunlichen Schimmer irgendwelcher Impfgegner und Querdenkschwurbler beschäftigen muss, will ich auf keinen Fall versäumen, mein Versprechen aus dem letzten Post einzulösen und mir die Radiocarbondatierung (oder C14-Methode) näher anzusehen. Dabei fangen wir tatsächlich mit etwas an, das vom Himmel gekommen ist und enden mit einem, der zum Himmel gefahren sein soll, nachdem er seine Abdrücke auf einem Tuch hinterlassen hat…

Was ist eigentlich Kohlenstoff-14?

Die Kerne unserer Atome setzen sich aus Protonen und Neutronen zusammen. Die positiv geladenen Protonen bestimmen die Ladung des Kerns – und damit auch, wie viele Elektronen zur Hülle des Atoms gehören müssen, damit es elektrisch neutral ist. Praktisch die gesamten chemischen Eigenschaften des Atoms sind also durch die Zahl seiner Protonen bestimmt. Die Neutronen, mit einer Masse praktisch gleich der von Protonen, aber elektrisch neutral, tragen zu den Eigenschaften des Atoms nur eben diese Masse bei. Kernphysikalisch machen es die Neutronen möglich, dass die Protonen, deren positive Ladungen sich ja abstoßen, im Kern einen gewissen Abstand wahren, aber trotzdem miteinander verbunden bleiben können. Die starke Kernkraft, die Atomkerne zusammenhält, reicht ja nur von einem Teilchen zum nächsten. Man hat die Neutronen daher in den Anfängen der Kernphysik mit einer Art Kleber verglichen. Da die Masse der Elektronenhülle vernachlässigbar ist, wird die Masse eines Atoms durch die Zahl der Protonen plus Neutronen im Kern bestimmt, die chemischen Eigenschaften, wie schon erwähnt, nur durch die Protonen. Die Gesamtzahl von Protonen und Neutronen im Kern bezeichnet man als die Massenzahl, und genau das ist die 14 im Kohlenstoff-14, geschrieben auch als 14C (normalerweise mit hochgestellter 14).

Kerne mit gleich vielen Protonen gehören daher zum selben chemischen Element, und die Zahl der Protonen im Kern ist nichts weiter als die Ordnungszahl des Elements im Periodensystem. Wenn Kerne sich nur in ihrer Neutronenzahl unterscheiden, spricht man von unterschiedlichen Isotopen eines Elements. Es gibt bestimmte Verhältnisse von Protonen zu Neutronen, in denen Isotope langfristig stabil sind. Bei relativ kleinen Kernen findet man oft nur ein oder zwei solcher stabilen Isotope pro Element, und die Zahlen der Protonen und Neutronen sind sich dann meist sehr ähnlich. Beim Kohlenstoff mit seinen sechs Protonen gibt es stabile Isotope mit sechs oder sieben Neutronen, also mit den Massenzahlen 12 und 13. Hat ein Kern ein von der Stabilität abweichendes Verhältnis von Protonen zu Neutronen, dann wird er sich früher oder später (wobei später je nach Kern auch Milliarden von Jahren bedeuten kann) umwandeln, typischerweise indem ein Proton zu einem Neutron wird oder umgekehrt. Beide Formen dieser Umwandlung kamen schon im letzten Artikel beim Kalium-40 vor.

Beim Kohlenstoff ist das bedeutendste instabile Isotop der Kohlenstoff-14, bei dem zu den sechs Protonen, die es zum Kohlenstoff machen, acht Neutronen hinzukommen. Das Isotop ist relativ langlebig: Erst nach 5730 Jahren ist die Hälfte der Kohlenstoff-14-Kerne zerfallen. Anders als beim Kalium-40 gibt es hier auch nur einen Umwandlungsprozess, durch den der Kohlenstoff-14 wieder abgebaut wird, und der ist relativ naheliegend: Eins der Neutronen wandelt sich in ein Proton um, wodurch ein stabiler Kern mit je sieben Protonen und Neutronen entsteht, Stickstoff-14. An dieser Stelle kommt wieder die im letzten Artikel schon erwähnte Erhaltung der Quantenzahlen ins Spiel: Da die positive Ladung des Protons nicht einfach aus dem Nichts kommen kann, muss gleichzeitig noch eine negative Ladung freigesetzt werden, und das leichteste Teilchen mit negativer Ladung ist ein Elektron. Die Zahl der leichten Teilchen ist aber ebenfalls erhalten, so dass als Ausgleich für das Elektron noch ein ungeladenes leichtes Antiteilchen, ein Antineutrino, abgegeben werden muss, das aber in der Regel nicht direkt gemessen werden kann. Diese Art der Kernumwandlung, Neutron wird zu Proton, Elektron und Antineutrino, bezeichnet man als Betazerfall (β-, um genau zu sein), das beschleunigte Elektron, das dabei wegfliegt, als Betastrahlung.

Wie entsteht Kohlenstoff-14?

Wenn von einer Menge Kohlenstoff-14 nach 5700 Jahren schon die Hälfte in Stickstoff umgewandelt ist, sollte klar sein, dass der Kohlenstoff-14, den wir heute finden, nicht wie Kalium-40 ein Überbleibsel von der Entstehung der Erde sein kann. Das Isotop muss also irgendwie ständig neu entstehen. Der Prozess, in dem Kohlenstoff-14 produziert wird, sieht auf den ersten Blick aus wie die direkte Umkehrung des Zerfalls: Kohlenstoff-14 entsteht nämlich aus Stickstoff-14. Das kann aber natürlich nicht von allein passieren, denn ein Zerfall führt ja immer zum energetisch günstigeren, in der Regel stabileren, Zustand. Wenn sich so ein Prozess (im Ergebnis) umkehrt, muss das durch irgendetwas angetrieben werden, und das sind in dem Fall Neutronen.

Freie, also nicht in einem Atomkern gebundene Neutronen sind ebenfalls instabil. Sie zerfallen schon mit einer Halbwertszeit von 15 Minuten zu einem Proton (und natürlich auch wieder einem Elektron und einem Antineutrino) – außer sie treffen vorher auf einen Atomkern, in den sie sich einbauen und so in einen energetisch stabileren Zustand geraten können. Neutronen gehören somit auch zum gefährlicheren, weil schwer abzuschirmenden, Teil der radioaktiven Strahlung. Für technische Zwecke erzeugt man Neutronen in größerer Anzahl am einfachsten durch Kernspaltung in einem Reaktor. Wenn nur kleinere Neutronenzahlen benötigt werden oder ein Reaktor aus politischen Gründen unerwünscht ist, kann man Neutronen auch aus Atomkernen abspalten, indem man diese mit hochenergetischen geladenen Teilchen aus einem Beschleuniger beschießt. Das gleiche passiert in der hohen Atmosphäre, wenn energiereiche Strahlung aus den Tiefen des Alls auf die Atomkerne der Atmosphäre trifft und diese zum Teil einfach zertrümmert. Teilweise können die entstandenen Kernfragmente in Folgekollisionen wieder weitere Kerne zerstören, so dass neben vielen geladenen Teilchen auch Neutronen aus den Atomkernen freigesetzt werden.

Da die Atmosphäre unterhalb einer gewissen Höhe zum größten Teil aus Stickstoff besteht, ist die Wahrscheinlichkeit groß, dass der erste Atomkern, mit dem ein solches freies Neutron reagieren kann, ein Stickstoffkern ist. Stickstoffkerne bestehen aus sieben Protonen und fast immer sieben Neutronen. Naiverweise könnte man erwarten, dass ein solcher Stickstoff-14-Kern das Neutron einfach schluckt und zu einem ebenfalls stabilen Stickstoff-15-Kern wird. Auch hier führen aber wieder Erhaltungssätze für Impuls und Drehimpuls in Verbindung mit der bei der Aufnahme des Neutrons frei werdenden Energie dazu, dass wieder ein Teilchen abgegeben wird, und das ist in diesem Fall eins der Protonen aus dem Kern. Effektiv wird im Kern also einfach ein Proton durch das Neutron ersetzt (eine sogenannte n-p-Reaktion), und der resultierende Kern – Kohlenstoff-14 – mit sechs Protonen und acht Neutronen ist zwar nicht stabil, aber energetisch schon günstiger als der Anfangszustand mit dem freien Neutron.

Kohlenstoff-14 entsteht in gewissen Höhen (ganz grob da, wo auch Flugzeuge fliegen) also ständig, einfach durch Prozesse, die von der kosmischen Strahlung ausgelöst werden. Aufgrund seiner langen Halbwertszeit hat das Isotop dann viel Zeit, sich zu verteilen, bevor ein nennenswerter Teil davon sich wieder zu Stickstoff-14 umgewandelt hat. Gleichzeitig unterscheidet es sich in fast allen chemischen Reaktionen nicht von sonstigem Kohlenstoff (warum „fast“ wäre mal ein Thema für einen anderen Artikel). Es reagiert in der Regel zu Kohlendioxid, wird mit dem anderen Kohlendioxid von Pflanzen und Bakterien in Biomasse eingebaut und in der Folge auch von Tieren gefressen. Ganz grob kann man sagen, dass alles, was lebt oder kürzlich noch gelebt hat, aufgrund seines Stoffwechsels den gleichen Anteil von Kohlenstoff-14 an seinem enthaltenen Kohlenstoff hat. Das gilt auch für unsere Nahrung und für unseren Körper.

Gehört das auch zur natürlichen Strahlenbelastung?

Wie wir schon im mehrfach erwähnten letzten Artikel gesehen haben, hat Betastrahlung in festem oder flüssigem Material eine so geringe Reichweite, dass sie für Menschen nicht relevant ist, wenn sie außerhalb des Körpers entsteht. Interessant sind also nur die Zerfälle von Kohlenstoff-14, die im Körper selbst passieren. Die Zahl dieser Zerfälle (gemessen in Becquerel, also Zerfällen pro Sekunde) ist interessanterweise sehr ähnlich der, die man auch beim Kalium-40 hat. Die biologisch relevante Strahlendosis durch Kohlenstoff-14 ist allerdings viel kleiner als durch Kalium-40, weil pro Zerfall nur etwas mehr als ein Zehntel an Energie frei wird. Dementsprechend richten die herumfliegenden Elektronen auch viel weniger Schaden an. Kohlenstoff-14 ist also ein Teil der natürlichen Strahlenbelastung, macht davon aber nur einen winzigen Anteil aus.

Wie kann man das zur Altersbestimmung nutzen?

Für eine Altersbestimmung muss die Uhr ja irgendwann anfangen zu ticken. Es muss einen Zeitpunkt geben, wenn für ein Material der Anteil eines Isotops oder das Verhältnis von zwei Isotopen eingefroren werden, so dass man anschließend messen kann, wieviel seitdem zerfallen ist. Im Fall der Kalium-40-Methode war das das Zerfallsprodukt Argon-40, das beim Auskristallisieren eines Gesteins noch einen Anteil von null hat. Beim Kohlenstoff-14 nutzt man die Tatsache, dass in lebenden Organismen der Kohlenstoff über den Stoffwechsel mit der Außenwelt ausgetauscht wird und dadurch der Kohlenstoff-14-Anteil am Kohlenstoff im Organismus dem der Außenwelt entspricht. Wenn der Kohlenstoff nicht mehr ausgetauscht wird, weil der ganze Organismus gestorben oder der Kohlenstoff fest im Holz einer Pflanze eingebaut ist, dann kann kein neuer Kohlenstoff-14 aus der hohen Atmosphäre mehr hineinkommen. Der enthaltene Kohlenstoff-14 wird dann langsam zu Stickstoff zerfallen und aufgrund der abweichenden chemischen Eigenschaften von Stickstoff in der Regel entweichen. Der Anteil von Kohlenstoff-14 am Gesamt-Kohlenstoff im Material wird sich nach 5730 Jahren halbiert haben, der Rest nach weiteren 5730 Jahren noch einmal halbiert… und so weiter.

Wenn man den Anteil des Kohlenstoff-14 am Gesamtkohlenstoff bestimmt und ins Verhältnis zum ursprünglichen Anteil setzt, wird es also recht einfach, das Alter von biologischem Material zu bestimmen. Das funktioniert wieder am besten, wenn der Zeitraum ungefähr die Größenordnung der Halbwertszeit von 5730 Jahren hat – in der Praxis von einigen hundert bis einigen zehntausend Jahren.

Wie misst man das eigentlich?

Bis hierhin findet man das alles noch relativ häufig erklärt. Die meisten Beschreibungen der Methode gehen dann aber recht flott über die Frage hinweg, wie man den Kohlenstoff-14-Gehalt eines Materials denn tatsächlich misst. Für mich als experimentellen Kern-/Teilchenphysiker (das weiß bei meinem damaligen Forschungsfeld keiner so genau, wozu wir eigentlich gehören) ist aber gerade das spannend.

Die trickreiche und technisch eher einfache Methode ist, die Zerfälle von Kohlenstoff-14 zu messen. Da immer derselbe Anteil der noch vorhandenen Kerne zerfällt, kann man aus der Häufigkeit von Zerfällen die Menge des vorhandenen Kohlenstoff-14 errechnen. Die Zerfälle machen sich ja durch das abgegebene Elektron, also die Beta-Strahlung kenntlich, die sich recht einfach mit einem Halbleiterdetektor oder altmodischer mit einem Proportionalzählrohr nachweisen lassen. In beiden Messgeräten nutzt man den Effekt, dass die schnell bewegten Elektronen aus den Zerfällen weitere Elektronen aus den Atomen des Gases (beim Zählrohr) oder des Halbleiters (beim Halbleiterdetektor) herausreißen können. Diese werden dann mit einer Hochspannung beschleunigt, bis wiederum sie weitere Elektronen aus den Atomen auf ihrem Weg herausreißen können, die wieder beschleunigt werden, und so weiter, bis genügend Elektronen zusammengekommen sind, dass man sie als kleines elektrisches Signal mit einem Verstärker messen kann. Solche Messungen funktionieren für den Nachweis vieler radioaktiver Stoffe sehr gut – beim Kohlenstoff-14 gibt es aber zwei Problemchen. Erstens macht Kohlenstoff-14 eben nur diese Beta-Zerfälle, bei denen sich die Energie des Zerfalls ja auf das messbare Elektron und das nicht messbare Antineutrino verteilt – und zwar in zufällig wechselnden Anteilen. Man kann dadurch nicht sagen, dass ein Elektron einer bestimmten Energie genau aus einem Zerfall von Kohlenstoff-14 kommen muss und nicht vielleicht von irgendeinem anderen Betastrahler. Man muss also sicherstellen, dass die Probe mit keinem anderen radioaktiven Material (zum Beispiel mit Kalium-40) kontaminiert ist. Das zweite Problem ist, dass Kohlenstoff-14 so langsam zerfällt. Der gesamte Kohlenstoff im Körper eines durchschnittlichen Erwachsenen (und die Eiweiße und Fette unseres Gewebes bestehen ja zu einem großen Teil aus Kohlenstoff) verursacht weniger als 4000 Zerfälle von Kohlenstoff-14 pro Sekunde, und zwar solange der Körper noch lebt und der Kohlenstoff frisch ist. In 23.000 Jahre alten Knochen ist die Aktivität nur noch  1/16 davon, und man will ja oft nur eine Probe von ein paar Milligramm Material für die Messung verwenden. Da muss man unter Umständen ziemlich lange messen, bis man eine Häufigkeit von Kohlenstoff-14-Zerfällen angeben kann. Zudem muss man den Gesamtkohlenstoffgehalt des Materials dann noch zusätzlich mit einer anderen Methode bestimmen. Das sorgt für eine Menge Ungenauigkeiten.

Wenn man es genau wissen will, bleibt einem also nichts anderes übrig, als die Atome der unterschiedlichen Isotope einzeln auszuzählen. Das geht zum Glück automatisch in einem Massenspektrometer, ist aber trotzdem im Vergleich zur Messung der Strahlung aus den Zerfällen richtig aufwendig und teuer. Die zu analysierende Materialprobe wird dabei zunächst einmal verbrannt und das entstandene Kohlendioxid dann wieder elektrisch aufgespalten, so dass sich der Kohlenstoff auf einer Metallscheibe absetzt. Beschießt man diese Metallscheibe mit beschleunigten, elektrisch geladenen Teilchen, dann kann man einzelne Kohlenstoffatome wieder von der Metalloberfläche wegreißen. Dabei werden sie in vielen Fällen ein Elektron zu viel oder zu wenig mitbekommen haben, also elektrisch geladen sein (man bezeichnet sie dann als Ionen), so dass man sie jetzt selbst in einem elektrischen Feld beschleunigen kann. In diesem elektrischen Feld wirkt jetzt auf alle gleich geladenen Ionen (und die meisten haben eben nur die Ladung von einem Elektron zu viel oder zu wenig) die gleiche Kraft. Diese gleiche Kraft wird aber die schwereren Kohlenstoff-14-Ionen weniger stark beschleunigen als die „normalen“ Kohlenstoff-12-Ionen oder den selteneren, aber ebenfalls stabilen Kohlenstoff-13. Jetzt kann man auf unterschiedliche Arten etwas tricksen, um die Ionen noch mehr zu beschleunigen – aber immer mit elektrischen Feldern. Die leichteren Ionen werden dadurch immer schneller sein als die schweren. Dann lenkt man die Ionen um die Kurve. Das geht bei beschleunigten, geladenen Teilchen recht einfach mit einem Magnetfeld, und es passiert genau das, was man naiv erwarten würde: Die schwereren Ionen werden, obwohl sie etwas langsamer sind, ein bisschen weiter aus der Kurve getragen. Die Flugbahn ist also ein Maß für die Masse der Ionen, und wenn man einfach nur zählt (das geht wieder zum Beispiel mit Halbleiterzählern oder Zählrohren), wie viele Kohlenstoffionen wo ankommen, dann weiß man, wie hoch der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff in der Probe war. Das ist dann sehr eindeutig und genau, weil man alle Anteile mit derselben Apparatur misst und Störfaktoren sehr gut ausschließen kann, aber so ein Massenspektrometer nebst Material und Personal muss man erst einmal haben.

Welche Grenzen und Probleme gibt es?

Mit dem Massenspektrometer kann man den Anteil des Kohlenstoff-14 also sehr genau bestimmen. Neben der reinen Messgenauigkeit gibt es aber noch ein paar andere Problemchen, die die Präzision der Datierung begrenzen und die leider auch in der Presse gerne benutzt werden, um die Methode insgesamt zu diskreditieren, obwohl sie in Wirklichkeit einfach nur bedeuten, dass man eben auch bei der Radiocarbondatierung wissen muss, was man tut.

Eine vielleicht etwas überraschende Quelle von Ungenauigkeiten, weil es sich um eine tausendfach benutzte physikalische Eigenschaft eines Kerns handelt, ist die Halbwertszeit von Kohlenstoff-14. Diese wird in kernphysikalischen Datenbanken angegeben als 5730 +/- 40 Jahre. Anders gesagt, man geht nach heutigem Wissen davon aus, dass die Halbwertszeit mit einer Wahrscheinlichkeit von knapp 70 % zwischen 5690 und 5770 Jahren liegen sollte. Sie kann aber auch noch ein Stück niedriger oder höher sein. Die Ursache für die auf den ersten Blick überraschende Ungenauigkeit von knapp einem Prozent bei einer so grundlegenden Größe liegt darin, dass es nicht so ganz einfach ist, die Halbwertszeit eines seltenen, langlebigen Isotops zu bestimmen. Eine Möglichkeit, Halbwertszeiten zu messen, ist, dass man die Strahlung einer Probe über einen langen Zeitraum beobachtet, um zu messen, wie sie sich verändert. Das ist offensichtlich wenig praktikabel, wenn eine richtig deutliche Veränderung erst über Jahrhunderte zu erwarten ist, zumal auch kernphysikalische Messgeräte bei Dauerbetrieb dummerweise spürbar altern. Andererseits kann man Halbwertszeiten auch bestimmen, wenn man die Menge des zu untersuchenden Isotops und die momentane Anzahl der Zerfälle sehr genau kennt. Das geht am besten, wenn die Halbwertszeiten extrem lang sind und die emittierte Strahlung sehr charakteristisch und einfach zu messen ist, wie zum Beispiel beim Zerfall von Kalium-40 zu Argon, der immer Gammastrahlung einer genau festgelegten Energie emittiert. Kohlenstoff-14 erzeugt aber nur Betastrahlung, bei der sich, wie schon erwähnt, die für einen radioaktiven Zerfall ohnehin schon kleine Energie auch noch irgendwie zwischen Elektron und Antineutrino aufteilt. Kurz gesagt, mit sehr großem Aufwand kann man solche Messungen natürlich immer irgendwie verbessern, aber das ist in diesem Fall nicht einfach. Es ist auch die Frage, wieviel Aufwand sich da lohnt, zumal die Halbwertszeit hier ja nicht die einzige Fehlerquelle ist.

Der zweite unsichere Wert bei der Radiocarbondatierung ist der Anteil des Kohlenstoff-14 am Gesamtkohlenstoff zum Beginn des zu messenden Zeitraums, als das biologische Material gestorben ist. Oben hatte ich sehr zuversichtlich geschrieben, dieser Anteil entspricht dem der Außenwelt – nur dummerweise ist der Kohlenstoff-14-Gehalt in der Außenwelt über die Jahrhunderte nicht konstant. Seit Beginn der Industrialisierung ist das offensichtlich, weil wir ständig zusätzliches Kohlendioxid aus fossilen Energieträgern in die Umwelt emittieren, und in diesen fossilen Stoffen hatte der Kohlenstoff-14 schon sehr viel Zeit, um zu zerfallen. Die Produktion von Kohlenstoff-14 in der Atmosphäre schwankt aber auch. Sie wird ja von der kosmischen Strahlung verursacht, die ursprünglich zu einem großen Teil aus geladenen Teilchen besteht (die Neutronen entstehen dann ja erst in Kollisionen mit den Atomkernen der Atmosphäre). Wie die beschleunigten Ionen im Massenspektrometer werden aber auch die geladenen Teilchen aus dem All durch Magnetfelder abgelenkt, und da eben vor allem durch das Erdmagnetfeld. Das Erdmagnetfeld schwankt in seiner Intensität aber ständig und hat in der Erdgeschichte auch schon des Öfteren ganz ausgesetzt. Die einfachste Möglichkeit, mit dieser Form von Ungenauigkeit umzugehen, ist, die Ergebnisse der Radiocarbondatierung zu kalibrieren, indem man sie mit Materialproben abgleicht, deren Alter man über Jahrtausende bis auf das Jahr genau kennst. Damit kommt dann plötzlich eine sehr alte und ziemlich handwerkliche Methode der Altersbestimmung zu neuer Wertschätzung, nämlich die schon mindestens seit dem 18. Jahrhundert eingesetzte Dendrochronologie, auf gut Deutsch das Auszählen der regional charakteristischen Muster dickerer und dünnerer Baumringe. Dabei wird vor allem die sehr langlebige amerikanische Borstenzapfenkiefer genutzt, aber man kann sich anhand der Muster mit erhaltenem Totholz noch weiter in die Vergangenheit hangeln. Das funktioniert über ungefähr die letzten 10.000 Jahre ganz ordentlich, aber davor, vor allem in der spannenden Zeit um die Besiedelung Europas durch den Homo sapiens und das Verschwinden der Neandertaler vor rund 40.000 Jahren herum, sind die Unsicherheiten noch relativ groß.

Die dritte Unsicherheit bei der Radiocarbondatierung bezieht sich auf die Frage, inwieweit der in der jeweiligen Probe untersuchte Kohlenstoff-14 tatsächlich ein repräsentatives Überbleibsel des Objekts ist, dessen Alter man wissen will. Dass das nicht immer stimmen kann, stellt man zum Beispiel fest, wenn man den Kohlenstoff-14-Anteil in Millionen Jahre alten Kohlevorkommen bestimmt. Darin dürfte eigentlich überhaupt kein Kohlenstoff-14 mehr übrig sein. Dennoch finden sich immer wieder Spuren des Isotops in solchen Lagerstätten, meist hart an der Nachweisgrenze der eingesetzten Verfahren, aber eben nicht null. Zum Teil kann man aus diesen Spuren ein rechnerisches Alter in der Größenordnung einiger zehntausend Jahre ermitteln. Von Kreationisten wird das regelmäßig als Nachweis präsentiert, dass  wissenschaftliche Angaben über das Alter der Erde nicht stimmen könnten und dass Kohlelagerstätten vor relativ kurzer Zeit als Folge der Sintflut entstanden seien. Dazu passt natürlich nicht, dass die gemessenen Mengen des Isotops sich zwischen Lagerstätten deutlich unterscheiden.  Tatsächlich entsteht Kohlenstoff-14  zwar überwiegend, aber eben nicht ausschließlich durch kosmische Strahlung in der Atmosphäre. Wissenschaftler, die für ihre Experimente gezielt nach besonders Kohlenstoff-14-armer Kohle suchen, berichten, dass der Gehalt des Isotops stark mit der sonstigen Radioaktivität der Lagerstätten, vor allem durch Uran, korreliert. Offensichtlich können Spuren von Kohlenstoff-14 also auch durch die Strahlung aus dem Uran erzeugt werden. Hinzu kommen gegebenenfalls auch Verunreinigungen durch Kohlenstoff in Mikroorganismen, die von außen eingetretenes Kohlendioxid aus der Luft, gegebenenfalls auch noch während oder nach der Förderung, verarbeitet und auf der Kohle hinterlassen haben. Das National Center for Science Education verweist zudem darauf, dass bei den extrem geringen nachgewiesenen Mengen unter Umständen nicht einmal klar sei, ob die gemessene Strahlung überhaupt von Kohlenstoff-14 stammt. Wie schon erwähnt, kann man aus Betastrahlung nicht eindeutig ablesen, von welchem Isotop sie emittiert wurde. Unter Umständen wird also mitunter auch Strahlung aus in den Kohlelagerstätten vorkommendem Kalium-40 oder den Zerfallsprodukten von Uran und Thorium fälschlich dem Kohlenstoff-14 zugeordnet. Das kann aber eigentlich nur passieren, wenn die Messungen nicht mit dem teureren Massenspektrometer gemacht sind, weil dort ja wirklich die Kerne und nicht ihre Betastrahlung gemessen werden.

Eine Kontamination der Proben mit neuerem Material, zum Beispiel durch eine Besiedelung mit Mikroorganismen, ist aber auch bei echten Datierungen von Fundstücken immer eine Gefahr, die bedacht und minimiert werden muss. Wichtig ist dabei, dass eine unkorrigierte Verunreinigung mit Kohlenstoff-14 aus neuem Material immer dazu führt, dass eine Probe zu jung eingeschätzt wird.

Welche Grenzen haben diese Probleme?

Alle die Unsicherheiten bei Radiocarbondatierungen, die gerade erwähnt wurden, haben ein paar Gemeinsamkeiten: Sie sind messbar, sie sind (mit Ausnahme der offenbar uneinheitlichen Ursachen der winzigen 14C-Spuren in Kohle) gut verstanden und nachvollziehbar, und sie sind vor allem insgesamt ziemlich klein. Relevant sind sie trotzdem, weil eine Fehldatierung von 50 Jahren im Mittelalter oder der Antike oder von einigen Jahrhunderten in der Zeit der Neandertaler natürlich einen erheblichen Unterschied für die Wissenschaft ausmachen können.

Leider werden auch immer wieder ganz andere Größenordnungen von Fehldatierung behauptet, und ähnlich wie bei bei den Behauptungen zu Kohlenstoff-14-Spuren in Kohlevorkommen ist das Ziel, religiösen Glaubenssätzen einen pseudo-wissenschaftlichen Anstrich zu geben. Es geht dabei vor allem um das sogenannte Turiner Grabtuch, in dem nach einer nicht einmal von der katholischen Kirche selbst anerkannten Vorstellung Jesus begraben gewesen sein soll. Ein hochauflösendes Bild findet sich hier. An sich ist dazu gar nicht viel zu sagen. Kunsthistorisch handelt es sich um ein typisches Produkt der mittelalterlichen Reliquienfertigung, die ihren Höhepunkt im 13. Jahrhundert hatte und Kirchen quer durch Europa mit zentnerweise Stücken des heiligen Kreuzes, mehreren Schweißtüchern Jesu und heiligen Lanzen sowie den Gebeinen von diversen Petrussen und Paulussen versorgt hat. Die ältesten nachgewiesenen Erwähnungen des Turiner Tuchs stammen aus der Mitte des 14. Jahrhunderts, und drei voneinander unabhängige Radiokohlenstoffdatierungen geben ein Herstelldatum im 13. Jahrhundert an. Dennoch gibt es eine treue Fangemeinde von überwiegend fachfremden Personen, die sich wissenschaftlich berufen fühlen, die Entstehung des Tuchs aufgrund von (für eine Datierung völlig ungeeigneten) chemischen Methoden, fragwürdigen Pollenanalysen oder purem Anschein ins Vorderasien vor rund 2000 Jahren  zu verlegen.

Lustig wird es bei den Versuchen, die den vorgefassten Glaubenssätzen widersprechenden Radiocarbondatierungen wegzudiskutieren, beziehungsweise ihnen lächerlich große Fehler anzudichten. Ja, aus den schon erwähnten Gründen sind Unsicherheiten von 50 oder in einigen Fällen auch 100 Jahren bei Proben aus dem Mittelalter immer denkbar, wie diese aufgrund wissenschaftlicher Daten auf Wikipedia veröffentlichte (Urheber dort nachlesbar) Kalibrationskurve zeigt:

Um angeblich 2000 Jahre alte Proben um satte 1200 Jahre falsch zu datieren, müssten allerdings schon sehr seltsame Dinge passiert sein. Wenn man von einem Wunder (wie der intensiven Strahlung der Auferstehung) mal absieht, landet man letztlich immer wieder bei Verunreinigungen durch Staub, Ruß, Mikroorganismen oder Reparaturfäden, die irgendwann zwischen dem 14. und dem 16. Jahrhundert in das Tuch gelangt sein müssten.

Abgesehen davon, dass es ziemlich absurd ist, dass das Tuch am Rand, wo die Proben entnommen wurden, unsichtbar per Kunststopfen repariert worden sein soll, während man auf die großen Löcher mittendrin einfach plumpe Flicken gesetzt hat: Überschlagen wir mal, wie plausibel ein solcher Effekt von Verunreinigungen ist, und weil es bei der Überlegung auf 50 Jahre mehr oder weniger nicht ankommt, vernachlässigen wir einfach die Kalibration und tun so, als sei der Kohlenstoff-14-Gehalt in der Atmosphäre und damit auch in frisch getrocknetem Flachs, aus dem man ein Leintuch herstellt, konstant. Diesen vereinfacht konstant angenommenen Kohlenstoff-14-Anteil setzen wir auf 100 % und betrachten, wie das Isotop über die nächsten 2000 Jahre zerfällt. Dann kommen wir auf die folgende Kurve:

Eine Radiocarbondatierung auf ein Alter von 750 Jahren bedeutet also, dass ein Kohlenstoff-14-Gehalt von rund 91,5 % des ursprünglichen Wertes gemessen wurde. Bei einer 2000 Jahre alten Probe dürfte der Restgehalt aber nur noch 78,5 % betragen. Bei den unterstellten Verunreinigungen oder Reparaturfäden wird in der Regel geschrieben, dass diese mindestens vor 500 Jahren auf das Tuch geraten sein müssten, entsprechend einem Kohlenstoff-14-Restgehalt von 94 %. Wenn man sich jetzt fragt, wieviel Verunreinigung mit 94 % Restgehalt man mit Originalmaterial von 78,5 % Restgehalt vermischen muss, um auf einen Restgehalt von 91,5 % zu kommen, stellt man fest, dass die untersuchten Proben zu 84 % aus Verunreinigungen bestanden haben müssten und nur zu einem kleinen Rest aus dem eigentlichen Tuch. Selbst wenn die Verunreinigungen vollkommen neu wären, was man ausschließen kann, müssten sie immer noch mehr als 60 % der untersuchten Proben ausmachen, um die gemessenen Werte zu erklären (eigentlich noch mehr, weil in neuen Verunreinigungen ja der Kohlenstoff-14-Gehalt duch die Verbrennung fossiler Energieträger reduziert ist). Verunreinigungen in dieser Größenordnung müsste man auf jeden Fall mit bloßem Auge erkennen können, egal, ob sie aus Ruß, Mikroorganismen oder später eingezogenen Reparaturfäden bestehen.

Von alten Steinen und radioaktiven Bananen

Neulich sollte ich für Tommy Krappweis im Ferngespräch die Radiocarbondatierung (auch bekannt als C-14-Methode) erklären. Ich habe vor, das hier auch noch einmal detaillierter anzusehen, weil diese Datierungsmethode immer wieder in die Auseinandersetzungen um allerlei Pseudowissenschaft hineingezogen wird.

Beim Auffrischen meiner Erinnerung bin ich aber über eine andere Methode zur Altersbestimmung gestolpert, die ebenfalls auf Kernphysik beruht und weitaus weniger bekannt, aber ebenso spannend ist. Auch hier wird ein Zerfallsprozess aus der natürlichen Radioaktivität genutzt, um das Alter von Materialien zu bestimmen. Aufgrund der deutlich längeren Halbwertszeit blickt man dabei aber viel weiter in die Vergangenheit. Die Kalium-Argon-Datierung hilft also nicht der Geschichte und Archäologie, sondern eher der Geologie und der Paläontologie. Interessanterweise treffen wir dabei auf ein Radioisotop, das schon im Artikel über den Wodka aus Tschernobyl vorkam.

Kalium-40 wird im Gegensatz zu anderen Bestandteilen der natürlichen Radioaktivität, wie dem bereits erwähnten Kohlenstoff C-14, nicht laufend nachproduziert. Sämtliches Kalium-40, das wir auf der Erde finden, stammt aus Explosionen längst vergangener Sterne und ist Teil der Erde, seit sie sich aus einer Staubansammlung um die Sonne gebildet hat. Dennoch handelt es sich um einen instabilen Kern: Kalium-40, bestehend aus 19 Protonen und 21 Neutronen, kann sich (in den meisten Fällen) umwandeln in Calcium-40. Der Begriff Umwandlung beschreibt das besser als der gebräuchlichere, radioaktiver Zerfall. Im Detail betrachtet emittiert dabei eins der Neutronen ein negativ geladenes, hoch beschleunigtes Elektron und bleibt als positiv geladenes Proton zurück im neuen Kern, der jetzt je 20 Protonen und Neutronen hat, also ein Calciumkern geworden ist. Als Ausgleich für das sozusagen aus dem Nichts entstandene Elektron muss noch ein Antiteilchen entstehen, ein ungeladenes Antineutrino, das aber weder direkt nachweisbar ist noch Schaden anrichtet. Verantwortlich dafür, dass das Antineutrino entstehen muss, ist die Erhaltung von Quantenzahlen – ein zentraler Grundsatz der Quantenphysik, der von Quantenesoterikern fast nie erwähnt wird, weil sich damit offensichtlich nicht gut schwurbeln lässt. Problematisch ist das emittierte Elektron, das eine (natürlich mikroskopisch kleine) Spur der Verwüstung durch lebendes Gewebe ziehen und auf dem Weg diverse Moleküle zerstören kann. Wenn davon das Erbgut einer Zelle betroffen ist, kann das zum Zelltod oder, seltener aber schlimmer, zu unkontrolliertem Wachstum als Tumor führen. Daraus, dass überhaupt noch Kalium-40 da ist, ist offensichtlich, dass diese Zerfälle (besser: Umwandlungen) sehr langsam – oder vielmehr, bezogen auf einzelne Kerne, sehr selten – ablaufen: Die Halbwertszeit von Kalium-40 liegt bei 1,25 Milliarden Jahren.

Viel ist dennoch nicht mehr übrig: Nur etwas über 0,01 Prozent des auf der Erde vorkommenden Kaliums ist Kalium-40. Chemisch ist es aber vom sonstigen Kalium nicht zu unterscheiden, weshalb es sich auch sehr gleichmäßig verteilt hat. Wo immer uns auf der Erde Kalium begegnet, enthält es ziemlich genau denselben Anteil von radioaktivem Kalium-40. Kalium begegnet uns nun aber vor allem in uns selbst: Im Körper eines durchschnittlichen Erwachsenen finden sich rund 140 Gramm Kalium, also auch etwa 16 Milligramm radioaktives Kalium-40. Davon zerfallen pro Sekunde über 4000 Atomkerne (man spricht von 4000 Becquerel Aktivität), wovon die meisten die erwähnten zerstörerischen Elektronen emittieren. Das Kalium in uns macht damit rund ein Zehntel der Strahlungsdosis aus, der wir natürlicherweise ausgesetzt sind.

Da sie immer auch Kalium-40 enthalten, haben logischerweise kaliumreiche Lebensmittel eine auffällig hohe natürliche Radioaktivität. Bekannt ist das vor allem bei Bananen. Ein Kilogramm durchschnittlicher Bananen hat eine Kalium-40-Aktivität von 130 Becquerel, entsprechend etwa der Aktivität von einer halben Tasse des gefürchteten Wassers, das in Fukushima in den Pazifik abgelassen werden soll, oder von sechs Kilogramm des Getreides aus Tschernobyl, das wegen dieser Strahlenbelastung nicht mehr gegessen werden darf. Heimisches Obst oder Gemüse mit der Radioaktivität einer normalen Banane dürfte in Japan nicht als Lebensmittel verkauft werden.

Nun könnte man auf die Idee kommen, seine Strahlenbelastung senken zu wollen, indem man auf Bananen, Kartoffeln, Fisch und andere kaliumreiche Nahrungsmittel verzichtet. Das wäre aber keine gute Idee, denn wir brauchen Kalium. Unter anderem nutzt unser Körper in Wasser gelöstes Kalium als Gegenpart zum im Kochsalz vorkommenden Natrium, um den Flüssigkeitshaushalt von Zellen und den Blutdruck zu steuern. Die richtige Kaliummenge im Körper wird dabei durch die Nieren reguliert. Wenn wir mal zum Beispiel bei scharfem Bananensalat (kann ich sehr empfehlen, allerdings natürlich mit Kreuzkümmel/Cumin und nicht wie in diesem Rezept mit Kümmel) richtig zuschlagen, dann landet hinterher einfach mehr Kalium in der Toilette. Das ist also etwas ganz anderes, als wenn wir radioaktive Spurenstoffe aufnehmen, deren Konzentration im Körper, vor allem in einzelnen Organen, sich durch zusätzliche Aufnahme mit der Nahrung möglicherweise sogar sehr langfristig verändern kann.

Was können uns nun aber Kernumwandlungen von Kalium-40 über das Alter von Gesteinen erzählen? Die schon beschriebenen Umwandlungen zu Calcium nutzen da tatsächlich nicht viel, weil sowohl Kalium als auch Calcium in allen möglichen Gesteinen und in ihren Ausgangsstoffen vorkommen. Wenn man etwas über einen radioaktiven Zerfall datieren will, müssen die enthaltenen Mengen oder Mengenverhältnisse ja beim Entstehen der zu datierenden Sache irgendwie festgelegt werden.

Für die Datierung nützt uns aber ein anderer Zerfall, denn mit einer Wahrscheinlichkeit von 10,7 Prozent wandelt sich ein Kalium-40-Kern nicht zu Calcium-40, sondern zu Argon-40 um. Dabei passiert genau der umgekehrte Prozess wie beim Zerfall zu Calcium: Es ist nicht ein Neutron, das ein (negativ geladenes) Elektron abgibt, sondern ein positiv geladenes Proton fängt ein Elektron ein und wird damit elektrisch neutral, also zu einem Neutron. Wegen der Erhaltungssätze wird dabei noch ein Neutrino abgegeben (sozusagen der ladungslose Quantenzahlen-Rest des Elektrons), das aber wieder nicht weiter interessiert. Biologisch problematisch ist hierbei lediglich die freiwerdende Energie, die als ein Quant einer energiereichen elektromagnetischen Welle, sogenannter Gammastrahlung, abgegeben wird. Anders als das Elektron beim Zerfall zu Calcium zieht Gammastrahlung keine Spur der Zerstörung durch lebendes Gewebe, hat dafür aber eine größere Reichweite, bis sie in der Regel ein einzelnes getroffenes Molekül zerstört. Deswegen ist diese Art der Umwandlung von Kalium-40 für die Strahlenbelastung des Menschen eher unbedeutend.

Dass sich in demselben Kern sowohl ein Proton in ein Neutron als auch ein Neutron in ein Proton umwandeln kann und dass in beiden Fällen Energie freigesetzt wird, ist kernphysikalisch ein Sonderfall. Das liegt daran, dass im Kalium-40 die ungerade Zahl von 19 Protonen und 21 Neutronen quantenphysikalisch doppelt ungünstig ist und sowohl 18:22 (Argon-40) als auch 20:20 (Calcium-40) stabilere Zustände darstellen. Materieteilchen (sogenannte Fermionen) bilden eben gerne Pärchen.

Warum ist dieser Zerfall nun aber für die Datierung von Gesteinen interessanter als der andere? Das liegt daran, dass, während sich das Alkalimetall Kalium und das Erdalkalimetall Calcium chemisch einigermaßen ähnlich verhalten, das Edelgas Argon chemisch völlig anders reagiert (nämlich eigentlich gar nicht). Kalium und Calcium sind sehr reaktiv und kommen in der Natur fast nie als Metall vor, sondern entweder in Form von Kristallen als Gestein oder gelöst in Wasser. Ein Argonatom ist dagegen allein am stabilsten, weshalb wir den allergrößten Teil des Argons auf der Erde als Atome frei herumfliegend in der Atmosphäre finden. Gleichzeitig hat Argon weniger als das leichtere Edelgas Helium die Tendenz, durch feste Materialien einfach hindurchzudiffundieren (jetzt wissen Sie auch, warum Heliumballons auf dem Jahrmarkt in der Regel aus Metallfolie anstatt aus Gummi bestehen und trotzdem schneller Druck verlieren als luftgefüllte Ballons). Wenn nun ein Kalium-40-Atomkern in Wasser gelöst ist oder in flüssigem Magma schwimmt und sich in einen Argon-40-Kern umwandelt, dann kann das entstehende Argonatom schnell in die Atmosphäre entweichen. Passiert dasselbe aber in bestimmten Mineralen unter der Erde, dann bleibt das Argon dort im Gitter der einzelnen Kristalle eingeschlossen. Umgekehrt gilt: Findet man Argon-40 in diesen Mineralen, dann kann es eigentlich nur durch den Zerfall von Kalium-40 dorthin gelangt sein – und zwar nachdem sie in ihrer jetzigen Form ausgehärtet sind. Wenn man also feststellt, wieviel Kalium in einem Gestein vorhanden ist und wieviel vom enthaltenen Kalium-40 schon zu Argon-40 zerfallen ist, kann man ausrechnen, wie lange das Gestein schon ausgehärtet ist. Das funktioniert gut, wenn das Material nicht in der Zwischenzeit durch geologische Vorgänge wie starke Erhitzung noch einmal verändert worden ist und wenn die betrachteten Zeiträume ganz grob der Größenordnung der Halbwertszeit ähneln, also mit einigen hundert Millionen Jahren gerade in geologisch interessanten Zeiträumen. Will man hingegen wissen, aus welchem der Ausbrüche des Kilauea in den letzten 500 Jahren eine Lavaschicht stammt, dann ist dafür in der Regel einfach noch nicht genug Argon entstanden. Wenn man genau genug misst, soll es aber schon für den Ausbruch des Vesuv vor knapp 2000 Jahren reichen, was ich ziemlich beeindruckend finde.

Dieses Verfahren begegnet einem mal unter der Bezeichnung Kalium-Argon-Methode und mal als Argon-39-Argon-40-Methode, aber der Unterschied liegt eigentlich nur darin, wie man den Kaliumgehalt (zu dem man das Argon-40 ins Verhältnis setzt) genau bestimmt. Das ist dann natürlich für einen experimentellen Kernphysiker wie mich noch spannend, aber nicht mehr unbedingt für diesen Artikel…

Warum (und wie) sich Naturwissenschaftler zu medizinischen Themen äußern sollten

Da ich in den Kommentaren hier immer wieder gesagt bekomme, als Physiker könne oder dürfe ich mich doch nicht kompetent zu gesundheitlichen Themen äußern, wollte ich dazu gerne etwas schreiben. Jetzt habe ich aber festgestellt, besser als Florian Aigner das gerade auf Facebook getan hat, kann man (oder jedenfalls ich) das einfach nicht ausdrücken. Daher freut es mich, dass ich seinen Text hier einfach übernehmen darf. Dank und Zustimmung möge also bitte direkt an Florian gehen – für Kritik und Diskussionsbedarf bin ich auch offen, da ich das ja exakt genauso sehe.

„Warum äußerst du dich als Physiker zu medizinischen Themen wie COVID-19? Das ist doch nicht dein Gebiet!“ Das höre ich jetzt wieder besonders häufig, oft gewürzt mit üblen Beschimpfungen. Gut, ich erkläre es gerne noch einmal.
Zuallererst: Jeder darf sich immer zu allem äußern. In einer Demokratie ist es Unsinn, jemanden dafür zu kritisieren, dass er sich zu einem bestimmten Thema äußert. Kritisieren soll man ihn, wenn er zu ein Thema Unsinn erzählt. Aber wahr ist natürlich: Nur weil man das Recht hat, seine Meinung zu verbreiten, heißt das noch lange nicht, dass es eine gute Idee ist. Manchmal ist es klüger, sich nicht zu äußern, und stattdessen lieber anderen Leuten zuzuhören, die es besser wissen. Ich als Physiker ärgere mich auch manchmal, wenn Leute über Physik reden, die keine Ahnung haben. Die erzählen dann, sie hätten Einstein widerlegt oder den Energieerhaltungssatz überlistet, verstehen aber nicht einmal die einfachsten Grundlagen.
Aber genau das mache ich nicht: Ich verbreite keine eigenen Theorien über medizinische Fragen. Ich habe nämlich keine. Ich bin fachlich nicht in der Lage, die Thesen der Experten zu überprüfen oder zu widerlegen, daher käme ich auch nicht auf die Idee, das zu versuchen. Vielleicht kann ich mir als Physiker ein paar ganz einfache mathematisch-statistische Zusammenhänge ansehen – aber auch hier gibt es Leute, die das besser, detaillierter und mit mehr Hintergrundwissen machen. Ich würde mir bei solchen Dingen niemals anmaßen, ein Experte zu sein.
Zwei Dinge gibt es in dem Zusammenhang allerdings schon, bei denen ich behaupten kann, ziemlich viel Erfahrung zu haben. Erstens: Nach langer naturwissenschaftlicher Ausbildung kann ich (zumindest in gewissem Rahmen) nachvollziehen, ob jemand naturwissenschaftlich arbeitet. Ich kann zwar keine Detailfehler in medizinischen Arbeiten finden, aber ich kann in vielen Fällen zumindest haarsträubenden Unsinn als solchen erkennen. Esoteriker von Wissenschaftlern zu unterscheiden – das gelingt meist recht einfach. Und zweitens: Nach fast 15 Jahren Wissenschaftsjournalismus glaube ich, komplizierte Dinge einigermaßen verständlich erklären zu können. Wenn es darum geht, medizinische Thesen aufzustellen, bin ich sicher kein Experte. Wenn es darum geht, aufgestellte Thesen zu erklären, dann schon ein bisschen.
Manchmal führt das zu seltsamen Situationen: Es gibt manchmal ganz spezielle Ärzte, die furchtbaren unwissenschaftlichen Unsinn erzählen. Wenn ich ihnen dann widerspreche, hat das keine gute Optik: Er ist doch ein Arzt, ich „nur“ Physiker. Da muss bei medizinischen Fragen doch der Arzt recht haben, oder? Nein – nicht wenn der Physiker sich zum Anwalt der naturwissenschaftlichen Medizin macht und die Meinung der besseren, naturwissenschaftlichen Ärzteschaft vertritt, während der verhaltensauffällige Arzt (peinlicherweise) jedes wissenschaftliche Denken verlassen hat. Auch dem Automechaniker würde ich beim Autoreparieren widersprechen, wenn er das Auto gesundbeten möchte – obwohl ich ziemlich wenig Ahnung von Autos habe.
Darum geht der Vorwurf „bleib bei deinem Fachgebiet“ ins Leere. Es stimmt: Wenn jemand kein Experte ist, sich aber gegen die Meinung der Experten stellt, dann sollte man vorsichtig sein. Ihm sollte man wirklich nur dann glauben, wenn er außergewöhnlich gute Argumente hat. Aber jemanden, der die Meinung der Experten wiedergibt, dafür zu kritisieren, selbst kein Experte zu sein, ist Unsinn. Nach diese Logik dürfte es keinerlei Journalismus geben, sondern nur noch Fachpublikationen. Das will wohl niemand.
Also: Sollte ich eines Tages verrückt werden, die etablierte Medizin attackieren und stattdessen mein eigenes Wunderheilmittel verkaufen, dann sollte man mich bitte mit aller Härte kritisieren. Solange ich aber nur versuche, zwischen Wissenschaft und verständlicherer Sprache zu übersetzen, sollte man mich kritisieren, wenn ich dabei Fehler mache – aber nicht dafür, dass ich es versuche.
Bei der Gelegenheit möchte ich es mir natürlich nicht nehmen lassen, auch auf Florians neues Buch aufmerksam zu machen. Darin erklärt er genau das, woran es bei vielen der Mediziner, die wir kritisieren, genau mangelt: Die Frage, wie eigentlich Wissenschaft funktioniert und was wissenschaftliches Arbeiten ist. Und Florian schreibt auch sonst sehr viel Lesenswertes.

Talken (und Musik hören) in der Krise

In der Coronakrise ist es um diesen Blog ja wieder etwas ruhiger geworden, was zum einen an meinem laufenden Buchprojekt liegt, zum anderen daran, dass ich zwar „Soloselbstständiger“, aber zum Glück durch die aktuellen Einschränkungen nicht arbeitslos geworden bin. Andere haben es da momentan weitaus schwieriger, und das sind nicht nur Musiker, Schauspieler und andere künstlerische Berufe. Betroffene Selbstständige sind zum Beispiel aus meinem Beraterumfeld alle, die primär von Coaching, Training, Vorträgen oder Veranstaltungsmanagement leben. Und, ja, im vergangenen Jahr gab es tatsächlich auch immer wieder Veranstalter, die bereit waren, für einen Vortrag über Quantenquark oder Verschwörungsmythen zu bezahlen. Diese Veranstaltungen sind in diesem Jahr erst mal alle abgesagt oder mehr oder weniger unbestimmt verschoben, was sicher richtig ist, aber auch ärgerlich, weil ich ganz abgesehen von der Bezahlung einfach auch gerne vor Publikum erzähle und nicht immer nur in einen Rechner tippen möchte. In der Summe muss ich aber sagen, solange mein Hauptberuf noch läuft, habe ich sicher keinen Grund, mich zu beschweren.

Sollte hier übrigens in letzter Zeit jemand ein bisschen den ursprünglichen Quantenquark vermisst haben –  in den kommenden Tagen sollte auf Welt online ein Artikel über Bioresonanztherapie erscheinen, zu dem ich meinen Senf dazugeben durfte. Falls der Redakteur meine Zitate so verwendet, wie ich hoffe, könnt Ihr da erfahren, was Bioresonanztherapie mit Fußwippen vor der Disco zu tun hat.

Ein Nebeneffekt der Krise ist, dass plötzlich ein paar unheimlich gute Leute, die normalerweise abends auf irgendwelchen Bühnen stehen, nichts besseres zu tun haben, als sich per Videochat mit mir zu unterhalten. Wenn dann auch noch die richtigen Technikleute dazukommen, wie zum Beispiel André Reitz von CB-Akustik Wetzlar, der eigentlich auch Veranstaltungen macht, dann kommen dabei Livestreams mit tollen neuen Talkformaten heraus, an denen ich viel Freude habe, auch wenn ich den Beteiligten doch eher Events mit Publikum im Saal gönnen würde.

Den Anfang gemacht hat am 26.3. Frank Mignon, mit der ersten Folge seines wöchentlichen „frank & frei bewegt“, das man über Facebook oder Youtube verfolgen kann. Bei dem Format wechseln sich längere Videointerviews ab mit Livemusik von Frank und seiner Bühnenpartnerin Anita Vidovic. Die Musik ist so, dass auch die ältere Generation nicht abschaltet, aber Anitas Stimme kann man finde ich auch dann mit Freude zuhören, wenn man die meisten Stücke noch als Kindheitserinnerungen kennt. Die Livestream-Reihe ist als Spin-Off von Franks gleichnamiger Kolumne in der Wetzlarer Lokalpresse angelegt, so dass Mittelhessen bei den Interviewpartnern durchaus überwiegt. Die Themen sind aber durchweg von überregionalem Interesse.

Mit mir hat sich Frank vor allem über Corona-Verschwörungsmythen unterhalten, und bemerkenswerterweise fällt mir nach vier Wochen noch nichts in dem Interview auf, was schon vollkommen überholt wäre. Dass Frank mich als „großartigen Wissenschaftler“ ankündigt (ich bin seit fast 20 Jahren kein Wissenschaftler mehr, und ich habe mich in der Physik immer als ziemlich durchschnittlich erlebt), möge man ihm nachsehen…

Die aktuelle Folge, an der ich nicht beteiligt war, ist übrigens weitaus weniger regional besetzt.

Ein völlig anderes Format mit mir kam dann in dieser Woche: Das „Ferngespräch“ von Tommy Krappweis sind satte eineinhalb Stunden geballter Talk – auch alles per Videochat, und, nein, mit Tommy sind auch eineinhalb Stunden alles andere als langweilig. Was will man auch mit jemandem Erwarten, in dessen Wikipedia-Artikel im ersten Satz steht: „ist ein deutscher Autor, Komiker, Regisseur, Produzent, Stuntman und Musiker“. Seine Gesprächspartner waren im „Ferngespräch“ auch schon Wigald Boning und Bernhard Hoëcker, aber zu skeptisch-wissenschaftlichen Themen bestand die Besetzung bisher neben Tommy aus den Hoaxillas Alexa und Alexander Waschkau, Kriminalpsychologin Lydia Benecke und GWUP-Multikanalkommunikator Bernd Harder. Am 21.4. durfte ich Lydias Platz übernehmen, und am 28.4. will Tommy uns irgendwie zu fünft auf den Schirm quetschen. Dann geht es um den aus den USA stammenden, aber gerade im Umfeld deutscher Reichsbürger immer populärer werdenden QAnon- Verschwörungsmythos.

Am 21. haben wir dagegen über die bizarre Vorstellung gesprochen, die aktuelle Covid-19-Pandemie hätte etwas mit 5G-Mobilfunk zu tun. Tommys Grundidee für die Talkrunde war wohl, dass ich etwas zur technischen Seite sagen könnte, Bernd zu Mobilfunkgeschwurbel der letzten 20 Jahre und die Hoaxillas zu den historischen und psychologischen Hintergründen, aber es war natürlich vorauszusehen, dass sich daran nach 10 Minuten keiner von uns mehr halten würde. Wer jetzt noch wissen möchte, was das ganze mit Pornos zu tun hat, der muss sich eben das Video ansehen.

Anzusehen sind die Ferngespräche jeweils live und später als Aufzeichnung unter dem Kanal WildMics auf twitch.tv, das für mich neu war und vom Look and Feel ziemlich an Youtube erinnert, mit dem Unterschied, dass man neben dem Livestream ein (in diesem Fall auch sehr aktiv genutztes) großes Chatfenster für die Zuschauer hat. Dafür sehe ich keine Kommentarfunktion, wie man sie von Youtube kennt. Die wird aber auf Youtube meiner Erfahrung nach hauptsächlich dafür genutzt, dass Leute, die sich die ersten fünf Minuten eines zwei Jahre alten Videos angesehen haben, dort ihre Hasskommentare absondern. Für mich persönlich muss ich sagen, während ich in Facebook eigentlich keiner Diskussion ausweiche, weigere ich mich strikt, auf die ganz überwiegend unterirdischen Youtube-Kommentare zu reagieren.

Für die coole Musik, die Tommy Krappweis eben auch macht, war in dem Format natürlich kein Platz, also reiche ich sie bei der Gelegenheit gleich mal nach. Aus skeptischer Sicht fallen mir da natürlich vor allem zwei Stücke ein, die Tommy über die Jahre gemacht hat und die man ganz gut mal in einer Onlinediskussion verlinken kann, die man… sagen wir, nicht weiterführen möchte. Da wäre zum Beispiel sein wunderbarer Dunning-Kruger-Blues:

Sollte man es nun aber mit jemandem zu tun haben, bei dem das nicht hilft, weil er zum Beispiel keine Ahnung hat, was der Dunning-Kruger-Effekt ist… naja, dann hilft eben nur noch eins:

Für die Freunde der eher elektronischen Klänge (da habe ich mich hier ja auch schon mal geoutet) ist mir vor ein paar Tagen noch etwas zum Thema in meine Inbox geflattert:

In einem kleinen Making-of dazu betreiben Manuel Volk und seine Conerdy-Partnerin auch gleich noch etwas geschicktes Product Placement (ich hab davon nix gewusst und kannte die beiden auch gar nicht, ich schwör’s):

So, und ganz zum Schluss, und um das Wirrwarr von Musikrichtungen perfekt zu machen, habe ich dann noch ein Musikvideo, das nur ganz am Rande (oder vielleicht doch nicht ganz so am Rande…) mit meinen Themen zu tun hat und eine Art von politischer Agitation ist, für die dieser Blog eigentlich überhaupt nicht gedacht ist. Aber… naja, ich finde es einfach nur treffend und saulustig, und die Musik (in der Version der Tokens natürlich) fand ich schon als kleines Kind gut. In diesem Sinne, auf die Raging Grannies of Mendocino…

Wer mich hierfür bezahlt und warum Quantenquark werbefrei ist

Ich bekomme ja gelegentlich mal Fanpost der… äh… unterhaltsameren Art. In der vergangenen Woche hatte ich zum Beispiel innerhalb von zwei Tagen zwei Mails mit Bezug zu unterschiedlichen Artikeln, deren Schreiber sich beide Gedanken über meine Einkommensquellen machten:

Guten Tag Herr Hümmler
Oder sollte man sagen Himmler, ich habe ihren Beitrag über Herrn Prof. Dr. Turtur gelesen und habe mich gefragt woher es wohl kommen mag das ein einfacher Doktor wie sie es sind die Wissenschaftlichen Erkenntnisse eines Professoren derart in den Schmutz zieht.?
Ich fragte mich, wer wohl ihren Lohn bezahlt damit sie einen Professoren derart schlecht darstellen.?

Auch der zweite Mailschreiber ist offensichtlich nicht nur von Geld, sondern auch von akademischen Titeln besonders faziniert:

Zunächst einmal wäre zu erwähnen, dass es unverständlich erscheint, dass sich ein Individuum mit diesen Qualifikationen nebst Tätigungsbereich
herab läßt und sich in >Meinungsbildende Prozesse< einschleicht, die eigentlich den Medien oder der Politiker-Kaste eigen sind.
Dies ist eigentlich nur zu erklären, wenn hier astronomische Summen fließen, denn ein >Promovierter< weiß sehr wohl, dass die aktuelle Abwendung des Volkes von der herkömmlichen Manipulation , in allen Bereichen, nicht mehr umkehrbar ist.

Nun muss ich sagen, es geht es mir ein bisschen so wie meinen Freunden vom Informationsnetzwerk Homöopathie, bei denen auch irgendwie die Pharmamillionen nie ankommen, mit denen sie angeblich geschmiert werden. Sollten Sie also zufällig wissen, wer mir meine astronomischen Summen von der Deutschland GmbH vorenthält, geben Sie mir doch bitte mal Bescheid…

Um es nochmal deutlich zu sagen: Das hier ist mein Hobby. Ich schreibe diesen Blog und meine Bücher in meiner Freizeit. Ich lebe von meiner selbstständigen Tätigkeit als Zukunftsplaner, die mit meinen skeptischen Freizeitaktivitäten absolut nichts zu tun hat. Wenn überhaupt laufe ich Gefahr, esoterikgläubige potentielle Kunden durch mein Hobby zu verprellen, und wenn ich noch bei einem großen Beratungsunternehmen angestellt wäre, dürfte ich diesen Blog wahrscheinlich gar nicht betreiben.

Durch die Bücher bringt mein Hobby inzwischen auch tatsächlich ein paar Einnahmen. Damit Sie das mal einschätzen können: Ein Sachbuchautor bekommt  typischerweise so um 10 Prozent des Ladenpreises als Honorar, und die Auflagen sind in dem Segment nicht riesig. Wenn 1000 Bücher verkauft sind, ist der Verlag in der Regel schon mal glücklich. Seit es die Bücher gibt, ist sogar gelegentlich mal eine Universität, ein Träger der Volksbildung oder eine Buchhandlung bereit, für einen Vortrag ein Honorar zu zahlen. Das ist in der Summe ein nettes kleines Zubrot, aber einen Stundenlohn rechnet man für das alles besser nicht aus. Will ich auch nicht. Es ist eben ein Hobby.

Und so stellt sich natürlich auch die Frage, wie trägt dieser Blog seine Kosten, und die Antwort ist, gar nicht, abgesehen davon, dass er vielleicht jemanden dazu animiert, eins meiner beiden Bücher zu kaufen. Wenn ganz viele das Quantenquark-Buch direkt über den Link zu Springer rechts oben kaufen, kommt vielleicht irgendwann genug von der kleinen Provision dafür zusammen, dass ich die auch tatsächlich ausgezahlt bekomme. Dafür müssten glaube ich mindestens 15 Euro zusammenkommen, die bisher wohl nicht erreicht sind – es lohnt sich aber auch nicht unbedingt, das dauernd nachzusehen.  Natürlich kann man auf Webseiten Werbung schalten und darüber (bei für den Leser noch erträglicher Bannerwerbung sehr bescheidene) Einnahmen generieren. Da es sich dafür aber nicht lohnt, seine Werbekunden selbst zu akquirieren, macht man das in der Regel über Drittanbieter wie Google Ads. Nach europäischem Recht hat man damit allerdings eine Verantwortung für den Datenschutz bei Google, den man gar nicht kontrollieren kann. Diese Verantwortung kann man dann wieder versuchen, mit 25 Seiten Legalesisch in der Datenschutzerklärung auf den Google und den Leser abzuwälzen. Dann hat man allerdings immer noch das Problem, dass die Seite mit den Anzeigen unter Umständen so aussieht:

Um nicht missverstanden zu werden: Ich finde Scienceblogs mit fast allen, die darauf schreiben, absolut großartig. Ich habe mir auch schon böse Blicke von einem angesehenen Medienjournalisten der FAZ eingehandelt, weil ich ihm ins Gesicht gesagt habe, dass die Wissenschaftsteile der großen Zeitungen sich lange strecken müssen, um an die Qualität der „Amateure“ bei Scienceblogs heranzureichen. Schon früh einer der Hauptgründe, warum ich das Wissenschafts-Blogportal so geschätzt habe, war der großartige Florian Freistetter, mein absolutes Vorbild als Blogger.

Natürlich muss sich auch ein Portal wie Scienceblogs finanzieren, und wenn Google-Werbung dafür der praktikable Weg ist, ist das das gute Recht der Betreiber. Aber man hat dann eben überhaupt keine Kontrolle, wessen Werbung auf der Seite auftaucht. Dass der Google-Algorithmus zu Florians skeptischem Astronomieblog einen Mondkalender anbietet, der die Frage beantworten soll, wann der Mond für die Gesundheit am günstigsten steht, ist ja durchaus witzig. Dass jemand für eine Anzeige zu kostenlosen Pflegehilfsmitteln ausgerechnet ein Bild des Meme-Phänomens „Hide the Pain Harold“ verwendet, fänden wahrscheinlich auch manche Quantenquark-Leser amüsant. Worauf ich aber definitiv keine Lust hätte, ist, dass hier rechtschreibschwache Werbung für ein fragwürdiges Bitcoin-Geschäftsmodell unter Verwendung der Namen von „Höhle der Löwen“ oder anderen Fernsehsendungen und Prominenten auftaucht, nachdem Mimikama seit 2018 mehrfach vor Angeboten dieser Art gewarnt hat. Inzwischen sprechen die an sich sehr vorsichtigen und sachlichen Fake-News-Warner aus Österreich im Zusammenhang mit Werbung dieser Art sogar ganz deutlich von Betrug.

Dass das nicht nur ein Problem von Google ist, sondern auch andere Internetunternehmen Schwierigkeiten mit dem Platzieren geeigneter Werbung haben, sieht man daran, dass zum Beispiel Facebook nach Reiki-Kursen, einer Heilpraktikerausbildung und einem freie-Energie-Generator inzwischen sogar versucht hat, mir ganz reale Aluhüte zu verkaufen:

Insofern, solange ich nicht sicher sein kann, dass Werbung seriös ist und auch wirklich zur Ausrichtung der Seite passt, wird Quantenquark eben werbefrei bleiben. Das heißt im Umkehrschluss allerdings auch, dass Sie mit meinem unprofessionellen Seitendesign aus WordPress-Standards werden leben müssen, weil ich mir zwar den Betrieb der Seite, aber ganz sicher keinen professionellen Webdesigner dafür leisten kann. Das passt ja irgendwie auch ganz gut dazu, dass es eben ein Hobby ist – und bleiben soll.

Quantenphysik und Quantenquark bei Scobel

Nur für den Fall, dass jemand Bedenken hat, vor lauter Verschwörungsmythen, rechter Esoterik und Pseudomedizin könnte der eigentliche Quantenquark auf Quantenquark zu kurz kommen: Ich bin natürlich auch noch in Sachen fragwürdiger physikalischer Behauptungen unterwegs.

Voraussichtlich werde ich in einigen Interviewausschnitten am 28.3. ab 21 Uhr im Rahmen der Sendung Scobel auf 3Sat zu sehen sein. Es geht um ganz grundsätzliche Dinge zum Quantenquark: Warum ist Quantenphysik für Esoteriker so attraktiv, kann man das als Laie überhaupt erkennen, und so weiter.

Die Szenen wurden heute gedreht, und ich muss sagen, mir sind in den 20 Jahren skeptischer Aufklärungsarbeit, die ich inzwischen hinter mir habe, noch nie Journalisten begegnet, die auf ein so spezielles Thema so gut vorbereitet waren und sich wirklich in Breite und Tiefe damit beschäftigt hatten. Insofern bin gespannt und freue mich auf das Ergebnis.

Quantenterroristen und der Terror der Wissenschaftsvermarktung

Von „Quantenterroristen“ handelte vor ein paar Tagen ein kurzer Artikel in der Süddeutschen Zeitung, und beim Lesen konnte man den Eindruck gewinnen, in der Zukunft könnten drei Terroristen in der Lage sein, allein durch das Senden falscher Daten das gesamte Internet auszulöschen. Wenn man bedenkt, welche Prozesse in unserer modernen Kultur alle vom Internet abhängen, muss man klar sagen, das wäre eine Horrorvision.

Rein formal ist der Artikel, der bezeichnenderweise nicht im Wissenschaftsteil, sondern im Feuilleton erschienen ist, journalistisch vertretbar: Unter der Rubrik „Gehört, Gelesen, Zitiert“ gibt er, überwiegend in Form eines sehr langen Zitats, Inhalte aus einem Online-Artikel des MIT Technology Review wieder. Als Leser würde ich aber eigentlich erwarten, dass eine Zeitung die Sinnhaftigkeit eines solchen Artikels prüft, bevor sie Auszüge davon unkommentiert wiedergibt. Das gleiche könnte man natürlich auch von einem Spezialmedium wie dem MIT Technology Review erwarten, bevor es den Artikel überhaupt publiziert.

Der Technology-Review-Artikel ist in einer Rubrik erschienen, die „die neuesten Ideen und Technologien“ darstellen soll, die auf dem Physics arXiv Preprint Server erscheinen. Dort können Wissenschaftler Artikel einstellen, die noch nicht zur Veröffentlichung in einer Fachzeitschrift angenommen sind, also noch nicht erfolgreich einen Peer Review durchlaufen haben. Über Ideen aus solchen noch nicht offiziell veröffentlichten Artikeln zu schreiben, soll offenbar den Eindruck erwecken, der Technology Review sei besonders am Puls der Zeit. Tatsächlich handelt es sich bei dem Fachartikel, auf den sich das Magazin beruft, ausdrücklich um ein sogenanntes working paper – die Autoren wissen also, dass ihre Ergebnisse noch nicht ausgegoren sind, und sie bitten um Kommentare und Anregungen von Fachkollegen, bevor sie überhaupt eine Veröffentlichung in einer Fachzeitschrift anstreben. Dass sich Inhalte aus einer solchen Diskussionsgrundlage innerhalb weniger Tage ohne jegliche Einordnung in der Süddeutschen Zeitung wiederfinden, ist dann schon einigermaßen skurril.

Wie in so vielen Fällen, in denen in der Öffentlichkeit ein verzerrtes Bild der Physik entsteht, liegt das Problem aber nicht nur darin, wie über Wissenschaft berichtet wird, sondern auch in der Art und Weise, wie die Wissenschaftler selbst über ihre Arbeit kommunizieren – und vor allem, wie sie sie verkaufen. Der Begriff des „Quantenterrorismus“ stammt nämlich tatsächlich aus dem besagten working paper der Wissenschaftler, die von Technology Review und Süddeutscher Zeitung an der renommierten George Washington University verortet werden, obwohl drei von vier Autoren des Artikels in Kolumbien tätig sind. Den schillernden Begriff haben sich die Autoren offensichtlich selbst aus den Fingern gesogen, denn gebräuchlich ist er für die im Artikel beschriebene Problematik nicht. Sucht man danach im Netz, dann findet man neben Berichterstattung über ihren Text eigentlich nur eine bizarre palästinensische Machtphantasie über das Durchtunneln eines Menschen durch die „Apartheidmauer“ südlich von Jerusalem in einem antiisraelischen Hetzblog.

Worum geht es aber nun eigentlich? Die Autoren schreiben über die prinzipielle Möglichkeit, ein sogenanntes Quantennetzwerk dadurch zu sabotieren, dass mehrere Teilnehmer gleichzeitig in abgestimmter Form unsinnige Informationen in das Netzwerk einspeisen. Das könnte die Information in dem Quantennetzwerk so stören, dass nicht einmal zu rekonstruieren wäre, wer die störende Information eingebracht hat. Für ein Quantennetzwerk mit vielen unabhängigen Teilnehmern wäre das (wenn es denn stimmt) logischerweise eine echte Bedrohung.

Um das Bedrohungsszenario jetzt realistisch einschätzen zu können, muss man sich zunächst einmal ansehen, was ein solchen Quantennetzwerk eigentlich ist, oder besser wäre, denn bis jetzt gibt es so etwas schlichtweg nicht. Ein Quantennetzwerk, wie es die vier Wissenschaftler in ihrem Artikel voraussetzen, bestünde aus Quantencomputern an verschiedenen Orten, deren gespeicherte Quanteninformationen über quantenmechanische Verschränkungen verbunden sind. Ich verspreche, den schon lange angekündigten Missverquanten-Artikel über Verschränkung schreibe ich auch noch. Über Quantencomputer habe ich im Buch ein bisschen geschrieben, aber hier im Blog noch nichts wirklich Grundlegendes, insofern kann ich auch dazu und zu den damit verbundenen Problematiken nur auf Wikipedia und zusammenfassende Artikel in populärwissenschaftlichen Medien (halbwegs aktuell z.B. hier) verweisen. Durch die Quantenverschränkung wäre man nicht darauf angewiesen, die Ergebnisse der einzelnen Quantencomputer zu messen und als klassiche Daten zu übertragen. Vielmehr könnte man verlustfrei die Quantenzustände übertragen – das Netzwerk verhielte sich also letztlich wie ein einziger, großer Quantencomputer. Die Vorstellung, dass unsinnige Eingaben von mehereren Nutzern gleichzeitig in einem Computer diesen zum Erliegen bringen können, erscheint dann schon weniger überraschend als ein Zusammenbruch des ganzen Internets.

Die Autoren des working papers zitieren nun einige aktuelle Artikel aus namhaften wissenschaftlichen Zeitschriften, in denen solche Quantennetzwerke als Quanteninternet bezeichnet werden. Da es um eine gegebenenfalls auch internationale Vernetzung von Computern geht, wie sie heute in der Regel über das Internet erfolgt, ist diese Begriffsfindung zunächst einmal auch nicht unbedingt sehr weit hergeholt.

Der Begriff des Quanteninternets wird allerdings regelmäßig, auch im MIT Technology Review, ebenso für die Verwendung von Quantenkryptographie zur abhörsicheren Kommunikation zwischen ganz normalen Computern verwendet. Bei der Quantenkryptographie wird durch die gleichzeitige Verwendung einer Quantenverschränkung und einer ganz normalen, klassischen Datenübertragung sichergestellt, dass die Kommunikation zwischen den beiden Rechnern nicht unbemerkt von einem Dritten abgehört werden kann. In der technischen Umsetzung haben Quantennetzwerke und Quantenkryptographie das gemeinsame Problem, dass sie auf Technologien angewiesen sind, die Quantenverschränkungen zuverlässig über große Distanzen erzeugen können. Bislang existieren solche Technologien nur als experimentelles proof of principle. Daher tauchen zu beiden Themen in den Medien regelmäßig dieselben Experten auf, und auch innerhalb von Artikeln oder Interviews werden Quantennetzwerke und Quantenkryptographie in jüngster Zeit regelmäßig unter dem Schlagwort „Quanteninternet“ oder gar „Web Q.0“ durcheinandergeworfen.

Diese marketingoptimierte Schlagwortbildung aus der Wissenschaft hat aber ein massives Problem. Dass Quantenkryptographie überhaupt funktionieren kann, beruht auf dem sogenannten No-Cloning-Theorem: Nach grundlegenden Prinzipien der Quantenmechanik ist es unmöglich, einen Quantenzustand zu duplizieren. Daher würde der Spion, der neben den verschlüsselten Daten auf dem klassischen Informationskanal auch den über die Quantenverschränkung übermittelten Schlüssel belauschen will, sich dadurch verraten, dass er die Übermittlung des Schlüssels stört. Was für die Quantenkryptographie grundlegend ist, ist für Quantencomputer und Quantennetzwerke aber ein Problem. In einem Quantennetzwerk kann es keine Redundanz geben, keine Sicherheitskopien, keine parallelen Verbindungen. So ist es wenig überraschend, dass es relativ einfach ist, ein solches Quantennetzwerk zu stören, wie eben auch der Lauscher in der Quantenkryptographie sich dadurch verrät, dass er die Verbindung stört. Genau das macht aber die gedankliche Verbindung mit dem Internet hochgradig problematisch.

Was das Internet von allen schon vorher existierenden Computernetzwerken unterscheidet, ist ja gerade seine hohe Redundanz. Das Internet hat keinen Zentralrechner, den man sabotieren könnte. Vielmehr besteht es aus einer Vielzahl voneinander unabhängiger Knoten, die auf unterschiedlichen Wegen direkt und indirekt miteinander verbunden sind. Einen solchen Knoten kann man natürlich sabotieren, und natürlich kommt es auch ohne Sabotage vor, dass solche Knoten ausfallen. Das führt in der Regel dazu, dass Nutzer eines oder auch mehrerer Anbieter in einer Region keinen Zugang zum Internet mehr haben – aber der Rest des Netzes funktioniert auch ohne diesen Knoten. Es gibt auch bestimmte neuralgische Verbindungen, zum Beispiel durch bestimmte Unterseekabel, deren Ausfall dazu führen würde, dass die Datenübertragung über parallele Verbindungen deutlich langsamer würde – allerdings sind auch diese Engpässe über die letzten 20 Jahre deutlich weniger und die Alternativen vielfältiger geworden.

Grundsätzlich können einzelne Systeme aber natürlich immer versagen, und das wird mit hoher Wahrscheinlichkeit auch in der Zukunft so bleiben. Bei Quantencomputern kommt noch das Problem hinzu, dass man die Quantenzustände zu ihrer Erhaltung komplett und über die gesamte Laufzeit der Berechnung von der Außenwelt abschirmen muss, um Dekohärenz und damit das Ende der Verschränkung und des ganzen Quantenzustandes zu vermeiden. Daher dürfte auch (oder vielmehr gerade) den Wissenschaftlern, die in ihren Veröffentlichungen regelmäßig von „dem Quanteninternet“ schreiben, klar sein, dass es ziemlich idiotisch ist, anzunehmen, dass ein einzelnes Quantennetzwerk die Rolle des gesamten heutigen Internets übernehmen könnte. Viel plausibler ist die Annahme, dass beim Funktionieren der entsprechenden Technik immer mehr spezialisierte Quantennetzwerke entstehen könnten, teils zur Geheimhaltung weitgehend getrennt, teils integriert in ein weiterhin redundantes, klassisches Netz von Netzwerken wie dem heutigen Internet. Die Arbeit der vier Forscher aus Washington und Bogotá legt jetzt nahe, dass es für die Teilnehmerzahl an einem solchen einzelnen Quantennetzwerk Grenzen des Sinnvollen und Sicheren gibt – und dass diese Grenzen möglicherweise enger sind, als das viele Fachkollegen bisher angenommen haben. Das klingt nicht ganz so spektakulär wie der Quantenterrorismus, ist aber definitiv ein interessantes Ergebnis.

Hätten die über ihre Arbeit publizierenden Wissenschaftler realistisch von Quantennetzwerken und von Sabotage darin anstatt vom Quanteninternet und von Quantenterrorismus geschrieben, dann wäre ein problematisches Zerrbild von Physik und Technologie vermieden worden. Dann hätten sie es aber natürlich auch nicht in die Süddeutsche Zeitung geschafft.