Quantenterroristen und der Terror der Wissenschaftsvermarktung

Von „Quantenterroristen“ handelte vor ein paar Tagen ein kurzer Artikel in der Süddeutschen Zeitung, und beim Lesen konnte man den Eindruck gewinnen, in der Zukunft könnten drei Terroristen in der Lage sein, allein durch das Senden falscher Daten das gesamte Internet auszulöschen. Wenn man bedenkt, welche Prozesse in unserer modernen Kultur alle vom Internet abhängen, muss man klar sagen, das wäre eine Horrorvision.

Rein formal ist der Artikel, der bezeichnenderweise nicht im Wissenschaftsteil, sondern im Feuilleton erschienen ist, journalistisch vertretbar: Unter der Rubrik „Gehört, Gelesen, Zitiert“ gibt er, überwiegend in Form eines sehr langen Zitats, Inhalte aus einem Online-Artikel des MIT Technology Review wieder. Als Leser würde ich aber eigentlich erwarten, dass eine Zeitung die Sinnhaftigkeit eines solchen Artikels prüft, bevor sie Auszüge davon unkommentiert wiedergibt. Das gleiche könnte man natürlich auch von einem Spezialmedium wie dem MIT Technology Review erwarten, bevor es den Artikel überhaupt publiziert.

Der Technology-Review-Artikel ist in einer Rubrik erschienen, die „die neuesten Ideen und Technologien“ darstellen soll, die auf dem Physics arXiv Preprint Server erscheinen. Dort können Wissenschaftler Artikel einstellen, die noch nicht zur Veröffentlichung in einer Fachzeitschrift angenommen sind, also noch nicht erfolgreich einen Peer Review durchlaufen haben. Über Ideen aus solchen noch nicht offiziell veröffentlichten Artikeln zu schreiben, soll offenbar den Eindruck erwecken, der Technology Review sei besonders am Puls der Zeit. Tatsächlich handelt es sich bei dem Fachartikel, auf den sich das Magazin beruft, ausdrücklich um ein sogenanntes working paper – die Autoren wissen also, dass ihre Ergebnisse noch nicht ausgegoren sind, und sie bitten um Kommentare und Anregungen von Fachkollegen, bevor sie überhaupt eine Veröffentlichung in einer Fachzeitschrift anstreben. Dass sich Inhalte aus einer solchen Diskussionsgrundlage innerhalb weniger Tage ohne jegliche Einordnung in der Süddeutschen Zeitung wiederfinden, ist dann schon einigermaßen skurril.

Wie in so vielen Fällen, in denen in der Öffentlichkeit ein verzerrtes Bild der Physik entsteht, liegt das Problem aber nicht nur darin, wie über Wissenschaft berichtet wird, sondern auch in der Art und Weise, wie die Wissenschaftler selbst über ihre Arbeit kommunizieren – und vor allem, wie sie sie verkaufen. Der Begriff des „Quantenterrorismus“ stammt nämlich tatsächlich aus dem besagten working paper der Wissenschaftler, die von Technology Review und Süddeutscher Zeitung an der renommierten George Washington University verortet werden, obwohl drei von vier Autoren des Artikels in Kolumbien tätig sind. Den schillernden Begriff haben sich die Autoren offensichtlich selbst aus den Fingern gesogen, denn gebräuchlich ist er für die im Artikel beschriebene Problematik nicht. Sucht man danach im Netz, dann findet man neben Berichterstattung über ihren Text eigentlich nur eine bizarre palästinensische Machtphantasie über das Durchtunneln eines Menschen durch die „Apartheidmauer“ südlich von Jerusalem in einem antiisraelischen Hetzblog.

Worum geht es aber nun eigentlich? Die Autoren schreiben über die prinzipielle Möglichkeit, ein sogenanntes Quantennetzwerk dadurch zu sabotieren, dass mehrere Teilnehmer gleichzeitig in abgestimmter Form unsinnige Informationen in das Netzwerk einspeisen. Das könnte die Information in dem Quantennetzwerk so stören, dass nicht einmal zu rekonstruieren wäre, wer die störende Information eingebracht hat. Für ein Quantennetzwerk mit vielen unabhängigen Teilnehmern wäre das (wenn es denn stimmt) logischerweise eine echte Bedrohung.

Um das Bedrohungsszenario jetzt realistisch einschätzen zu können, muss man sich zunächst einmal ansehen, was ein solchen Quantennetzwerk eigentlich ist, oder besser wäre, denn bis jetzt gibt es so etwas schlichtweg nicht. Ein Quantennetzwerk, wie es die vier Wissenschaftler in ihrem Artikel voraussetzen, bestünde aus Quantencomputern an verschiedenen Orten, deren gespeicherte Quanteninformationen über quantenmechanische Verschränkungen verbunden sind. Ich verspreche, den schon lange angekündigten Missverquanten-Artikel über Verschränkung schreibe ich auch noch. Über Quantencomputer habe ich im Buch ein bisschen geschrieben, aber hier im Blog noch nichts wirklich Grundlegendes, insofern kann ich auch dazu und zu den damit verbundenen Problematiken nur auf Wikipedia und zusammenfassende Artikel in populärwissenschaftlichen Medien (halbwegs aktuell z.B. hier) verweisen. Durch die Quantenverschränkung wäre man nicht darauf angewiesen, die Ergebnisse der einzelnen Quantencomputer zu messen und als klassiche Daten zu übertragen. Vielmehr könnte man verlustfrei die Quantenzustände übertragen – das Netzwerk verhielte sich also letztlich wie ein einziger, großer Quantencomputer. Die Vorstellung, dass unsinnige Eingaben von mehereren Nutzern gleichzeitig in einem Computer diesen zum Erliegen bringen können, erscheint dann schon weniger überraschend als ein Zusammenbruch des ganzen Internets.

Die Autoren des working papers zitieren nun einige aktuelle Artikel aus namhaften wissenschaftlichen Zeitschriften, in denen solche Quantennetzwerke als Quanteninternet bezeichnet werden. Da es um eine gegebenenfalls auch internationale Vernetzung von Computern geht, wie sie heute in der Regel über das Internet erfolgt, ist diese Begriffsfindung zunächst einmal auch nicht unbedingt sehr weit hergeholt.

Der Begriff des Quanteninternets wird allerdings regelmäßig, auch im MIT Technology Review, ebenso für die Verwendung von Quantenkryptographie zur abhörsicheren Kommunikation zwischen ganz normalen Computern verwendet. Bei der Quantenkryptographie wird durch die gleichzeitige Verwendung einer Quantenverschränkung und einer ganz normalen, klassischen Datenübertragung sichergestellt, dass die Kommunikation zwischen den beiden Rechnern nicht unbemerkt von einem Dritten abgehört werden kann. In der technischen Umsetzung haben Quantennetzwerke und Quantenkryptographie das gemeinsame Problem, dass sie auf Technologien angewiesen sind, die Quantenverschränkungen zuverlässig über große Distanzen erzeugen können. Bislang existieren solche Technologien nur als experimentelles proof of principle. Daher tauchen zu beiden Themen in den Medien regelmäßig dieselben Experten auf, und auch innerhalb von Artikeln oder Interviews werden Quantennetzwerke und Quantenkryptographie in jüngster Zeit regelmäßig unter dem Schlagwort „Quanteninternet“ oder gar „Web Q.0“ durcheinandergeworfen.

Diese marketingoptimierte Schlagwortbildung aus der Wissenschaft hat aber ein massives Problem. Dass Quantenkryptographie überhaupt funktionieren kann, beruht auf dem sogenannten No-Cloning-Theorem: Nach grundlegenden Prinzipien der Quantenmechanik ist es unmöglich, einen Quantenzustand zu duplizieren. Daher würde der Spion, der neben den verschlüsselten Daten auf dem klassischen Informationskanal auch den über die Quantenverschränkung übermittelten Schlüssel belauschen will, sich dadurch verraten, dass er die Übermittlung des Schlüssels stört. Was für die Quantenkryptographie grundlegend ist, ist für Quantencomputer und Quantennetzwerke aber ein Problem. In einem Quantennetzwerk kann es keine Redundanz geben, keine Sicherheitskopien, keine parallelen Verbindungen. So ist es wenig überraschend, dass es relativ einfach ist, ein solches Quantennetzwerk zu stören, wie eben auch der Lauscher in der Quantenkryptographie sich dadurch verrät, dass er die Verbindung stört. Genau das macht aber die gedankliche Verbindung mit dem Internet hochgradig problematisch.

Was das Internet von allen schon vorher existierenden Computernetzwerken unterscheidet, ist ja gerade seine hohe Redundanz. Das Internet hat keinen Zentralrechner, den man sabotieren könnte. Vielmehr besteht es aus einer Vielzahl voneinander unabhängiger Knoten, die auf unterschiedlichen Wegen direkt und indirekt miteinander verbunden sind. Einen solchen Knoten kann man natürlich sabotieren, und natürlich kommt es auch ohne Sabotage vor, dass solche Knoten ausfallen. Das führt in der Regel dazu, dass Nutzer eines oder auch mehrerer Anbieter in einer Region keinen Zugang zum Internet mehr haben – aber der Rest des Netzes funktioniert auch ohne diesen Knoten. Es gibt auch bestimmte neuralgische Verbindungen, zum Beispiel durch bestimmte Unterseekabel, deren Ausfall dazu führen würde, dass die Datenübertragung über parallele Verbindungen deutlich langsamer würde – allerdings sind auch diese Engpässe über die letzten 20 Jahre deutlich weniger und die Alternativen vielfältiger geworden.

Grundsätzlich können einzelne Systeme aber natürlich immer versagen, und das wird mit hoher Wahrscheinlichkeit auch in der Zukunft so bleiben. Bei Quantencomputern kommt noch das Problem hinzu, dass man die Quantenzustände zu ihrer Erhaltung komplett und über die gesamte Laufzeit der Berechnung von der Außenwelt abschirmen muss, um Dekohärenz und damit das Ende der Verschränkung und des ganzen Quantenzustandes zu vermeiden. Daher dürfte auch (oder vielmehr gerade) den Wissenschaftlern, die in ihren Veröffentlichungen regelmäßig von „dem Quanteninternet“ schreiben, klar sein, dass es ziemlich idiotisch ist, anzunehmen, dass ein einzelnes Quantennetzwerk die Rolle des gesamten heutigen Internets übernehmen könnte. Viel plausibler ist die Annahme, dass beim Funktionieren der entsprechenden Technik immer mehr spezialisierte Quantennetzwerke entstehen könnten, teils zur Geheimhaltung weitgehend getrennt, teils integriert in ein weiterhin redundantes, klassisches Netz von Netzwerken wie dem heutigen Internet. Die Arbeit der vier Forscher aus Washington und Bogotá legt jetzt nahe, dass es für die Teilnehmerzahl an einem solchen einzelnen Quantennetzwerk Grenzen des Sinnvollen und Sicheren gibt – und dass diese Grenzen möglicherweise enger sind, als das viele Fachkollegen bisher angenommen haben. Das klingt nicht ganz so spektakulär wie der Quantenterrorismus, ist aber definitiv ein interessantes Ergebnis.

Hätten die über ihre Arbeit publizierenden Wissenschaftler realistisch von Quantennetzwerken und von Sabotage darin anstatt vom Quanteninternet und von Quantenterrorismus geschrieben, dann wäre ein problematisches Zerrbild von Physik und Technologie vermieden worden. Dann hätten sie es aber natürlich auch nicht in die Süddeutsche Zeitung geschafft.

Was wir wissen, was nicht, und was das nicht bedeutet

Es ist immer wieder lustig, wenn einem als Physiker vorgeworfen wird, wir würden behaupten, alles zu wissen, während man eigentlich ständig erklärt, was wir alles nicht wissen. Wissenschaft wäre auch ziemlich öde, wenn man schon alles wüsste.

Klar, in gewisser Weise haben wir (also, die Physik als Ganzes natürlich, nicht ich) schon ziemlich viel Wissen – nur eben nicht unbedingt die Art von Wissen, die typischerweise die Hobbyphilosophenrunde kurz nach Mitternacht und drei Gläsern Wein gerne mit uns diskutieren möchte.

Was wir als Faktum der Natur wissen

Wir wissen zum Beispiel, dass bei Kollisionen mit hohen Energien, wie am Large Hadron Collider (LHC) des CERN, ein Teilchen mit einer Masse von gut 125 GeV entsteht – das entspricht etwa der Masse eines ganzen Cäsium- oder Bariumatoms. Für ein einzelnes Elementarteilchen ist das schon sehr massig. Dieses Teilchen zerfällt nach extrem kurzer Zeit auf eine von mehreren, in ihrer Art und Häufigkeit genau bestimmten Arten in andere Teilchen. Es ist elektrisch nicht geladen, und es hat keinen Spin. Stellen Sie sich den Spin bitte nicht als Drehung vor, lieber als eine Art Magnetismus; das erzeugt weniger falsche Bilder im Kopf. Aber ich schweife ab, und ich will ja eigentlich weniger abschweifen, also weiter. Diese Dinge wissen wir ganz sicher über das Teilchen, denn wir haben sie, erstmals 2012, gemessen (also, wieder nicht ich, sondern die „Kollegen“ am CERN, mit denen ich mich immer noch irgendwie verbunden fühle, obwohl ich da nur vor Ewigkeiten ein paar Monate für meine Diplomarbeit verbracht habe).

Da gibt es auch so gut wie keinen Spielraum, dass diese Messung irgendwann als nicht mehr richtig gelten könnte. Es könnte sich allenfalls noch herausstellen, dass unterschiedliche Teams von Wissenschaftlern an unterschiedlichen Instituten zu unterschiedlichen Zeiten alle denselben wahnsinnig blöden Fehler in der Datenauswertung gemacht haben – aber das ist nach sechseinhalb Jahren von Folgeexperimenten und -auswertungen wirklich extrem unwahrscheinlich, dass das noch nicht aufgeflogen wäre. Solche Fälle hat es gegeben, und weil Physiker Menschen sind, hören sie das in der Regel nicht gerne, aber das gab es nie bei so vielen Beteiligten zum Teil unabhängig voneinander. Insofern, ja, dass da ein Teilchen mit diesen Eigenschaften ist, wissen wir sicher.

Man könnte aber auch sagen, das ist es auch schon mit unserem Wissen über das Teilchen.

Was wir als wissenschaftliche Theorie wissen

Es gibt aber noch mehr, was wir auch zumindest ziemlich sicher über dieses Teilchen sagen können. In den 1960er Jahren haben nämlich Peter Higgs, François Englert und eine ganze Anzahl von heute meist übergangenen Kooperationspartnern sich einen Mechanismus überlegt, wie man in den sogenannten Eichtheorien dessen, was wir heute Standardmodell nennen, das Entstehen von Masse erklären kann. Masse kommt in solchen Theorien nämlich eigentlich nicht vor, das heißt, alles würde sich eigentlich mit Lichtgeschwindigkeit bewegen. Der Higgs-Mechanismus, auf den sie dabei gekommen sind, ist in einer kleinen Bilderserie vom CERN ganz nett dargestellt worden, die man samt Texten zum Beispiel hier ansehen kann. Und es gibt vom CERN auch eine kleine Animation dazu:

Man sollte sich natürlich immer im Klaren sein, dass solche Visualisierungen nur ganz grobe Vorstellungen der eigentlichen Theorie sind und man aus solchen Vereinfachungen vor allem keine weitergehenden Schlüsse ziehen darf. Sie sollen erst einmal eine Vorstellung geben – um daraus etwas abzuleiten, müsste man sich mit der eigentlichen Theorie im Detail beschäftigen.

Aus diesem Higgs-Mechanismus hat man schon vor Jahrzehnten abgeleitet, dass es ein Teilchen geben sollte, das genau die Zerfallsarten, die Ladung und den Spin haben müsste, wie das Teilchen, das man dann 2012 am CERN messen würde. In Verbindung mit den anderen Theorien des Standardmodells und Messungen an verschiedenen Beschleunigern konnte man dann auch die Masse dieses Higgs-Teilchens schon vor der Messung immer weiter eingrenzen: In den 1980er Jahren dachte man noch, es könne mehrere hundert GeV schwer sein. Gegen 1990 zeichnete sich ab, dass die Masse zwischen 100 und 200 GeV liegen sollte. Damit war auch klar, dass man keinen neuen Riesenbeschleuniger für mehr als 10 Milliarden Dollar in der Wüste von Texas würde bauen müssen, um das Teilchen zu suchen: Der damals in der Entwicklung befindliche LHC am CERN sollte dafür locker ausreichen. Als ich Mitte der 1990er Jahre am CERN war, war man schon ziemlich sicher: Wenn es das Higgs-Teilchen tatsächlich gäbe, müsste seine Masse zwischen 110 und 130 GeV liegen. Im Jahr 2000 meinte man kurzzeitig, vage Anzeichen für ein neues Teilchen bei 114 GeV entdeckt zu haben, was sich aber nicht bestätigt hat. Schließlich kam die große Erleichterung, als man das Teilchen 2012 bei 125 GeV genau im vorhergesagten Massenbereich gefunden hat. Die Ernüchterung kam dann später, als sich abzeichnete, dass man am LHC neben dem Vorhergesagten (bis jetzt) irgendwie gar nichts Unvorhergesagtes findet, das Ansatzpunkte für neue Theorien bieten könnte – aber das ist eine andere Geschichte.

Diese Vorhersage und die dazu passende Messung geben uns ein ziemlich sicheres Wissen, dass es sich bei dem 2012 gemessenen Teilchen wohl um das gesuchte Higgs-Teilchen handelt. Das ist aber eine andere Art von Wissen als die Messung selbst: Die Theorie des Higgs-Mechanismus kann (und wird wahrscheinlich) irgendwann überholt sein, aber das Teilchen nicht. Jede neue Theorie, die später den Higgs-Mechanismus und das Standardmodell ersetzen will, wird nicht nur das Entstehen von Masse erklären müssen, sondern muss auch eine Erklärung dafür liefern, was für ein Teilchen man da seit 2012 beobachtet.

Das Higgs ist aber nicht das einzige Phänomen, das auf Basis der Theorien des Standardmodells (Elektroschwache Theorie, Quantenchromodynamik, Allgemeine Relativitätstheorie und Higgs-Mechanismus) vorhergesagt und später gemessen wurde. Das gleiche gilt für die W- und Z-Teilchen der schwachen Wechselwirkung, für alle aus Quarks aufgebauten Teilchen, die charm– und bottom-Quarks enthalten, sowie für das top-Quark und das tau-Neutrino. Alle wurden aufgrund des Standardmodells vorhergesagt und erst später nachgewiesen. Hinzu kommen unterschiedliche Arten sogenannter Jets, also Teilchenbündel, aus Kollisionen von Protonen oder leichten Atomkernen, die als Produkte der Quarks und Gluonen vorhergesagt wurden, aus denen die Protonen aufgebaut sind. Noch kein Teilchennachweis im eigentlichen Sinne, aber eine sehr frühe spektakuläre Bestätigung einer Vorhersage des Standardmodells war der Nachweis sogenannter neutraler schwacher Ströme am CERN 1973.

Das Standardmodell ist also nicht deshalb, nun, eben das Standardmodell der Physik, weil es besonders schön oder besonders praktisch wäre – gerade das ist es nach Ansicht der meisten Physiker eben nicht. Schließlich besteht es aus mehreren einzelnen Theorien, die auf den ersten Blick wenig miteinander zu tun zu haben scheinen und unter denen sich zumindest die Relativitätstheorie auch strukturell deutlich von den anderen unterscheidet. Der Standard ist es, weil es eine Vielzahl experimenteller Ergebnisse vorhergesagt hat. Dabei hat es nicht nur Messwerte wie die Masse des Higgs-Teilchens ziemlich gut eingegrenzt, sondern sogar die Existenz ganzer Phänomene und Teilchen vorhergesagt. Was immer irgenwann an die Stelle des Standardmodells treten soll, muss also in vielerlei Hinsicht zunächst einmal die gleichen Ergebnisse liefern wie das Standardmodell – sonst passt es schlicht und einfach nicht zur messbaren Realität.

Wie man nicht zu Wissen gelangt

Die Anhänger „alternativer“ Physiker wie Nassim Haramein oder Burkhard Heim (Heim war immerhin tatsächlich Physiker) behaupten jetzt, ihre Idole hätten das Standardmodell widerlegt, indem sie einzelne Messwerte mit größerer Genauigkeit vorhergesagt hätten. Sowohl Haramein als auch Heim waren hier schon an anderer Stelle Thema. Ironischerweise haben diese beiden Geistesgrößen Messwerte „vorhergesagt“, die schon längst gemessen und ihnen bekannt waren. Das ist ungefähr so, als wollte ich meine Kenntnisse in meteorologischer Synoptik (also Wetterbeobachtung und -vorhersage, das habe ich in meinem Nebenfach tatsächlich mal gelernt) dadurch unter Beweis stellen, dass ich das Wetter von gestern vorhersage. Im Fall von Heim mussten einige der von ihm genau „vorhergesagten“ Messwerte (wie die Masse des Eta-Mesons) aufgrund späterer, genauerer Messungen korrigiert werden, so dass sich seine Nachhersagen auch noch als falsch herausgestellt haben. Da beide „Theorien“ außer diesen Pseudobelegen nicht viel Überprüfbares zu bieten haben, will ich hier auch gar nicht weiter darauf eingehen.

Wozu wir noch keine eindeutige Theorie haben

Natürlich gibt es aber auch in den Bereichen der Physik, mit denen sich das Standardmodell beschäftigt, Ergebnisse, die durch das Standardmodell nicht beschrieben werden. Ein Themenbereich ist die Masse von Neutrinos. Neutrinos sind eine Art elektrisch neutrales Gegenstück zu Elektronen sowie den schwereren elektronenähnlichen Teilchen, den Myonen und Tau-Leptonen, sowie zu deren Antiteilchen. Da Neutrinos elektrisch neutral sind, wirken elektromagnetische Felder nicht auf sie. Auch die sogenannte starke Kernkraft wirkt nicht auf Neutrinos. Nachgewiesen werden können sie also nur durch die schwache Kernkraft, die einen etwas irreführenden Namen hat, weil sie auf einzelne Teilchen nicht unbedingt schwach, sondern eher selten wirkt. In den allermeisten Fällen kann ein Neutrino durch die Erde hindurchfliegen, ohne dabei irgendeine Wechselwirkung mit der durchflogenen Materie auszulösen. Selbst die dichteste auf der Erde bekannte Materie, das Innere von Atomkernen, ist für Neutrinos durchlässig. Wenn sie aber (sehr, sehr selten) doch einmal mit einem Teilchen wechselwirken, an dem sie vorbeikommen, dann können sie in der Reaktion durchaus einen großen Teil ihrer Energie übertragen und in ein Elektron (oder Myon oder Tau oder deren Antiteilchen) umgewandelt werden. Die Frage ist, wenn andere Kräfte außer der schwachen Kernkraft nicht auf Neutrinos wirken, wirkt denn die Schwerkraft auf sie, haben sie also eine (von null verschiedene) Masse? Es gibt indirekte experimentelle Belege, dass die Neutrinomasse nicht null sein kann. Direkt gemessen hat die Masse aber noch niemand, wobei der momentan aussichtsreichste Versuch das nach vielen Verzögerungen 2018 endlich in Betrieb genommene KATRIN-Experiment in Karlsruhe sein dürfte. Nach dem Standardmodell müssen Neutrinos keine Masse haben – man kann aber eine von null verschiedene Neutrinomasse relativ problemlos ins Standardmodell einsetzen.

Eine Zeit lang, bis deutlich wurde, wie klein sie wirklich ist, galt eine von null verschiedene Neutrinomasse als mögliche Erklärung für einen physikalischen Effekt, der ebenfalls nicht durch das Standardmodell erklärt wird: die dunkle Materie. Letztlich braucht man nur relativ einfache Mechanik und die Annahme, dass Sterne, die gleich viel Strahlung bei denselben Wellenlängen aussenden, auch ungefähr gleich schwer sein müssen, um die Masse praktisch aller sichtbaren Objekte unserer Galaxie abzuleiten. Berechnet man jetzt die Bewegung dieser Objekte um das Zentrum der Galaxie, dann stellt man fest, dass die Galaxie viel mehr Masse enthalten muss, als alle sichbaren Objekte zusammen ausmachen. Das schließt nicht nur direkt sichtbare Objekte wie Sterne und Gasnebel ein, sondern auch Planeten und Staubwolken, die kein Licht emittieren, die man aber dadurch nachweisen kann, dass sie das Licht anderer Objekte verdecken. In der Summe ergibt sich, dass im Universum rund fünf mal so viel dunkle wie direkt oder indirekt sichtbare Materie vorhanden sein muss. Die Existenz dunkler Materie folgt also nicht aus irgendwelchen Theorien, sondern direkt aus Messungen und relativ einfachen Berechnungen. Massive, dunkle Himmelskörper, sogenannte MACHOs, die man nachweisen kann, wenn sie vor anderen Objekten vorbeiziehen, können nach aktuellen Messungen höchstens einen kleinen Teil dieser dunklen Materie ausmachen. Die plausibelste Vermutung erscheint zur Zeit, dass es sich um noch unbekannte, schwere Elementarteilchen, sogenannte WIMPs, handelt. Diese kommen im Standardmodell an sich nicht vor. Es gibt jedoch weitergehende Theorien wie die Supersymmetrie oder die Stringtheorie, die solche Teilchen vorhersagen und das Standardmodell mit einschließen. Zumindest für einfache Varianten der Supersymmetrie hätte man diese Teilchen aber inzwischen auch an Beschleunigern finden müssen, wenn diese Varianten denn zuträfen. In welcher Form das Standardmodell hier erweitert oder ersetzt werden muss, ist also noch ziemlich offen. Man kann aber auch durchaus argumentieren, dass es für unser Verständnis des Univerums ziemlich egal ist, ob die dunkle Materie aus diesen oder jenen Teilchen besteht – man muss einfach nur als Ergänzung zum Standardmodell annehmen, dass diese Masse irgendwie da ist und sonst nichts tut.

Etwas mehr (aber nicht viel mehr) theoretische Annahmen stecken hinter der dunklen Energie: Das Universum dehnt sich aus; das wissen wir, weil sich ziemlich direkt messbar fast alle anderen Galaxien von uns entfernen. Da die Schwerkraft immer als Anziehung wirkt, müsste sie diese Expansion allerdings im Lauf der Zeit immer mehr abbremsen. Das habe ich in den 1990er Jahren noch im Studium gelernt. Inzwischen kann man aber (wieder ziemlich direkt, durch die Beobachtung von sehr weit entfernten Supernovae, von denen das Licht Milliarden Jahre bis zu uns braucht) messen, dass sich die Expansion anscheinend sogar beschleunigt. Den Antrieb dieser beschleunigten Expansion bezeichnet man als dunkle Energie. Um das Universum so aufzublähen, braucht es ungeheuer viel Energie: Würde sich alle Materie im heutigen Universum einschließlich der dunklen Materie in Energie umwandeln, dann entspräche das nur rund einem Drittel der dunklen Energie, die nach heutiger Berechnung die Expansion des Universums antreibt. In der allgemeinen Relativitätstheorie und damit im Standardmodell kann man eine solche dunkle Energie als sogenannte kosmologische Konstante problemlos einsetzen. Das hat sogar Einstein schon getan, als er noch dachte, das Universum dehne sich nicht aus, sondern sei stationär. Das erfordert nämlich auch eine Energie, die der Schwerkraft entgegenwirkt, damit das Universum nicht unter seinem eigenen Gewicht zusammenstürzt. Das Standardmodell kann diese Energie berücksichtigen, erklärt aber nicht, woher sie kommt.

Welche Ansätze es zu diesen offenen Fragen gibt

Alle drei genannten Effekte widerlegen das Standardmodell nicht. Sie zeigen lediglich, dass es in der Teilchenphysik und der Kosmologie Fragen gibt, die das Standardmodell allein nicht beantwortet und die als Ergänzung zum Standardmodell angenommen werden müssen. Eine Theorie, die das Standardmodell irgendwann ablösen soll, sollte möglichst einen Teil dieser Fragen, im Idealfall alle, beantworten. An solchen Theorien wird schon gearbeitet, seit es das Standardmodell gibt. Es gibt eine ganze Anzahl von Ansätzen. Manche sind ambitionierter und versuchen, alle Kräfte in einer Theorie zusammenzufassen; andere klammern die Schwerkraft noch aus und überlassen deren Beschreibung noch der allgemeinen Relativitätstheorie. Manche dieser Theorien, wie die Stringtheorie oder die Quantengravitation, sind auch nach 40 Jahren noch nicht so weit, Aussagen zu machen, die sich mit heutiger Technik vernünftig experimentell prüfen ließen. Damit lässt sich erst recht nicht zwischen den denkbaren Varianten dieser Theorien unterscheiden. Andere, wie die zu meinen Schulzeiten noch mit großen Hoffnungen behaftete Grand Unified Theory (GUT), sind zumindest in ihren einfachen Varianten heute schon experimentell widerlegt. Alle solchen Theorien, aus denen spektakuläre neue Messergebnisse für bisherige Experimente abgeleitet wurden, sind daran jedenfalls gescheitert – was nicht notwendigerweise alle Varianten der jeweiligen Theorie ausschließt, aber in der Regel die favorisierte, weil einfachste. Das gilt zum Beispiel für die zu meinen Studienzeiten meist beachtete Theorie, die Supersymmetrie, deren einfachste Form neue Teilchen vorhersagt, die man im LHC am CERN schon hätte finden müssen. Es bleiben also viele Fragen offen, aber mangels entsprechender zu prüfender Vorhersagen gibt es aktuell wenige Ansätze, durch Experimente auf der Erde Antworten zu finden. Daher ist es auch umstritten, ob man neue, noch größere Beschleuniger bauen sollte. Die spannendsten neuen Erkenntnisse stammten in den letzten Jahren sicherlich aus den immer besseren Beobachtungen der Astronomie, vor allem durch Teleskope auf Satelliten.

Warum die experimentellen Erkenntnisse nicht von der Theorie abhängen

Eins ist bei diesen neuen Theorien jedoch zweifelsfrei klar: Sie müssen zu praktisch allen schon gemachten Experimenten der Teilchen- und Astrophysik zu den gleichen Ergebnissen kommen wie das Standardmodell mit den genannten Ergänzungen wie der Neutrinomasse, denn die Ergebnisse dieser Experimente würden sich ja durch eine neue Theorie nicht ändern. Anders von „alternativen Physikern“ oder postmodernen Philosophen und Wissenschaftstheoretikern gelegentlich behauptet wird, müsste man diese Experimente auch nicht völlig anders aufbauen, wenn man andere Theorien hätte, und es würde schon gar nichts anderes herauskommen. Hinter solchen Vorstellungen stecken typischerweise Fehlinterpretationen von Thomas S. Kuhns Untersuchungen zu Erkenntnisprozessen in der Wissenschaft und einmal wieder ein falsches Verständnis des Beobachtereffekts. Wenn in einem Beschleunigerzentrum wie dem CERN Kollisionen hochenergetischer Teilchen und damit letztlich Freisetzungen reiner Energie untersucht werden, sind die Experimente ohnehin so aufgebaut, dass praktisch alles gleichzeitig gemessen wird, was man dabei technologisch überhaupt messen kann. Es gibt auch keine andere Möglichkeit, unter kontrollierten Bedingungen zu messen, was passiert, wenn an einem Punkt große Energien frei werden. Die Teilchenphysik kann Experimente gar nicht darauf ausrichten, nur den einen Parameter gezielt zu messen, der zur Überprüfung einer einzelnen Theorie nötig ist – dafür sind die Entwicklungszeiträume viel zu lang. Als der LHC in den 1980er Jahren geplant wurde, ging man noch von einem viel schwereren Higgs-Teilchen aus, und die Supersymmetrie, nach deren Teilchen bislang erfolglos gesucht wird, galt noch als wesentlich unwahrscheinlicher als die inzwischen längst ausgeschlossenen einfachen GUTs. Hypothetissche Vorhersagen aus neuen Theorien ändern sich schneller, als man neue Beschleuniger und Detektoren planen und bauen kann. Der LHC am CERN wurde dementsprechend nicht nur gebaut, um das Higgs nachzuweisen, sondern um ganz allgemein zu erforschen, welche neuen Phänomene in einem gewissen Energiebereich auftauchen. Das macht die Experimente auch so groß und teuer. Wegen der großen Datenmenge pro Kollision kann man eine Vorauswahl der Kollisionsereignisse treffen, die man genauer untersucht, um zum Beispiel Eigenschaften des Higgs-Teilchens genauer zu bestimmen. Es wird jedoch immer auch eine große Zahl sogenannter Minimum-Bias-Ereignisse gespeichert, um auch nach noch ganz unbekannten und unerwarteten Phänomenen suchen zu können. Die Ergebnisse der Teilchenphysik sind also gerade nicht von der Theorie abhängig, sondern sie sind eine zwingende Grundlage für jede Theorie, die Aussagen über Teilchen machen will.

Was wir gar nicht wissen

Nun gibt es auch für eine sogenannte Theory of Everything wie die Stringtheorie, die alle Grundkräfte der Natur und alle Teilchen beschreiben soll, grundsätzliche physikalische Fragen zur Materie und dem Universum, die sie nicht beantwortet. Dazu gehört zum Beispiel die Frage nach Ereignissen „vor“ dem Urknall, sofern man außerhalb der Existenz unseres Universums überhaupt von zeitlichen Begriffen wie vor oder nach sprechen kann. Auch hierzu gibt es Ideen, die sich in der einen oder anderen Form in diese neuen Theorien oder auch das Standardmodell integrieren ließen. So könnte das ganze Universum als zufällige Fluktuation aus nichts entstanden sein, und es könnte sich auch zufällig wieder in nichts auflösen. Von einer experimentell prüfbaren Theorie kann man in Bezug auf solche Ideen aber zumindest aktuell noch nicht sprechen.

Vielleicht werden wir aber tatsächlich erst zu einer konsistenten neuen Theorie jenseits des Standardmodells kommen, wenn jemand zu ganz neuen Ideen für völlig anders strukturierte Theorien findet, die möglicherweise auch solche Fragen mit einschließen. Die heutigen Kandidaten als Nachfolger des Standardmodells sind ja in gewisser Weise recht konventionell: Sie versuchen, in Form von Eichtheorien die Ideen des Standardmodells so zu verallgemeinern, dass sich ein umfassenderes Bild ergibt. Vielleicht wird sich der richtige Weg als ein ganz anderer herausstellen. Auch für eine solche neue Theorie würden aber die gleichen Voraussetzungen gelten: Sie müsste erklären, warum für praktisch alles, was wir heute messen können, das herauskommt, was das Standardmodell vorhersagt, und sie müsste ihren eigenen Wert unter Beweis stellen, indem sie Dinge vorhersagt, die wir noch nicht anderweitig vorhergesagt und gemessen haben.

Schließlich gibt es auch Fragen, die sich gar nicht in einer physikalischen Theorie beantworten lassen. Hierzu gehören zum Beispiel Fragen nach einem eventuellen Sinn von Dingen oder ethische Fragestellungen, was man tun sollte oder nicht. Bei solchen Fragen kann naturwissenschaftliche Erkenntnis einen Hintergrund bieten und als Information dienlich sein – sie kann aber nicht die Antwort liefern. Dementsprechend problematisch ist es auch, aus der Physik heraus oder mit der Autorität des erfolgreichen Physikers Antworten auf solche Fragen geben zu wollen. Davor haben auch viele der großen Physiker des 20. Jahrhunderts (zum Beispiel Erwin Schrödinger, Max Born und Werner Heisenberg) ausdrücklich gewarnt – und so mancher konnte sich trotzdem genau das nicht verkneifen.

Was dieses Nichtwissen nicht heißt

Wenn wir die Antwort auf eine grundlegende naturwissenschaftliche Frage, sei es die Entstehung des Lebens oder die des Universums, nicht wissen, liegt offenbar für viele Menschen die Versuchung nahe, eine willkürliche Antwort zu behaupten. Die beliebteste dieser willkürlichen Antworten begegnet mir auch in Diskussionen nach meinen Vorträgen regelmäßig: „An der Stelle muss man dann wohl von Gott sprechen.“ Nein, muss man nicht, und sollte man auch nicht. Selbst Theologen wehren sich gegen eine solche Vorstellung, die Dietrich Bonhoeffer mit dem treffenden Begriff „Lückenbüßer-Gott“ bezeichnet hat. Für Wissenschaftler ist eine solche Vorstellung ein ernsthaftes Problem und im Extremfall sogar lebensgefährlich: Wenn naturwissenschaftliches Nichtwissen beliebig mit religiösen Behauptungen aufgefüllt wird, dann wird jede neue wissenschaftliche Erkenntnis zwangsläufig zur Häresie. Das gilt insbesondere dann, wenn es um Schöpfungsmythen oder um die grundlegenden Zusammenhänge der Welt geht. Die historischen Beispiele von Galileo und Darwin drängen sich auf, aber grundsätzlich ist nicht auszuschließen, dass sich auch die Vorstellung von Gott als Auslöser des Urknalls über die Jahrzehnte zu einem Dogma entwickeln könnte, dessen Widerlegung Empörungsstürme bis hin zu Morddrohungen auslösen würde.

Noch bizarrer wird es, wenn religiöse Gruppierungen pseudo-naturwissenschaftliche Elemente in ihr Weltbild aufnehmen und in der Folge versuchen, diese als „neue Physik“ an der Öffentlichkeit – zum Teil buchstäblich – zu verkaufen. In gewohnt unterhaltsamer Form tun sich hier immer wieder die transzendental meditierenden Maharishis hervor, deren Quantenquark fast noch unfreiwillig komischer ist als ihr yogisches Fliegen oder die Wahlwerbespots ihrer Naturgesetz-Partei. So ist bei Thomas J. Routt in einer Veröffentlichung der Maharishi University of Management nachzulesen, dass im digitalen Universum die kosmische Weltregierung alle Aspekte des Lebens mittels Quantencomputern steuert.

An der Maharishi European Research University (MERU) wollte der Chemiker Klaus Volkamer 1987 in vermeintlichen minimalen Gewichtsschwankungen verschweißter Glasampullen die Wirkung dunkler Materie nachgewiesen haben. Eine Erklärung, warum die dunkle Materie nur in bestimmte, aber nicht in andere Glasampullen kriechen sollte, blieb er schuldig. In den folgenden 30 Jahren tourte er mit „feinstofflichen“ Erweiterungen praktisch aller Naturwissenschaften durch die Esoterikszene. Neben den Maharishis taucht Quantenquark in letzter Zeit auch zunehmend im Umfeld der Hare-Krishna-Bewegung auf.

Pseudowissenschaft in neureligiösen Bewegungen beschränkt sich jedoch nicht auf Gruppen aus dem hinduistischen Umfeld und, offensichtlich, die Scientologen, wenn man diese denn wirklich als religiöse Gruppierung betrachten will. Einige Anhänger von Christian Science betrachten ihren Kult offensichtlich allen Ernstes als Medizin und sehen – das hingegen wenig überraschend – Zusammenhänge vor allem mit der Homöopathie. In einer Zeitschrift der dem Christentum nahestehenden Bewegung Universelles Leben erklärte der Arzt Manfred Doepp, hinter Antibiotika und Impfungen stecke „mangelndes Vertrauen zur Führung durch Gott“.

Das Prinzip, dass man nicht jeden Unsinn für wahr erklären darf, nur weil die Wissenschaft etwas nicht weiß, gilt natürlich nicht nur für die Religion. Das gleiche trifft auch auf Nassim Haramein zu, wenn er die Tatsache, dass zwei unterschiedliche Messmethoden unterschiedliche Ergebnisse für den Radius eines Protons ergeben, nutzt, um seine absurden Vorstellungen vom Proton als schwarzem Loch für valider als das Standardmodell zu erklären. Hohle-Erde-Gläubige argumentieren ähnlich, wenn sie wissenschaftliche Diskussionen unter Geophysikern über die Ursache einzelner Reflektionsherde von Erdbebenwellen im Boden, sogenannte bright spots, als Beleg für ihre kruden Thesen anführen. Kreationisten nutzen jede spannende Forschungsfrage innerhalb der Evolutionsbiologie, um zu erklären die Evolution sei umstritten.

Nein. Dass es irgendwo in der Wissenschaft offene Fragen gibt, über die diskutiert und an denen geforscht wird, heißt nicht, dass sämtliche Ergebnisse dieses Forschungsgebiets falsch sind. Es heißt auch nicht, dass man als Antwort auf diese Frage einfach irgendeine beliebige Behauptung als erwiesen hinstellen darf, auch nicht eine, an die schon vor 2000 Jahren irgendwer in Vorder- oder Südasien geglaubt hat. So leid es mir tut, es heißt auch nicht, dass stattdessen zwangsläufig Ihre ganz persönliche Privattheorie stimmt, nach der sämtliche Elementarteilchen winzige, in unterschiedlichen Pinktönen eingefärbte und telepathisch kommunizierende Einhörner sind. Es heißt noch nicht einmal, dass das Universum dadurch entstanden ist, dass es vom großen grünen Arkelanfall ausgeniest wurde.

Dass es in der Wissenschaft offene Fragen gibt, heißt einfach nur, dass die Wissenschaft noch lebendig ist, dass es noch etwas zu forschen und zu entdecken gibt – und genau das macht die Wissenschaft so viel interessanter als alle Dogmen und Heilslehren.

Homöopathie und die Quantendynamik des (Kopf-) Schüttelns

Wenn man mit halbwegs rationalen Menschen über Homöopathie spricht, begegnet einem häufig die Aussage: „Wenn nichts drin ist, ist es vielleicht ein Placebo, aber dann schadet es ja auch nicht.“ Was für ein verheerender Fehlschluss das sein kann, hat sich ja ganz aktuell wieder bei Tina Turner gezeigt, die es fast nicht überlebt hätte, als sie von einem „homöopathischen Arzt“ aus Frankreich zwar nicht mit klassischer Homöopathie, aber ähnlich wirkungslos behandelt wurde.

Die Homöopathiegläubigen versuchen aber natürlich immer wieder zu erklären, Homöopathie sei eben kein Placebo, obwohl nichts drin ist. In den vergangenen Wochen geisterte durch diverse Homöopathiegruppen auf sozialen Netzwerken ein englischsprachiger Artikel mit dem Titel „Die Quantendynamik der homöopathischen Verschüttelung“, der einmal wieder die Wirksamkeit von Homöopathie auf Basis der Quantenmechanik begründen will. Dementsprechende Ideen, üblicherweise basierend auf der Verschränkung oder dem Welle-Teilchen-Dualismus, habe ich hier ja schon das eine oder andere Mal auseinandergenommen. So lohnt sich auch hier ein Blick – bei solchen Versuchen gibt es schließlich immer etwas zu lachen.

Rufen wir uns zunächst einmal in Erinnerung, warum eine solche Begründung notwendig wäre, wenn man ernsthaft glauben sollte, Homöopathie hätte eine Wirkung – außer als Placebo natürlich.

Homöopathische „Arzneimittel“ werden hergestellt, indem man eine Substanz – häufig etwas wie Arnika- oder Tollkirschenextrakt, aber auch gerne mal Hundekot, Nasenschleim von kranken Pferden oder wie im Bild Reste der Berliner Mauer – stark (meist 1:10 oder 1:100) verdünnt, nach einem festgelegten Ritual schüttelt, die verschüttelte Verdünnung dann wieder verdünnt und so weiter. Bei den meisten Homöopathika wird das viele Male wiederholt, wobei durch diesen Ritus sichergestellt ist, dass selbst nach wenigen Verdünnungsschritten (sogenannte Niedrigpotenzen) kaum noch etwas von der eigentlichen Substanz im fertigen Mittel enthalten ist. Nach ein paar Schritten mehr enthält ein homöopathisches „Mittel“ dann schon mehr Verunreinigungen aus dem verwendeten destillierten Wasser als angeblichen Wirkstoff. Nach 24 Verdünnungsschritten 1:10 (als D24 bezeichnet) oder 12 mal 1:100 (C12) wäre es ein extremer Zufall, wenn überhaupt noch ein einziges Atom der ursprünglichen Substanz enthalten ist. Im Fall von Globuli wird dann eine kleine Menge dieses geschüttelten Wassers auf die Zuckerkügelchen aufgesprüht. Nach dem homöopathischen Dogma nimmt die Wirkung dieser Kügelchen und damit die Wirkung des (ab D24) reinen Wassers mit jedem weiteren Verdünnen mit Wasser noch zu.

An dieser Stelle kann man die Betrachtung der Homöopathie aus physikalischer Sicht eigentlich auch beenden. Dass ein Wirkstoff vorhanden sein muss, um eine Wirkung zu haben, sollte normalerweise keine Erklärung mehr brauchen. Um sich aus diesem offensichtlichen Widerspruch zu grundlegenden Tatsachen der Natur herauszuwinden, schleppt die Homöopathie sich regelmäßig wiederholende Ausreden an: Nicht näher spezifizierte „Information“, „feinstoffliche“ oder „geistartige“ Wirkungen, oder eben… die Quanten. Wenn man solche Texte mit einer gewissen naturwissenschaftlichen Sachkunde liest, drängt sich in der Regel der Eindruck auf, die Autoren hätten etwas viel geistartige Getränke zu sich genommen – womit wir beim aktuellen Beispiel wären.

Die Autorin, die Australierin Christina Munns, nennt sich Diplom-Homöopathin und behauptet von sich, sie hätte Entdeckungen veröffentlicht zu physikalischen Fragen wie „dunkle Materie/Energie, Quantengravitation, Supersymmetrie, kardiozentrische Kosmologie und ein vereinigtes M-Theorie-Modell“. Unfreiwillig komisch ist die Platzierung der „kardiozentrischen Kosmologie“ mitten im Satz – einen solchen Begriff gibt es in der Physik nämlich gar nicht. Bevor wir jetzt das Nobelkomittee anschreiben, sollten wir einen Blick auf ihren Artikel werfen, um abzuschätzen, ob eine Hoffnung besteht, dass Frau Munns weiß, was ihre aufgelisteten Begriffe eigentlich bedeuten. Spoiler-Alarm: Es sieht nicht gut aus…

Die Grundidee von Frau Munns‘ Artikel ist, dass die Information der Ausgangssubstanz übertragen wird durch das Besetzen höherer Energiezustände in den Atomen der Lösung.

Elektronen befinden sich in einem Atom oder Molekül in bestimmten Energiezuständen, die auch als Schalen oder Orbitale bezeichnet werden und in den Anfängen der Quantenmechanik für Bahnen gehalten wurden, auf denen die Elektronen kreisen sollten. Führt man einem Elektron Energie zu, dann kann es in einen höheren, angeregten Energiezustand (auf eine äußere Schale oder in ein größeres Orbital) gehoben werden und je nach Energie und Art des Atoms oder Moleküls für eine kurze Zeit dort verweilen, bis es die Energie wieder abstrahlt und in den Grundzustand zurückfällt. In solchen höheren Energiezuständen sieht Frau Munns also die Information der Ursubstanz auf eine homöopathische Verdünung übertragen. Auch wenn Frau Munns immer von Atomen schreibt, soll es sich also offensichtlich um die Energiezustände von Wassermolekülen handeln, denn etwas anderes (insbesondere irgendwelche einzelnen Atome) kommt in der Lösung nach dem Verdünnen ja nicht mehr vor. Dabei schreibt sie ausführlich über die Bezeichnungen dieser Energiezustände, die sie offensichtlich von einigen Physiklernseiten im Internet abgeschrieben hat. Beim Versuch, ihren Mechanismus so zu erklären, verstrickt sie sich allerdings in eine Kette von Problemen, aus denen überdeutlich wird, dass sie das, wovon sie da schreibt, schlicht nicht verstanden hat.

Problem 1: Sie behauptet erst einmal, die höheren Energiezustände würden durch das Verschütteln besetzt, denn durch das Verschütteln würde den Elektronen Energie zugeführt. In Wirklichkeit ist die Energie, die man braucht, um Elekronen in höhere Energieniveaus zu bringen etwa in der Größenordnung der Energien, die in chemischen Reaktionen umgesetzt werden. Vergleichen Sie einfach mal die Energie, die Sie brauchen, wenn Sie 100 Milliliter Wasser schütteln, mit der Energie, die frei wird, wenn Sie 100 Milliliter Benzin verbrennen oder die Sie brauchen, um 100 Milliliter Wasser in Wasserstoff und Sauerstoff aufzuspalten. Vergleichen Sie es gedanklich – probieren Sie es bitte nicht aus! Kleiner Tip: Mit den 100 Millilitern Benzin fährt ein Auto ungefähr 1500 Meter weit. Beim Verschütteln wird die Energie aber auch viel zu zufällig (und damit als Wärme) auf alle Wassermoleküle verteilt: Würde man dem Wasser durch sehr intensives Schütteln extrem viel Energie zuführen, dann würden die Wassermoleküle einfach verdampfen und nicht angeregt werden. Man kann auch sehen, dass das nicht funktioniert: Wenn man die Elektronen von Wassermolekülen durch Schütteln in angeregte Zustände bringen könnte, dann müsste Wasser bei sehr intensivem Schütteln anfangen zu leuchten. Das hat offensichtlich irgendwann jemand versucht, Frau Munns zu erklären, denn an anderer Stelle in ihrem Text schreibt sie nun, durch das Schütteln würde Sauerstoff mit dem Wasser vermischt, so dass dessen Elektronen die höheren Zustände besetzen. Das bringt uns direkt zu…

Problem 2: Frau Munns ist nach ihrem Text offenbar nicht klar, dass es ein Unterschied ist, ob höhere Energiezustände durch die Anregung von Elektronen aus niedrigeren Zuständen desselben Moleküls besetzt werden oder durch zusätzliche Elektronen aus anderen Molekülen. Tatsächlich schreibt sie, mit jedem Verdünnungsschritt würden zusätzliche Zustände besetzt. Elektronen sind aber negativ geladen, und die Zahl der Elektronen, die ein Molekül im neutralen Zustand enthält, ist durch die positiven Ladungen in den Atomkernen festgelegt. Die Moleküle müssten also immer stärker ionisiert, also negativ aufgeladen werden. Das Wassermolekül H2O kann jedoch nicht einmal ein einziges zusätzliches Elektron an sich binden. Wenn Wasser Ionen bildet, spaltet es sich in ein positives H+ und ein negativ geladenes OH – die Zahl der Elektronen ist in der Summe also immer noch konstant. Selbst Atome oder Moleküle, die mit Elektronen von außen negativ geladene Ionen bilden, tun das nur mit einer genau festgelegten Zahl von Elektronen, meist einem oder zwei. Zusätzlich angebotene Elektronen würden einfach nicht aufgenommen und hätten somit überhaupt keinen Effekt.

Problem 3: Sauerstoff gibt gar keine Elektronen ab – im Gegenteil. Wenn ein Atom oder Molekül ein Elektron an ein anderes abgibt, dann ist das eine chemische Reaktion, eine sogenannte Redoxreaktion. Molekularer Sauerstoff gehört zu den Stoffen, die in solchen Reaktionen am stärksten Elektronen aufnehmen – er gibt aber ganz sicher keine ab.

Problem 4: Was hat das Ganze mit der Ausgangssubstanz zu tun? Unabhängig davon, dass Sauerstoff keine Elektronen abgibt und Wasser keine aufnimmt, soll durch den behaupteten Prozess ja die Information von der Ursubstanz auf die Verdünnung, letztlich auf reines Wasser, übertragen werden. Die Ursubstanz kommt in der behaupteten Reaktion aber gar nicht vor. Und ehe ich Frau Munns hier auf irgendwelche Ideen bringe: Nein, Hundescheiße ist auch kein geeigneter Katalysator, um Elektronen von Sauerstoff- zu Wassermolekülen zu übertragen.

Problem 5: Welche Information soll da gespeichert sein? Frau Munns behauptet, ein Elektron könnte unendlich viele angeregte Zustände einnehmen. Sie erklärt dazu, die Zustände, die im nicht angeregten Zustand nicht von Elektronen besetzt sind, entsprächen denjenigen Verdünnungen, in denen kein Molekül der Ursubstanz mehr enthalten ist. Was unter dieser Entsprechung zu verstehen ist, erklärt sie nicht. Der einzige aus ihrem Text erkennbare Zusammenhang ist: Eine Besetzung dieser Zustände existiert in der Natur nicht, und der Wirkstoff existiert in der Verdünnung nicht, also muss beides dasselbe sein.

Problem 6: Wieviel Information soll so ein angeregtes Elektron speichern können? In den Anregungen der Wassermoleküle müsste ja zumindest irgendwie codiert sein, welche der zigtausend homöopathischen Ausgangssubstanzen denn verwendet wurde. In einem bestimmten angeregten Zustand eines Atoms oder Moleküls kann aber nur entweder ein Elektron oder kein Elektron sein. Wäre die Anzahl der im Prinzip verfügbaren Elektronen also beliebig, dann könnte man dennoch in jedem Zustand nur eine ja/nein-Information, also ein Bit, speichern. Frau Munns behauptet dazu, pro Atom seien unendlich vieler solcher angeregten Zustände denkbar, die jeweils eine solche Information tragen könnten. Rein rechnerisch stimmt das, aber der höchste denkbare Anregungszustand wäre natürlich, dass das Elektron sich ganz aus dem Atom löst und frei herumfliegt. Je höher der Anregungszustand, desto kleiner der Unterschied zu einem freien Elektron. Durch Unschärferelation und Tunneleffekt würde kein Elektron sehr lange in einem solchen extrem hohen Anregungszustand bleiben, sondern einfach davonfliegen, womit eine darin gespeicherte Information verloren wäre. Und damit sind wir auch schon bei…

Problem 7: Die Lebensdauer dieser Information. Offenbar auf Grund von Kritik an früheren Versionen des gleichen Textes spricht Frau Munns selbst das Problem an, dass Elektronen, die in höhere Zustände angeregt wurden, von allein nach kurzer Zeit wieder in den Grundzustand zurückfallen würden. An dieser Stelle nimmt sie also selbst offenbar wieder an, dass die höheren Zustände durch angeregte Elektronen aus dem eigenen Molekül besetzt werden und nicht wie zuvor erwähnt durch zusätzliche. Aus dem resultierenden Dilemma redet sie sich heraus, indem sie erklärt, die Energie des Schüttelns (jetzt ist es wieder die Energie des Schüttelns, nicht die der Elektronen aus dem Sauerstoff) bliebe aufgrund des Energieerhaltungssatzes in den angeregten Elektronenzuständen erhalten. Vom Energieerhaltungssatz, der von Freie-Energie-Jüngern gerne mal ganz vergessen wird, kennt sie aber offensichtlich auch nicht mehr als den Namen. Sonst müsste sie wissen, dass dieser nur für abgeschlossene Systeme gilt, in die keine Energie hinein und aus denen keine heraus gelangen kann. Ein Wassermolekül im Wasser ist aber alles Andere als ein abgeschlossenes System: Es kann Energie nicht nur über elektromagnetische Strahlung aufnehmen und abgeben, sondern auch ganz direkt als Bewegung/Wärme an die umliegenden Moleküle. Der Versuch von Frau Munns, sich vor einem physikalisch gut begründeten Einwand zu retten, offenbart am Ende also nur ihren krassen Mangel an Grundlagenwissen.

Im letzten Satz schreibt Frau Munns: „Ich glaube, dieser neue Einblick in die Physik des Verschüttelungsprozesses wird zu dem Ziel beitragen, zweifelsfrei zu beweisen, dass homöopathische Medizin tatsächlich ein valides Medizinsystem ist, wenngleich auf Physik auf der Quantenskala basierend.“ Tatsächlich beweist ihr Text einmal mehr die absurden Verdrehungen von Physik, die Homöopathen beim Versuch bemühen, ihr noch absurderes Pseudomedizinsystem mit elementaren Naturgesetzen unter einen Hut zu bringen.

Immerhin muss man Frau Munns eines zugute halten: Aus ihrem Text ist deutlich zu erkennen, dass sie den hanebüchenen Unsinn, den sie verbreitet, tatsächlich auch selbst glaubt. Niemand, der absichtlich versuchte, seine Leser durch pseudophysikalische Phrasen und sinnfreie Gleichungen zu blenden, würde dermaßen erschreckende eigene Wissenslücken so offen zu Tage treten lassen.

 

Dr. Axel Stoll hat auch tot noch keine Ahnung von Physik…

Eigentlich sollte mein nächstes Posting ja die Fortsetzung des Vortragsposts sein und auf Quantenquark in der braunen Esoterik eingehen, aber da das hier gerade aktuell hereinkommt, schiebe ich einen kurzen Kommentar dazwischen. Mit einer Form von brauner Esoterik hat es ja auch zu tun. Und weiter unten im Text möchte ich einem Missverständnis vorbeugen, das sich die Freie-Energie-Spinner zunutze machen könnten.

Axel Stoll hat offensichtlich immer noch keine Ahnung von Physik. Das ist an sich nicht sonderlich überraschend, denn er ist ja inzwischen seit zweieinhalb Jahren tot…

Der Hintergrund ist natürlich der Film „Ein Interview mit Dr. Axel Stoll“, zu dem ich damals ein paar Expertenkommentare abgegeben hatte.

Stoll hatte in dem Interview behauptet, in geheimen Nazi-Laboren sei eine beispiellos harte Legierung erzeugt worden, indem unterschiedliche Metalle bei Temperaturen nahe am absoluten Nullpunkt unter extremem Druck verquetscht habe – Quetschmetall, wie er das nannte. Das ist natürlich Blödsinn: Bei Temperaturen nahe des absoluten Nullpunkts werden Festkörper (auch Metalle) immer weniger elastisch, und wenn man sie dann großen Kräften aussetzt, bekommt man keine harte Legierung, sondern nur Brösel. Das funktioniert sogar schon bei den vergleichsweise milden -196°C (und somit 77K über dem absoluten Nullpunkt) von flüssigem Stickstoff:

Viel spannender als das ist aber der Spektrum.de-Artikel, der in dem Tweet verlinkt ist. Da ist es also einer Forschergruppe gelungen, in einem sehr kleinen, schwingenden Bauteil die Schwingungen extrem zu reduzieren, was man als Kühlung bezeichnet. Dazu setzten sie sogenannte gequetschte Mikrowellen ein. Das sind elektromagnetische Wellen, bei denen unterschiedliche Frequenzen so trickreich überlagert sind, dass unvermeidliche quantenmechanische Störungen nicht die übertragene Energie beeinflussen, sondern die Wellen nur verschieben. Gequetscht war also nicht das Metall, sondern die Wellen, mit denen die Schwingungen des Metalls gebremst wurden (und auch für die ist der Begriff „gequetscht“ irgendwie wenig erhellend).

Das Experiment ist interessant für Präzisionsmessungen, für die Erforschung von Quanteneffekten in mechanischen Schwingungen und letztlich auch für eine denkbare Form von Speichern in Quantencomputern. Leider könnte der Artikel auch einen falschen Eindruck erwecken: Der Titel „Kälter als die Quanten erlauben“ kann nämlich den Eindruck entstehen lassen, es sei gelungen, dem Bauteil die Nullpunktsenergie seiner Schwingungen zu entziehen. Die Nullpunktsenergie wird aber in der „Freie-Energie“-Szene gerne als Begründung dafür missbraucht, dass es doch möglich wäre, ein Perpetuum mobile zu bauen. Nun brauchte man natürlich auch in diesem Experiment um viele Größenordnungen mehr Energie für den Betrieb der Anlage, als man dem Bauteil entzogen hat, aber Leute wie Claus Turtur sind ja gerne kreativ in ihrer Interpretation von Messungen…

Nun geht es bei der Quantengrenze, unter die man das Bauteil hier abgekühlt hat, aber gar nicht um die Nullpunktsenergie, sondern um die sogenannte quantum back action. Dafür gibt es offenbar noch keine einheitliche deutsche Übersetzung – ich finde entweder einfach nur „Rückwirkung“ oder, weniger einfach, „Quantenstrahlungsdruckrauschen“. Deshalb hat sich der Autor des Spektrum-Artikels offenbar ein bisschen darum gedrückt, diese „niedrigste mögliche Energiemenge“ näher zu bezeichnen. Etwas vereinfacht geht es um den (wie man jetzt gefunden hat nur fast) unvermeidlichen, unkontrollierten Austausch von Energie zwischen Messgerät und beobachtetem Objekt durch Quantenfluktuationen. Das ist eine der quantenmechanischen Grenzen bei Messungen, und quantenmechanisch ist das Kühlen auch eine Form von Messung. Wenn man die trickreich umschiffen kann, dann ist das allemal einen Artikel wert.

Es liegt mir auch fern, mit dieser Anmerkung Spektrum-Autor Lars Fischer zu kritisieren. Er ist meines Erachtens neben Florian Freistetter einer der besten Wissenschaftsblogger/-journalisten in deutscher Sprache. Als jemand, der hobbymäßig ab und zu mal ein paar Zeilen zu grenzwissenschaftlichen Themen zusammentippt, kann ich mich vor dem, was er früher auf Fischblog und jetzt auf Spektrum geschrieben hat und schreibt, nur verneigen.

Nur falls Ihnen nun irgendwo jemand begegnet, der meint, es sei doch jetzt sogar der Mainstreamwissenschaft gelungen, Bauteilen ihre Nullpunktsenergie zu entziehen: Die Antwort ist nein. Man kommt mit dieser Methode nur näher an die Nullpunktsenergie heran, die im Originalartikel als „motional ground state“ bezeichnet ist. Das war bislang nur bei Bauteilen möglich, die mit extrem hohen Frequenzen schwingen und dadurch auch eine relativ hohe Nullpunktsenergie haben. Mit dieser neuen Methode schafft man das dann auch bei Bauteilen mit niedrigerer Frequenz, wo das bislang durch Quanteneffekte bei der Messung/Kühlung nicht möglich war.

Insofern – alles gut, Ihr Physikbuch stimmt noch. Man kann weder Objekten ihre Nullpunktsenergie entziehen noch Quetschmetalle herstellen.

 

Es geht auch ohne Quark: Lydia Benecke demontiert die Teamgeist-Quantenverschränkung aus der FAZ

Ende Dezember durfte Parapsychologie-Papst Walter von Lucadou in der FAZ allerlei Quantenunsinn über Teamgeist und Zusammenarbeit in Gruppen verbreiten. Nach von Lucadou liegt das alles am quantenmechanischen Phänomen der Verschränkung, und die Zeitung mit den angeblich klugen Köpfen hat dem weder widersprochen noch auch nur halbwegs kritisch nachgefragt.

FAZ Lucadou

Das hatte ich dann schon am nächsten Tag zum Anlass genommen, um hier mal zu erklären, was es mit Verschränkung wirklich auf sich hat und warum es solche Verschränkung zwar zwischen kleinsten Teilchen, aber nicht zwischen größeren Objekten oder ganzen Menschen geben kann.

Im aktuellen Skeptiker demontiert die Psychologin Lydia Benecke Lucadous Quantengeschwurbel aus ganz anderer Perspektive. Sie erklärt die von Lucadou dargestellten Effekte aus der Perspektive der Sozialpsychologie, und plötzlich braucht man weder Zauberei noch Quantenquark, um die Leistung guter Trainer oder intuitiven Handelns im Sport zu erklären.

Das Heft mit dem äußerst lesenswerten Artikel kann man auf der GWUP-Seite bestellen oder über den dortigen Link als ePaper herunterladen.

Quantenquark in der Frankfurter Allgemeinen: Walter von Lucadou verschränkt den Bundestrainer

Eigentlich wollte ich ja dieser Tage über ein winterlicheres Thema schreiben, aber so richtig winterlich ist es ja noch nicht, und frisch verzapfter Quantenquark in der Frankfurter Allgemeinen Zeitung ist natürlich allemal eine Erwähnung wert.

Da fällt einer Sportredakteurin zum Thema Rituale im Sport nichts Blöderes ein, als den Parapsychologen Walter von Lucadou vier Onlineseiten lang zu interviewen, ohne dass darin irgendwann einmal ein Hinweis darauf auftaucht, dass Parapsychologie an sich schon wenig mit Wissenschaft oder überhaupt mit Wissen zu tun hat. Als ob das an sich noch nicht schlimm genug ist, versinkt Lucadou auch noch praktisch das gesamte Interview lang unwidersprochen im Quantenquark.

Lucadou behauptet, in gut funktionierenden Teams trete ein Phänomen aus der Quantenphysik namens Verschränkung auf. Insgesamt neun Mal spricht er in dem Interview von Physik, und er liefert eine Pseudoerklärung dafür, was Verschränkung in der Physik bedeutet: Er präsentiert „Verschränkungskräfte“ in einem Atom als Erklärung für dessen Stabilität, die durch „kausale Kräfte“ nicht gewährleistet wäre. Tatsächlich kennt die Physik aber weder „Verschränkungskräfte“ noch „kausale Kräfte“ – offenbar beides eine Erfindung von Herrn Lucadou.

Also kurz ein paar Zeilen dazu, was Verschränkung nun wirklich ist, genauer nachzulesen zum Beispiel bei Wikipedia:

Wenn mehrere Teilchen in einer einzigen Wechselwirkung entstehen (beispielsweise dem Zerfall eines Vorgängerteilchens), dann bilden diese Teilchen zunächst noch einen gemeinsamen Zustand, und zwar so lange, bis sie mit irgendwelchen Teilchen interagieren. Beeinflusst man jetzt die quantenmechanischen Eigenschaften eines dieser Teilchen vorsichtig genug (zum Beispiel über ein Magnetfeld), dann kann es gelingen, dass man damit gleichzeitig die Eigenschaften des anderen Teilchens verändert, selbst wenn sich das inzwischen an einem ganz anderen Ort befindet (weil „beide“ Teilchen eben in Wirklichkeit einen einzigen Zustand bilden). Ein solcher nichtlokaler Effekt zwischen Teilchen ist natürlich verblüffend anders als die Phänomene, die wir in der Welt normal großer Objekte kennen. Verblüffend war es sogar für Albert Einstein, weshalb man bis heute vom Einstein-Podolsky-Rosen-Paradoxon spricht – aber was bei einzelnen Teilchen Leo Podolsky verblüfft hat, muss nicht automatisch auch auf den ganzen Lukas Podolski wirken. Für normal große Objekte oder gar ganze Menschen ist die Verschränkung einfach deshalb völlig belanglos, weil sie nicht in einer einzigen Wechselwirkung entstehen und weil alle Teilchen darin ständig untereinander und mit der Umwelt interagieren. Von verschränkten Menschen in einem Team zu reden, ist physikalisch gesehen also schlichter Blödsinn.

Nun könnte Lucadou natürlich den Begriff der Verschränkung von der Physik auf ein gänzlich anderes Phänomen aus der Psychologie übertragen haben, weil dafür noch ein passender Begriff gefehlt hätte, „Teamgeist“ also zum Beispiel nicht gut genug gewesen wäre. Das wäre eine Metapher, in neuen Wissensfeldern ziemlich üblich und völlig legitim. Nicht legitim ist dann aber zu behaupten, es handele sich bei dieser „Verschränkung“ um dasselbe wie in der Physik, und genau das tut Walter von Lucadou in seinem Interview ständig:

„Erstaunlich ist, was man lange nicht wusste, dass solche Verschränkungskorrelationen nicht nur in kleinen quantenmechanischen Systemen, sondern auch in großen, wie zum Beispiel psychologischen Systemen, vorkommen können.“

„Psychokinese ist ebenfalls eine bestimmte Form des Verschränkungsphänomens. Da spielt die Physik noch mit. Nicht nur das Mentale.“

„Es gibt verschränkte Systeme, für die man nachweisen kann – das sind jetzt rein physikalische Systeme -, dass diese thermodynamischen Wahrscheinlichkeiten falsch sind. Die können auf einmal viel, viel größer werden. Ich nehme an, beim Spuk passiert so etwas.“

Nebenbei schiebt Lucadou dem Leser also auch noch Psychokinese und Spuk als angebliche Tatsachen – und natürlich als Physik – unter.

Warum er sich dazu einen Begriff aus der Physik kapert, sagt er freundlicherweise gleich ausdrücklich mit dazu: „Magie würde ich es aber nicht nennen, das ist zu negativ besetzt.“ Also nennt er es Verschränkung, damit klingt sein Bullshit dann nach Wissenschaft.

Fassen wir es kurz zusammen: Jemand, der gerne für einen seriösen Wissenschaftler gehalten werden möchte, klaut sich Begriffe aus einer anerkanntermaßen seriösen Wissenschaft zusammen und behauptet, was er tut, sei dasselbe.

Das ist zwar nicht verschränkt, aber dafür ziemlich beschränkt.