Quantenterroristen und der Terror der Wissenschaftsvermarktung

Von „Quantenterroristen“ handelte vor ein paar Tagen ein kurzer Artikel in der Süddeutschen Zeitung, und beim Lesen konnte man den Eindruck gewinnen, in der Zukunft könnten drei Terroristen in der Lage sein, allein durch das Senden falscher Daten das gesamte Internet auszulöschen. Wenn man bedenkt, welche Prozesse in unserer modernen Kultur alle vom Internet abhängen, muss man klar sagen, das wäre eine Horrorvision.

Rein formal ist der Artikel, der bezeichnenderweise nicht im Wissenschaftsteil, sondern im Feuilleton erschienen ist, journalistisch vertretbar: Unter der Rubrik „Gehört, Gelesen, Zitiert“ gibt er, überwiegend in Form eines sehr langen Zitats, Inhalte aus einem Online-Artikel des MIT Technology Review wieder. Als Leser würde ich aber eigentlich erwarten, dass eine Zeitung die Sinnhaftigkeit eines solchen Artikels prüft, bevor sie Auszüge davon unkommentiert wiedergibt. Das gleiche könnte man natürlich auch von einem Spezialmedium wie dem MIT Technology Review erwarten, bevor es den Artikel überhaupt publiziert.

Der Technology-Review-Artikel ist in einer Rubrik erschienen, die „die neuesten Ideen und Technologien“ darstellen soll, die auf dem Physics arXiv Preprint Server erscheinen. Dort können Wissenschaftler Artikel einstellen, die noch nicht zur Veröffentlichung in einer Fachzeitschrift angenommen sind, also noch nicht erfolgreich einen Peer Review durchlaufen haben. Über Ideen aus solchen noch nicht offiziell veröffentlichten Artikeln zu schreiben, soll offenbar den Eindruck erwecken, der Technology Review sei besonders am Puls der Zeit. Tatsächlich handelt es sich bei dem Fachartikel, auf den sich das Magazin beruft, ausdrücklich um ein sogenanntes working paper – die Autoren wissen also, dass ihre Ergebnisse noch nicht ausgegoren sind, und sie bitten um Kommentare und Anregungen von Fachkollegen, bevor sie überhaupt eine Veröffentlichung in einer Fachzeitschrift anstreben. Dass sich Inhalte aus einer solchen Diskussionsgrundlage innerhalb weniger Tage ohne jegliche Einordnung in der Süddeutschen Zeitung wiederfinden, ist dann schon einigermaßen skurril.

Wie in so vielen Fällen, in denen in der Öffentlichkeit ein verzerrtes Bild der Physik entsteht, liegt das Problem aber nicht nur darin, wie über Wissenschaft berichtet wird, sondern auch in der Art und Weise, wie die Wissenschaftler selbst über ihre Arbeit kommunizieren – und vor allem, wie sie sie verkaufen. Der Begriff des „Quantenterrorismus“ stammt nämlich tatsächlich aus dem besagten working paper der Wissenschaftler, die von Technology Review und Süddeutscher Zeitung an der renommierten George Washington University verortet werden, obwohl drei von vier Autoren des Artikels in Kolumbien tätig sind. Den schillernden Begriff haben sich die Autoren offensichtlich selbst aus den Fingern gesogen, denn gebräuchlich ist er für die im Artikel beschriebene Problematik nicht. Sucht man danach im Netz, dann findet man neben Berichterstattung über ihren Text eigentlich nur eine bizarre palästinensische Machtphantasie über das Durchtunneln eines Menschen durch die „Apartheidmauer“ südlich von Jerusalem in einem antiisraelischen Hetzblog.

Worum geht es aber nun eigentlich? Die Autoren schreiben über die prinzipielle Möglichkeit, ein sogenanntes Quantennetzwerk dadurch zu sabotieren, dass mehrere Teilnehmer gleichzeitig in abgestimmter Form unsinnige Informationen in das Netzwerk einspeisen. Das könnte die Information in dem Quantennetzwerk so stören, dass nicht einmal zu rekonstruieren wäre, wer die störende Information eingebracht hat. Für ein Quantennetzwerk mit vielen unabhängigen Teilnehmern wäre das (wenn es denn stimmt) logischerweise eine echte Bedrohung.

Um das Bedrohungsszenario jetzt realistisch einschätzen zu können, muss man sich zunächst einmal ansehen, was ein solchen Quantennetzwerk eigentlich ist, oder besser wäre, denn bis jetzt gibt es so etwas schlichtweg nicht. Ein Quantennetzwerk, wie es die vier Wissenschaftler in ihrem Artikel voraussetzen, bestünde aus Quantencomputern an verschiedenen Orten, deren gespeicherte Quanteninformationen über quantenmechanische Verschränkungen verbunden sind. Ich verspreche, den schon lange angekündigten Missverquanten-Artikel über Verschränkung schreibe ich auch noch. Über Quantencomputer habe ich im Buch ein bisschen geschrieben, aber hier im Blog noch nichts wirklich Grundlegendes, insofern kann ich auch dazu und zu den damit verbundenen Problematiken nur auf Wikipedia und zusammenfassende Artikel in populärwissenschaftlichen Medien (halbwegs aktuell z.B. hier) verweisen. Durch die Quantenverschränkung wäre man nicht darauf angewiesen, die Ergebnisse der einzelnen Quantencomputer zu messen und als klassiche Daten zu übertragen. Vielmehr könnte man verlustfrei die Quantenzustände übertragen – das Netzwerk verhielte sich also letztlich wie ein einziger, großer Quantencomputer. Die Vorstellung, dass unsinnige Eingaben von mehereren Nutzern gleichzeitig in einem Computer diesen zum Erliegen bringen können, erscheint dann schon weniger überraschend als ein Zusammenbruch des ganzen Internets.

Die Autoren des working papers zitieren nun einige aktuelle Artikel aus namhaften wissenschaftlichen Zeitschriften, in denen solche Quantennetzwerke als Quanteninternet bezeichnet werden. Da es um eine gegebenenfalls auch internationale Vernetzung von Computern geht, wie sie heute in der Regel über das Internet erfolgt, ist diese Begriffsfindung zunächst einmal auch nicht unbedingt sehr weit hergeholt.

Der Begriff des Quanteninternets wird allerdings regelmäßig, auch im MIT Technology Review, ebenso für die Verwendung von Quantenkryptographie zur abhörsicheren Kommunikation zwischen ganz normalen Computern verwendet. Bei der Quantenkryptographie wird durch die gleichzeitige Verwendung einer Quantenverschränkung und einer ganz normalen, klassischen Datenübertragung sichergestellt, dass die Kommunikation zwischen den beiden Rechnern nicht unbemerkt von einem Dritten abgehört werden kann. In der technischen Umsetzung haben Quantennetzwerke und Quantenkryptographie das gemeinsame Problem, dass sie auf Technologien angewiesen sind, die Quantenverschränkungen zuverlässig über große Distanzen erzeugen können. Bislang existieren solche Technologien nur als experimentelles proof of principle. Daher tauchen zu beiden Themen in den Medien regelmäßig dieselben Experten auf, und auch innerhalb von Artikeln oder Interviews werden Quantennetzwerke und Quantenkryptographie in jüngster Zeit regelmäßig unter dem Schlagwort „Quanteninternet“ oder gar „Web Q.0“ durcheinandergeworfen.

Diese marketingoptimierte Schlagwortbildung aus der Wissenschaft hat aber ein massives Problem. Dass Quantenkryptographie überhaupt funktionieren kann, beruht auf dem sogenannten No-Cloning-Theorem: Nach grundlegenden Prinzipien der Quantenmechanik ist es unmöglich, einen Quantenzustand zu duplizieren. Daher würde der Spion, der neben den verschlüsselten Daten auf dem klassischen Informationskanal auch den über die Quantenverschränkung übermittelten Schlüssel belauschen will, sich dadurch verraten, dass er die Übermittlung des Schlüssels stört. Was für die Quantenkryptographie grundlegend ist, ist für Quantencomputer und Quantennetzwerke aber ein Problem. In einem Quantennetzwerk kann es keine Redundanz geben, keine Sicherheitskopien, keine parallelen Verbindungen. So ist es wenig überraschend, dass es relativ einfach ist, ein solches Quantennetzwerk zu stören, wie eben auch der Lauscher in der Quantenkryptographie sich dadurch verrät, dass er die Verbindung stört. Genau das macht aber die gedankliche Verbindung mit dem Internet hochgradig problematisch.

Was das Internet von allen schon vorher existierenden Computernetzwerken unterscheidet, ist ja gerade seine hohe Redundanz. Das Internet hat keinen Zentralrechner, den man sabotieren könnte. Vielmehr besteht es aus einer Vielzahl voneinander unabhängiger Knoten, die auf unterschiedlichen Wegen direkt und indirekt miteinander verbunden sind. Einen solchen Knoten kann man natürlich sabotieren, und natürlich kommt es auch ohne Sabotage vor, dass solche Knoten ausfallen. Das führt in der Regel dazu, dass Nutzer eines oder auch mehrerer Anbieter in einer Region keinen Zugang zum Internet mehr haben – aber der Rest des Netzes funktioniert auch ohne diesen Knoten. Es gibt auch bestimmte neuralgische Verbindungen, zum Beispiel durch bestimmte Unterseekabel, deren Ausfall dazu führen würde, dass die Datenübertragung über parallele Verbindungen deutlich langsamer würde – allerdings sind auch diese Engpässe über die letzten 20 Jahre deutlich weniger und die Alternativen vielfältiger geworden.

Grundsätzlich können einzelne Systeme aber natürlich immer versagen, und das wird mit hoher Wahrscheinlichkeit auch in der Zukunft so bleiben. Bei Quantencomputern kommt noch das Problem hinzu, dass man die Quantenzustände zu ihrer Erhaltung komplett und über die gesamte Laufzeit der Berechnung von der Außenwelt abschirmen muss, um Dekohärenz und damit das Ende der Verschränkung und des ganzen Quantenzustandes zu vermeiden. Daher dürfte auch (oder vielmehr gerade) den Wissenschaftlern, die in ihren Veröffentlichungen regelmäßig von „dem Quanteninternet“ schreiben, klar sein, dass es ziemlich idiotisch ist, anzunehmen, dass ein einzelnes Quantennetzwerk die Rolle des gesamten heutigen Internets übernehmen könnte. Viel plausibler ist die Annahme, dass beim Funktionieren der entsprechenden Technik immer mehr spezialisierte Quantennetzwerke entstehen könnten, teils zur Geheimhaltung weitgehend getrennt, teils integriert in ein weiterhin redundantes, klassisches Netz von Netzwerken wie dem heutigen Internet. Die Arbeit der vier Forscher aus Washington und Bogotá legt jetzt nahe, dass es für die Teilnehmerzahl an einem solchen einzelnen Quantennetzwerk Grenzen des Sinnvollen und Sicheren gibt – und dass diese Grenzen möglicherweise enger sind, als das viele Fachkollegen bisher angenommen haben. Das klingt nicht ganz so spektakulär wie der Quantenterrorismus, ist aber definitiv ein interessantes Ergebnis.

Hätten die über ihre Arbeit publizierenden Wissenschaftler realistisch von Quantennetzwerken und von Sabotage darin anstatt vom Quanteninternet und von Quantenterrorismus geschrieben, dann wäre ein problematisches Zerrbild von Physik und Technologie vermieden worden. Dann hätten sie es aber natürlich auch nicht in die Süddeutsche Zeitung geschafft.

Was wir wissen, was nicht, und was das nicht bedeutet

Es ist immer wieder lustig, wenn einem als Physiker vorgeworfen wird, wir würden behaupten, alles zu wissen, während man eigentlich ständig erklärt, was wir alles nicht wissen. Wissenschaft wäre auch ziemlich öde, wenn man schon alles wüsste.

Klar, in gewisser Weise haben wir (also, die Physik als Ganzes natürlich, nicht ich) schon ziemlich viel Wissen – nur eben nicht unbedingt die Art von Wissen, die typischerweise die Hobbyphilosophenrunde kurz nach Mitternacht und drei Gläsern Wein gerne mit uns diskutieren möchte.

Was wir als Faktum der Natur wissen

Wir wissen zum Beispiel, dass bei Kollisionen mit hohen Energien, wie am Large Hadron Collider (LHC) des CERN, ein Teilchen mit einer Masse von gut 125 GeV entsteht – das entspricht etwa der Masse eines ganzen Cäsium- oder Bariumatoms. Für ein einzelnes Elementarteilchen ist das schon sehr massig. Dieses Teilchen zerfällt nach extrem kurzer Zeit auf eine von mehreren, in ihrer Art und Häufigkeit genau bestimmten Arten in andere Teilchen. Es ist elektrisch nicht geladen, und es hat keinen Spin. Stellen Sie sich den Spin bitte nicht als Drehung vor, lieber als eine Art Magnetismus; das erzeugt weniger falsche Bilder im Kopf. Aber ich schweife ab, und ich will ja eigentlich weniger abschweifen, also weiter. Diese Dinge wissen wir ganz sicher über das Teilchen, denn wir haben sie, erstmals 2012, gemessen (also, wieder nicht ich, sondern die „Kollegen“ am CERN, mit denen ich mich immer noch irgendwie verbunden fühle, obwohl ich da nur vor Ewigkeiten ein paar Monate für meine Diplomarbeit verbracht habe).

Da gibt es auch so gut wie keinen Spielraum, dass diese Messung irgendwann als nicht mehr richtig gelten könnte. Es könnte sich allenfalls noch herausstellen, dass unterschiedliche Teams von Wissenschaftlern an unterschiedlichen Instituten zu unterschiedlichen Zeiten alle denselben wahnsinnig blöden Fehler in der Datenauswertung gemacht haben – aber das ist nach sechseinhalb Jahren von Folgeexperimenten und -auswertungen wirklich extrem unwahrscheinlich, dass das noch nicht aufgeflogen wäre. Solche Fälle hat es gegeben, und weil Physiker Menschen sind, hören sie das in der Regel nicht gerne, aber das gab es nie bei so vielen Beteiligten zum Teil unabhängig voneinander. Insofern, ja, dass da ein Teilchen mit diesen Eigenschaften ist, wissen wir sicher.

Man könnte aber auch sagen, das ist es auch schon mit unserem Wissen über das Teilchen.

Was wir als wissenschaftliche Theorie wissen

Es gibt aber noch mehr, was wir auch zumindest ziemlich sicher über dieses Teilchen sagen können. In den 1960er Jahren haben nämlich Peter Higgs, François Englert und eine ganze Anzahl von heute meist übergangenen Kooperationspartnern sich einen Mechanismus überlegt, wie man in den sogenannten Eichtheorien dessen, was wir heute Standardmodell nennen, das Entstehen von Masse erklären kann. Masse kommt in solchen Theorien nämlich eigentlich nicht vor, das heißt, alles würde sich eigentlich mit Lichtgeschwindigkeit bewegen. Der Higgs-Mechanismus, auf den sie dabei gekommen sind, ist in einer kleinen Bilderserie vom CERN ganz nett dargestellt worden, die man samt Texten zum Beispiel hier ansehen kann. Und es gibt vom CERN auch eine kleine Animation dazu:

Man sollte sich natürlich immer im Klaren sein, dass solche Visualisierungen nur ganz grobe Vorstellungen der eigentlichen Theorie sind und man aus solchen Vereinfachungen vor allem keine weitergehenden Schlüsse ziehen darf. Sie sollen erst einmal eine Vorstellung geben – um daraus etwas abzuleiten, müsste man sich mit der eigentlichen Theorie im Detail beschäftigen.

Aus diesem Higgs-Mechanismus hat man schon vor Jahrzehnten abgeleitet, dass es ein Teilchen geben sollte, das genau die Zerfallsarten, die Ladung und den Spin haben müsste, wie das Teilchen, das man dann 2012 am CERN messen würde. In Verbindung mit den anderen Theorien des Standardmodells und Messungen an verschiedenen Beschleunigern konnte man dann auch die Masse dieses Higgs-Teilchens schon vor der Messung immer weiter eingrenzen: In den 1980er Jahren dachte man noch, es könne mehrere hundert GeV schwer sein. Gegen 1990 zeichnete sich ab, dass die Masse zwischen 100 und 200 GeV liegen sollte. Damit war auch klar, dass man keinen neuen Riesenbeschleuniger für mehr als 10 Milliarden Dollar in der Wüste von Texas würde bauen müssen, um das Teilchen zu suchen: Der damals in der Entwicklung befindliche LHC am CERN sollte dafür locker ausreichen. Als ich Mitte der 1990er Jahre am CERN war, war man schon ziemlich sicher: Wenn es das Higgs-Teilchen tatsächlich gäbe, müsste seine Masse zwischen 110 und 130 GeV liegen. Im Jahr 2000 meinte man kurzzeitig, vage Anzeichen für ein neues Teilchen bei 114 GeV entdeckt zu haben, was sich aber nicht bestätigt hat. Schließlich kam die große Erleichterung, als man das Teilchen 2012 bei 125 GeV genau im vorhergesagten Massenbereich gefunden hat. Die Ernüchterung kam dann später, als sich abzeichnete, dass man am LHC neben dem Vorhergesagten (bis jetzt) irgendwie gar nichts Unvorhergesagtes findet, das Ansatzpunkte für neue Theorien bieten könnte – aber das ist eine andere Geschichte.

Diese Vorhersage und die dazu passende Messung geben uns ein ziemlich sicheres Wissen, dass es sich bei dem 2012 gemessenen Teilchen wohl um das gesuchte Higgs-Teilchen handelt. Das ist aber eine andere Art von Wissen als die Messung selbst: Die Theorie des Higgs-Mechanismus kann (und wird wahrscheinlich) irgendwann überholt sein, aber das Teilchen nicht. Jede neue Theorie, die später den Higgs-Mechanismus und das Standardmodell ersetzen will, wird nicht nur das Entstehen von Masse erklären müssen, sondern muss auch eine Erklärung dafür liefern, was für ein Teilchen man da seit 2012 beobachtet.

Das Higgs ist aber nicht das einzige Phänomen, das auf Basis der Theorien des Standardmodells (Elektroschwache Theorie, Quantenchromodynamik, Allgemeine Relativitätstheorie und Higgs-Mechanismus) vorhergesagt und später gemessen wurde. Das gleiche gilt für die W- und Z-Teilchen der schwachen Wechselwirkung, für alle aus Quarks aufgebauten Teilchen, die charm– und bottom-Quarks enthalten, sowie für das top-Quark und das tau-Neutrino. Alle wurden aufgrund des Standardmodells vorhergesagt und erst später nachgewiesen. Hinzu kommen unterschiedliche Arten sogenannter Jets, also Teilchenbündel, aus Kollisionen von Protonen oder leichten Atomkernen, die als Produkte der Quarks und Gluonen vorhergesagt wurden, aus denen die Protonen aufgebaut sind. Noch kein Teilchennachweis im eigentlichen Sinne, aber eine sehr frühe spektakuläre Bestätigung einer Vorhersage des Standardmodells war der Nachweis sogenannter neutraler schwacher Ströme am CERN 1973.

Das Standardmodell ist also nicht deshalb, nun, eben das Standardmodell der Physik, weil es besonders schön oder besonders praktisch wäre – gerade das ist es nach Ansicht der meisten Physiker eben nicht. Schließlich besteht es aus mehreren einzelnen Theorien, die auf den ersten Blick wenig miteinander zu tun zu haben scheinen und unter denen sich zumindest die Relativitätstheorie auch strukturell deutlich von den anderen unterscheidet. Der Standard ist es, weil es eine Vielzahl experimenteller Ergebnisse vorhergesagt hat. Dabei hat es nicht nur Messwerte wie die Masse des Higgs-Teilchens ziemlich gut eingegrenzt, sondern sogar die Existenz ganzer Phänomene und Teilchen vorhergesagt. Was immer irgenwann an die Stelle des Standardmodells treten soll, muss also in vielerlei Hinsicht zunächst einmal die gleichen Ergebnisse liefern wie das Standardmodell – sonst passt es schlicht und einfach nicht zur messbaren Realität.

Wie man nicht zu Wissen gelangt

Die Anhänger „alternativer“ Physiker wie Nassim Haramein oder Burkhard Heim (Heim war immerhin tatsächlich Physiker) behaupten jetzt, ihre Idole hätten das Standardmodell widerlegt, indem sie einzelne Messwerte mit größerer Genauigkeit vorhergesagt hätten. Sowohl Haramein als auch Heim waren hier schon an anderer Stelle Thema. Ironischerweise haben diese beiden Geistesgrößen Messwerte „vorhergesagt“, die schon längst gemessen und ihnen bekannt waren. Das ist ungefähr so, als wollte ich meine Kenntnisse in meteorologischer Synoptik (also Wetterbeobachtung und -vorhersage, das habe ich in meinem Nebenfach tatsächlich mal gelernt) dadurch unter Beweis stellen, dass ich das Wetter von gestern vorhersage. Im Fall von Heim mussten einige der von ihm genau „vorhergesagten“ Messwerte (wie die Masse des Eta-Mesons) aufgrund späterer, genauerer Messungen korrigiert werden, so dass sich seine Nachhersagen auch noch als falsch herausgestellt haben. Da beide „Theorien“ außer diesen Pseudobelegen nicht viel Überprüfbares zu bieten haben, will ich hier auch gar nicht weiter darauf eingehen.

Wozu wir noch keine eindeutige Theorie haben

Natürlich gibt es aber auch in den Bereichen der Physik, mit denen sich das Standardmodell beschäftigt, Ergebnisse, die durch das Standardmodell nicht beschrieben werden. Ein Themenbereich ist die Masse von Neutrinos. Neutrinos sind eine Art elektrisch neutrales Gegenstück zu Elektronen sowie den schwereren elektronenähnlichen Teilchen, den Myonen und Tau-Leptonen, sowie zu deren Antiteilchen. Da Neutrinos elektrisch neutral sind, wirken elektromagnetische Felder nicht auf sie. Auch die sogenannte starke Kernkraft wirkt nicht auf Neutrinos. Nachgewiesen werden können sie also nur durch die schwache Kernkraft, die einen etwas irreführenden Namen hat, weil sie auf einzelne Teilchen nicht unbedingt schwach, sondern eher selten wirkt. In den allermeisten Fällen kann ein Neutrino durch die Erde hindurchfliegen, ohne dabei irgendeine Wechselwirkung mit der durchflogenen Materie auszulösen. Selbst die dichteste auf der Erde bekannte Materie, das Innere von Atomkernen, ist für Neutrinos durchlässig. Wenn sie aber (sehr, sehr selten) doch einmal mit einem Teilchen wechselwirken, an dem sie vorbeikommen, dann können sie in der Reaktion durchaus einen großen Teil ihrer Energie übertragen und in ein Elektron (oder Myon oder Tau oder deren Antiteilchen) umgewandelt werden. Die Frage ist, wenn andere Kräfte außer der schwachen Kernkraft nicht auf Neutrinos wirken, wirkt denn die Schwerkraft auf sie, haben sie also eine (von null verschiedene) Masse? Es gibt indirekte experimentelle Belege, dass die Neutrinomasse nicht null sein kann. Direkt gemessen hat die Masse aber noch niemand, wobei der momentan aussichtsreichste Versuch das nach vielen Verzögerungen 2018 endlich in Betrieb genommene KATRIN-Experiment in Karlsruhe sein dürfte. Nach dem Standardmodell müssen Neutrinos keine Masse haben – man kann aber eine von null verschiedene Neutrinomasse relativ problemlos ins Standardmodell einsetzen.

Eine Zeit lang, bis deutlich wurde, wie klein sie wirklich ist, galt eine von null verschiedene Neutrinomasse als mögliche Erklärung für einen physikalischen Effekt, der ebenfalls nicht durch das Standardmodell erklärt wird: die dunkle Materie. Letztlich braucht man nur relativ einfache Mechanik und die Annahme, dass Sterne, die gleich viel Strahlung bei denselben Wellenlängen aussenden, auch ungefähr gleich schwer sein müssen, um die Masse praktisch aller sichtbaren Objekte unserer Galaxie abzuleiten. Berechnet man jetzt die Bewegung dieser Objekte um das Zentrum der Galaxie, dann stellt man fest, dass die Galaxie viel mehr Masse enthalten muss, als alle sichbaren Objekte zusammen ausmachen. Das schließt nicht nur direkt sichtbare Objekte wie Sterne und Gasnebel ein, sondern auch Planeten und Staubwolken, die kein Licht emittieren, die man aber dadurch nachweisen kann, dass sie das Licht anderer Objekte verdecken. In der Summe ergibt sich, dass im Universum rund fünf mal so viel dunkle wie direkt oder indirekt sichtbare Materie vorhanden sein muss. Die Existenz dunkler Materie folgt also nicht aus irgendwelchen Theorien, sondern direkt aus Messungen und relativ einfachen Berechnungen. Massive, dunkle Himmelskörper, sogenannte MACHOs, die man nachweisen kann, wenn sie vor anderen Objekten vorbeiziehen, können nach aktuellen Messungen höchstens einen kleinen Teil dieser dunklen Materie ausmachen. Die plausibelste Vermutung erscheint zur Zeit, dass es sich um noch unbekannte, schwere Elementarteilchen, sogenannte WIMPs, handelt. Diese kommen im Standardmodell an sich nicht vor. Es gibt jedoch weitergehende Theorien wie die Supersymmetrie oder die Stringtheorie, die solche Teilchen vorhersagen und das Standardmodell mit einschließen. Zumindest für einfache Varianten der Supersymmetrie hätte man diese Teilchen aber inzwischen auch an Beschleunigern finden müssen, wenn diese Varianten denn zuträfen. In welcher Form das Standardmodell hier erweitert oder ersetzt werden muss, ist also noch ziemlich offen. Man kann aber auch durchaus argumentieren, dass es für unser Verständnis des Univerums ziemlich egal ist, ob die dunkle Materie aus diesen oder jenen Teilchen besteht – man muss einfach nur als Ergänzung zum Standardmodell annehmen, dass diese Masse irgendwie da ist und sonst nichts tut.

Etwas mehr (aber nicht viel mehr) theoretische Annahmen stecken hinter der dunklen Energie: Das Universum dehnt sich aus; das wissen wir, weil sich ziemlich direkt messbar fast alle anderen Galaxien von uns entfernen. Da die Schwerkraft immer als Anziehung wirkt, müsste sie diese Expansion allerdings im Lauf der Zeit immer mehr abbremsen. Das habe ich in den 1990er Jahren noch im Studium gelernt. Inzwischen kann man aber (wieder ziemlich direkt, durch die Beobachtung von sehr weit entfernten Supernovae, von denen das Licht Milliarden Jahre bis zu uns braucht) messen, dass sich die Expansion anscheinend sogar beschleunigt. Den Antrieb dieser beschleunigten Expansion bezeichnet man als dunkle Energie. Um das Universum so aufzublähen, braucht es ungeheuer viel Energie: Würde sich alle Materie im heutigen Universum einschließlich der dunklen Materie in Energie umwandeln, dann entspräche das nur rund einem Drittel der dunklen Energie, die nach heutiger Berechnung die Expansion des Universums antreibt. In der allgemeinen Relativitätstheorie und damit im Standardmodell kann man eine solche dunkle Energie als sogenannte kosmologische Konstante problemlos einsetzen. Das hat sogar Einstein schon getan, als er noch dachte, das Universum dehne sich nicht aus, sondern sei stationär. Das erfordert nämlich auch eine Energie, die der Schwerkraft entgegenwirkt, damit das Universum nicht unter seinem eigenen Gewicht zusammenstürzt. Das Standardmodell kann diese Energie berücksichtigen, erklärt aber nicht, woher sie kommt.

Welche Ansätze es zu diesen offenen Fragen gibt

Alle drei genannten Effekte widerlegen das Standardmodell nicht. Sie zeigen lediglich, dass es in der Teilchenphysik und der Kosmologie Fragen gibt, die das Standardmodell allein nicht beantwortet und die als Ergänzung zum Standardmodell angenommen werden müssen. Eine Theorie, die das Standardmodell irgendwann ablösen soll, sollte möglichst einen Teil dieser Fragen, im Idealfall alle, beantworten. An solchen Theorien wird schon gearbeitet, seit es das Standardmodell gibt. Es gibt eine ganze Anzahl von Ansätzen. Manche sind ambitionierter und versuchen, alle Kräfte in einer Theorie zusammenzufassen; andere klammern die Schwerkraft noch aus und überlassen deren Beschreibung noch der allgemeinen Relativitätstheorie. Manche dieser Theorien, wie die Stringtheorie oder die Quantengravitation, sind auch nach 40 Jahren noch nicht so weit, Aussagen zu machen, die sich mit heutiger Technik vernünftig experimentell prüfen ließen. Damit lässt sich erst recht nicht zwischen den denkbaren Varianten dieser Theorien unterscheiden. Andere, wie die zu meinen Schulzeiten noch mit großen Hoffnungen behaftete Grand Unified Theory (GUT), sind zumindest in ihren einfachen Varianten heute schon experimentell widerlegt. Alle solchen Theorien, aus denen spektakuläre neue Messergebnisse für bisherige Experimente abgeleitet wurden, sind daran jedenfalls gescheitert – was nicht notwendigerweise alle Varianten der jeweiligen Theorie ausschließt, aber in der Regel die favorisierte, weil einfachste. Das gilt zum Beispiel für die zu meinen Studienzeiten meist beachtete Theorie, die Supersymmetrie, deren einfachste Form neue Teilchen vorhersagt, die man im LHC am CERN schon hätte finden müssen. Es bleiben also viele Fragen offen, aber mangels entsprechender zu prüfender Vorhersagen gibt es aktuell wenige Ansätze, durch Experimente auf der Erde Antworten zu finden. Daher ist es auch umstritten, ob man neue, noch größere Beschleuniger bauen sollte. Die spannendsten neuen Erkenntnisse stammten in den letzten Jahren sicherlich aus den immer besseren Beobachtungen der Astronomie, vor allem durch Teleskope auf Satelliten.

Warum die experimentellen Erkenntnisse nicht von der Theorie abhängen

Eins ist bei diesen neuen Theorien jedoch zweifelsfrei klar: Sie müssen zu praktisch allen schon gemachten Experimenten der Teilchen- und Astrophysik zu den gleichen Ergebnissen kommen wie das Standardmodell mit den genannten Ergänzungen wie der Neutrinomasse, denn die Ergebnisse dieser Experimente würden sich ja durch eine neue Theorie nicht ändern. Anders von „alternativen Physikern“ oder postmodernen Philosophen und Wissenschaftstheoretikern gelegentlich behauptet wird, müsste man diese Experimente auch nicht völlig anders aufbauen, wenn man andere Theorien hätte, und es würde schon gar nichts anderes herauskommen. Hinter solchen Vorstellungen stecken typischerweise Fehlinterpretationen von Thomas S. Kuhns Untersuchungen zu Erkenntnisprozessen in der Wissenschaft und einmal wieder ein falsches Verständnis des Beobachtereffekts. Wenn in einem Beschleunigerzentrum wie dem CERN Kollisionen hochenergetischer Teilchen und damit letztlich Freisetzungen reiner Energie untersucht werden, sind die Experimente ohnehin so aufgebaut, dass praktisch alles gleichzeitig gemessen wird, was man dabei technologisch überhaupt messen kann. Es gibt auch keine andere Möglichkeit, unter kontrollierten Bedingungen zu messen, was passiert, wenn an einem Punkt große Energien frei werden. Die Teilchenphysik kann Experimente gar nicht darauf ausrichten, nur den einen Parameter gezielt zu messen, der zur Überprüfung einer einzelnen Theorie nötig ist – dafür sind die Entwicklungszeiträume viel zu lang. Als der LHC in den 1980er Jahren geplant wurde, ging man noch von einem viel schwereren Higgs-Teilchen aus, und die Supersymmetrie, nach deren Teilchen bislang erfolglos gesucht wird, galt noch als wesentlich unwahrscheinlicher als die inzwischen längst ausgeschlossenen einfachen GUTs. Hypothetissche Vorhersagen aus neuen Theorien ändern sich schneller, als man neue Beschleuniger und Detektoren planen und bauen kann. Der LHC am CERN wurde dementsprechend nicht nur gebaut, um das Higgs nachzuweisen, sondern um ganz allgemein zu erforschen, welche neuen Phänomene in einem gewissen Energiebereich auftauchen. Das macht die Experimente auch so groß und teuer. Wegen der großen Datenmenge pro Kollision kann man eine Vorauswahl der Kollisionsereignisse treffen, die man genauer untersucht, um zum Beispiel Eigenschaften des Higgs-Teilchens genauer zu bestimmen. Es wird jedoch immer auch eine große Zahl sogenannter Minimum-Bias-Ereignisse gespeichert, um auch nach noch ganz unbekannten und unerwarteten Phänomenen suchen zu können. Die Ergebnisse der Teilchenphysik sind also gerade nicht von der Theorie abhängig, sondern sie sind eine zwingende Grundlage für jede Theorie, die Aussagen über Teilchen machen will.

Was wir gar nicht wissen

Nun gibt es auch für eine sogenannte Theory of Everything wie die Stringtheorie, die alle Grundkräfte der Natur und alle Teilchen beschreiben soll, grundsätzliche physikalische Fragen zur Materie und dem Universum, die sie nicht beantwortet. Dazu gehört zum Beispiel die Frage nach Ereignissen „vor“ dem Urknall, sofern man außerhalb der Existenz unseres Universums überhaupt von zeitlichen Begriffen wie vor oder nach sprechen kann. Auch hierzu gibt es Ideen, die sich in der einen oder anderen Form in diese neuen Theorien oder auch das Standardmodell integrieren ließen. So könnte das ganze Universum als zufällige Fluktuation aus nichts entstanden sein, und es könnte sich auch zufällig wieder in nichts auflösen. Von einer experimentell prüfbaren Theorie kann man in Bezug auf solche Ideen aber zumindest aktuell noch nicht sprechen.

Vielleicht werden wir aber tatsächlich erst zu einer konsistenten neuen Theorie jenseits des Standardmodells kommen, wenn jemand zu ganz neuen Ideen für völlig anders strukturierte Theorien findet, die möglicherweise auch solche Fragen mit einschließen. Die heutigen Kandidaten als Nachfolger des Standardmodells sind ja in gewisser Weise recht konventionell: Sie versuchen, in Form von Eichtheorien die Ideen des Standardmodells so zu verallgemeinern, dass sich ein umfassenderes Bild ergibt. Vielleicht wird sich der richtige Weg als ein ganz anderer herausstellen. Auch für eine solche neue Theorie würden aber die gleichen Voraussetzungen gelten: Sie müsste erklären, warum für praktisch alles, was wir heute messen können, das herauskommt, was das Standardmodell vorhersagt, und sie müsste ihren eigenen Wert unter Beweis stellen, indem sie Dinge vorhersagt, die wir noch nicht anderweitig vorhergesagt und gemessen haben.

Schließlich gibt es auch Fragen, die sich gar nicht in einer physikalischen Theorie beantworten lassen. Hierzu gehören zum Beispiel Fragen nach einem eventuellen Sinn von Dingen oder ethische Fragestellungen, was man tun sollte oder nicht. Bei solchen Fragen kann naturwissenschaftliche Erkenntnis einen Hintergrund bieten und als Information dienlich sein – sie kann aber nicht die Antwort liefern. Dementsprechend problematisch ist es auch, aus der Physik heraus oder mit der Autorität des erfolgreichen Physikers Antworten auf solche Fragen geben zu wollen. Davor haben auch viele der großen Physiker des 20. Jahrhunderts (zum Beispiel Erwin Schrödinger, Max Born und Werner Heisenberg) ausdrücklich gewarnt – und so mancher konnte sich trotzdem genau das nicht verkneifen.

Was dieses Nichtwissen nicht heißt

Wenn wir die Antwort auf eine grundlegende naturwissenschaftliche Frage, sei es die Entstehung des Lebens oder die des Universums, nicht wissen, liegt offenbar für viele Menschen die Versuchung nahe, eine willkürliche Antwort zu behaupten. Die beliebteste dieser willkürlichen Antworten begegnet mir auch in Diskussionen nach meinen Vorträgen regelmäßig: „An der Stelle muss man dann wohl von Gott sprechen.“ Nein, muss man nicht, und sollte man auch nicht. Selbst Theologen wehren sich gegen eine solche Vorstellung, die Dietrich Bonhoeffer mit dem treffenden Begriff „Lückenbüßer-Gott“ bezeichnet hat. Für Wissenschaftler ist eine solche Vorstellung ein ernsthaftes Problem und im Extremfall sogar lebensgefährlich: Wenn naturwissenschaftliches Nichtwissen beliebig mit religiösen Behauptungen aufgefüllt wird, dann wird jede neue wissenschaftliche Erkenntnis zwangsläufig zur Häresie. Das gilt insbesondere dann, wenn es um Schöpfungsmythen oder um die grundlegenden Zusammenhänge der Welt geht. Die historischen Beispiele von Galileo und Darwin drängen sich auf, aber grundsätzlich ist nicht auszuschließen, dass sich auch die Vorstellung von Gott als Auslöser des Urknalls über die Jahrzehnte zu einem Dogma entwickeln könnte, dessen Widerlegung Empörungsstürme bis hin zu Morddrohungen auslösen würde.

Noch bizarrer wird es, wenn religiöse Gruppierungen pseudo-naturwissenschaftliche Elemente in ihr Weltbild aufnehmen und in der Folge versuchen, diese als „neue Physik“ an der Öffentlichkeit – zum Teil buchstäblich – zu verkaufen. In gewohnt unterhaltsamer Form tun sich hier immer wieder die transzendental meditierenden Maharishis hervor, deren Quantenquark fast noch unfreiwillig komischer ist als ihr yogisches Fliegen oder die Wahlwerbespots ihrer Naturgesetz-Partei. So ist bei Thomas J. Routt in einer Veröffentlichung der Maharishi University of Management nachzulesen, dass im digitalen Universum die kosmische Weltregierung alle Aspekte des Lebens mittels Quantencomputern steuert.

An der Maharishi European Research University (MERU) wollte der Chemiker Klaus Volkamer 1987 in vermeintlichen minimalen Gewichtsschwankungen verschweißter Glasampullen die Wirkung dunkler Materie nachgewiesen haben. Eine Erklärung, warum die dunkle Materie nur in bestimmte, aber nicht in andere Glasampullen kriechen sollte, blieb er schuldig. In den folgenden 30 Jahren tourte er mit „feinstofflichen“ Erweiterungen praktisch aller Naturwissenschaften durch die Esoterikszene. Neben den Maharishis taucht Quantenquark in letzter Zeit auch zunehmend im Umfeld der Hare-Krishna-Bewegung auf.

Pseudowissenschaft in neureligiösen Bewegungen beschränkt sich jedoch nicht auf Gruppen aus dem hinduistischen Umfeld und, offensichtlich, die Scientologen, wenn man diese denn wirklich als religiöse Gruppierung betrachten will. Einige Anhänger von Christian Science betrachten ihren Kult offensichtlich allen Ernstes als Medizin und sehen – das hingegen wenig überraschend – Zusammenhänge vor allem mit der Homöopathie. In einer Zeitschrift der dem Christentum nahestehenden Bewegung Universelles Leben erklärte der Arzt Manfred Doepp, hinter Antibiotika und Impfungen stecke „mangelndes Vertrauen zur Führung durch Gott“.

Das Prinzip, dass man nicht jeden Unsinn für wahr erklären darf, nur weil die Wissenschaft etwas nicht weiß, gilt natürlich nicht nur für die Religion. Das gleiche trifft auch auf Nassim Haramein zu, wenn er die Tatsache, dass zwei unterschiedliche Messmethoden unterschiedliche Ergebnisse für den Radius eines Protons ergeben, nutzt, um seine absurden Vorstellungen vom Proton als schwarzem Loch für valider als das Standardmodell zu erklären. Hohle-Erde-Gläubige argumentieren ähnlich, wenn sie wissenschaftliche Diskussionen unter Geophysikern über die Ursache einzelner Reflektionsherde von Erdbebenwellen im Boden, sogenannte bright spots, als Beleg für ihre kruden Thesen anführen. Kreationisten nutzen jede spannende Forschungsfrage innerhalb der Evolutionsbiologie, um zu erklären die Evolution sei umstritten.

Nein. Dass es irgendwo in der Wissenschaft offene Fragen gibt, über die diskutiert und an denen geforscht wird, heißt nicht, dass sämtliche Ergebnisse dieses Forschungsgebiets falsch sind. Es heißt auch nicht, dass man als Antwort auf diese Frage einfach irgendeine beliebige Behauptung als erwiesen hinstellen darf, auch nicht eine, an die schon vor 2000 Jahren irgendwer in Vorder- oder Südasien geglaubt hat. So leid es mir tut, es heißt auch nicht, dass stattdessen zwangsläufig Ihre ganz persönliche Privattheorie stimmt, nach der sämtliche Elementarteilchen winzige, in unterschiedlichen Pinktönen eingefärbte und telepathisch kommunizierende Einhörner sind. Es heißt noch nicht einmal, dass das Universum dadurch entstanden ist, dass es vom großen grünen Arkelanfall ausgeniest wurde.

Dass es in der Wissenschaft offene Fragen gibt, heißt einfach nur, dass die Wissenschaft noch lebendig ist, dass es noch etwas zu forschen und zu entdecken gibt – und genau das macht die Wissenschaft so viel interessanter als alle Dogmen und Heilslehren.

Homöopathie und die Quantendynamik des (Kopf-) Schüttelns

Wenn man mit halbwegs rationalen Menschen über Homöopathie spricht, begegnet einem häufig die Aussage: „Wenn nichts drin ist, ist es vielleicht ein Placebo, aber dann schadet es ja auch nicht.“ Was für ein verheerender Fehlschluss das sein kann, hat sich ja ganz aktuell wieder bei Tina Turner gezeigt, die es fast nicht überlebt hätte, als sie von einem „homöopathischen Arzt“ aus Frankreich zwar nicht mit klassischer Homöopathie, aber ähnlich wirkungslos behandelt wurde.

Die Homöopathiegläubigen versuchen aber natürlich immer wieder zu erklären, Homöopathie sei eben kein Placebo, obwohl nichts drin ist. In den vergangenen Wochen geisterte durch diverse Homöopathiegruppen auf sozialen Netzwerken ein englischsprachiger Artikel mit dem Titel „Die Quantendynamik der homöopathischen Verschüttelung“, der einmal wieder die Wirksamkeit von Homöopathie auf Basis der Quantenmechanik begründen will. Dementsprechende Ideen, üblicherweise basierend auf der Verschränkung oder dem Welle-Teilchen-Dualismus, habe ich hier ja schon das eine oder andere Mal auseinandergenommen. So lohnt sich auch hier ein Blick – bei solchen Versuchen gibt es schließlich immer etwas zu lachen.

Rufen wir uns zunächst einmal in Erinnerung, warum eine solche Begründung notwendig wäre, wenn man ernsthaft glauben sollte, Homöopathie hätte eine Wirkung – außer als Placebo natürlich.

Homöopathische „Arzneimittel“ werden hergestellt, indem man eine Substanz – häufig etwas wie Arnika- oder Tollkirschenextrakt, aber auch gerne mal Hundekot, Nasenschleim von kranken Pferden oder wie im Bild Reste der Berliner Mauer – stark (meist 1:10 oder 1:100) verdünnt, nach einem festgelegten Ritual schüttelt, die verschüttelte Verdünnung dann wieder verdünnt und so weiter. Bei den meisten Homöopathika wird das viele Male wiederholt, wobei durch diesen Ritus sichergestellt ist, dass selbst nach wenigen Verdünnungsschritten (sogenannte Niedrigpotenzen) kaum noch etwas von der eigentlichen Substanz im fertigen Mittel enthalten ist. Nach ein paar Schritten mehr enthält ein homöopathisches „Mittel“ dann schon mehr Verunreinigungen aus dem verwendeten destillierten Wasser als angeblichen Wirkstoff. Nach 24 Verdünnungsschritten 1:10 (als D24 bezeichnet) oder 12 mal 1:100 (C12) wäre es ein extremer Zufall, wenn überhaupt noch ein einziges Atom der ursprünglichen Substanz enthalten ist. Im Fall von Globuli wird dann eine kleine Menge dieses geschüttelten Wassers auf die Zuckerkügelchen aufgesprüht. Nach dem homöopathischen Dogma nimmt die Wirkung dieser Kügelchen und damit die Wirkung des (ab D24) reinen Wassers mit jedem weiteren Verdünnen mit Wasser noch zu.

An dieser Stelle kann man die Betrachtung der Homöopathie aus physikalischer Sicht eigentlich auch beenden. Dass ein Wirkstoff vorhanden sein muss, um eine Wirkung zu haben, sollte normalerweise keine Erklärung mehr brauchen. Um sich aus diesem offensichtlichen Widerspruch zu grundlegenden Tatsachen der Natur herauszuwinden, schleppt die Homöopathie sich regelmäßig wiederholende Ausreden an: Nicht näher spezifizierte „Information“, „feinstoffliche“ oder „geistartige“ Wirkungen, oder eben… die Quanten. Wenn man solche Texte mit einer gewissen naturwissenschaftlichen Sachkunde liest, drängt sich in der Regel der Eindruck auf, die Autoren hätten etwas viel geistartige Getränke zu sich genommen – womit wir beim aktuellen Beispiel wären.

Die Autorin, die Australierin Christina Munns, nennt sich Diplom-Homöopathin und behauptet von sich, sie hätte Entdeckungen veröffentlicht zu physikalischen Fragen wie „dunkle Materie/Energie, Quantengravitation, Supersymmetrie, kardiozentrische Kosmologie und ein vereinigtes M-Theorie-Modell“. Unfreiwillig komisch ist die Platzierung der „kardiozentrischen Kosmologie“ mitten im Satz – einen solchen Begriff gibt es in der Physik nämlich gar nicht. Bevor wir jetzt das Nobelkomittee anschreiben, sollten wir einen Blick auf ihren Artikel werfen, um abzuschätzen, ob eine Hoffnung besteht, dass Frau Munns weiß, was ihre aufgelisteten Begriffe eigentlich bedeuten. Spoiler-Alarm: Es sieht nicht gut aus…

Die Grundidee von Frau Munns‘ Artikel ist, dass die Information der Ausgangssubstanz übertragen wird durch das Besetzen höherer Energiezustände in den Atomen der Lösung.

Elektronen befinden sich in einem Atom oder Molekül in bestimmten Energiezuständen, die auch als Schalen oder Orbitale bezeichnet werden und in den Anfängen der Quantenmechanik für Bahnen gehalten wurden, auf denen die Elektronen kreisen sollten. Führt man einem Elektron Energie zu, dann kann es in einen höheren, angeregten Energiezustand (auf eine äußere Schale oder in ein größeres Orbital) gehoben werden und je nach Energie und Art des Atoms oder Moleküls für eine kurze Zeit dort verweilen, bis es die Energie wieder abstrahlt und in den Grundzustand zurückfällt. In solchen höheren Energiezuständen sieht Frau Munns also die Information der Ursubstanz auf eine homöopathische Verdünung übertragen. Auch wenn Frau Munns immer von Atomen schreibt, soll es sich also offensichtlich um die Energiezustände von Wassermolekülen handeln, denn etwas anderes (insbesondere irgendwelche einzelnen Atome) kommt in der Lösung nach dem Verdünnen ja nicht mehr vor. Dabei schreibt sie ausführlich über die Bezeichnungen dieser Energiezustände, die sie offensichtlich von einigen Physiklernseiten im Internet abgeschrieben hat. Beim Versuch, ihren Mechanismus so zu erklären, verstrickt sie sich allerdings in eine Kette von Problemen, aus denen überdeutlich wird, dass sie das, wovon sie da schreibt, schlicht nicht verstanden hat.

Problem 1: Sie behauptet erst einmal, die höheren Energiezustände würden durch das Verschütteln besetzt, denn durch das Verschütteln würde den Elektronen Energie zugeführt. In Wirklichkeit ist die Energie, die man braucht, um Elekronen in höhere Energieniveaus zu bringen etwa in der Größenordnung der Energien, die in chemischen Reaktionen umgesetzt werden. Vergleichen Sie einfach mal die Energie, die Sie brauchen, wenn Sie 100 Milliliter Wasser schütteln, mit der Energie, die frei wird, wenn Sie 100 Milliliter Benzin verbrennen oder die Sie brauchen, um 100 Milliliter Wasser in Wasserstoff und Sauerstoff aufzuspalten. Vergleichen Sie es gedanklich – probieren Sie es bitte nicht aus! Kleiner Tip: Mit den 100 Millilitern Benzin fährt ein Auto ungefähr 1500 Meter weit. Beim Verschütteln wird die Energie aber auch viel zu zufällig (und damit als Wärme) auf alle Wassermoleküle verteilt: Würde man dem Wasser durch sehr intensives Schütteln extrem viel Energie zuführen, dann würden die Wassermoleküle einfach verdampfen und nicht angeregt werden. Man kann auch sehen, dass das nicht funktioniert: Wenn man die Elektronen von Wassermolekülen durch Schütteln in angeregte Zustände bringen könnte, dann müsste Wasser bei sehr intensivem Schütteln anfangen zu leuchten. Das hat offensichtlich irgendwann jemand versucht, Frau Munns zu erklären, denn an anderer Stelle in ihrem Text schreibt sie nun, durch das Schütteln würde Sauerstoff mit dem Wasser vermischt, so dass dessen Elektronen die höheren Zustände besetzen. Das bringt uns direkt zu…

Problem 2: Frau Munns ist nach ihrem Text offenbar nicht klar, dass es ein Unterschied ist, ob höhere Energiezustände durch die Anregung von Elektronen aus niedrigeren Zuständen desselben Moleküls besetzt werden oder durch zusätzliche Elektronen aus anderen Molekülen. Tatsächlich schreibt sie, mit jedem Verdünnungsschritt würden zusätzliche Zustände besetzt. Elektronen sind aber negativ geladen, und die Zahl der Elektronen, die ein Molekül im neutralen Zustand enthält, ist durch die positiven Ladungen in den Atomkernen festgelegt. Die Moleküle müssten also immer stärker ionisiert, also negativ aufgeladen werden. Das Wassermolekül H2O kann jedoch nicht einmal ein einziges zusätzliches Elektron an sich binden. Wenn Wasser Ionen bildet, spaltet es sich in ein positives H+ und ein negativ geladenes OH – die Zahl der Elektronen ist in der Summe also immer noch konstant. Selbst Atome oder Moleküle, die mit Elektronen von außen negativ geladene Ionen bilden, tun das nur mit einer genau festgelegten Zahl von Elektronen, meist einem oder zwei. Zusätzlich angebotene Elektronen würden einfach nicht aufgenommen und hätten somit überhaupt keinen Effekt.

Problem 3: Sauerstoff gibt gar keine Elektronen ab – im Gegenteil. Wenn ein Atom oder Molekül ein Elektron an ein anderes abgibt, dann ist das eine chemische Reaktion, eine sogenannte Redoxreaktion. Molekularer Sauerstoff gehört zu den Stoffen, die in solchen Reaktionen am stärksten Elektronen aufnehmen – er gibt aber ganz sicher keine ab.

Problem 4: Was hat das Ganze mit der Ausgangssubstanz zu tun? Unabhängig davon, dass Sauerstoff keine Elektronen abgibt und Wasser keine aufnimmt, soll durch den behaupteten Prozess ja die Information von der Ursubstanz auf die Verdünnung, letztlich auf reines Wasser, übertragen werden. Die Ursubstanz kommt in der behaupteten Reaktion aber gar nicht vor. Und ehe ich Frau Munns hier auf irgendwelche Ideen bringe: Nein, Hundescheiße ist auch kein geeigneter Katalysator, um Elektronen von Sauerstoff- zu Wassermolekülen zu übertragen.

Problem 5: Welche Information soll da gespeichert sein? Frau Munns behauptet, ein Elektron könnte unendlich viele angeregte Zustände einnehmen. Sie erklärt dazu, die Zustände, die im nicht angeregten Zustand nicht von Elektronen besetzt sind, entsprächen denjenigen Verdünnungen, in denen kein Molekül der Ursubstanz mehr enthalten ist. Was unter dieser Entsprechung zu verstehen ist, erklärt sie nicht. Der einzige aus ihrem Text erkennbare Zusammenhang ist: Eine Besetzung dieser Zustände existiert in der Natur nicht, und der Wirkstoff existiert in der Verdünnung nicht, also muss beides dasselbe sein.

Problem 6: Wieviel Information soll so ein angeregtes Elektron speichern können? In den Anregungen der Wassermoleküle müsste ja zumindest irgendwie codiert sein, welche der zigtausend homöopathischen Ausgangssubstanzen denn verwendet wurde. In einem bestimmten angeregten Zustand eines Atoms oder Moleküls kann aber nur entweder ein Elektron oder kein Elektron sein. Wäre die Anzahl der im Prinzip verfügbaren Elektronen also beliebig, dann könnte man dennoch in jedem Zustand nur eine ja/nein-Information, also ein Bit, speichern. Frau Munns behauptet dazu, pro Atom seien unendlich vieler solcher angeregten Zustände denkbar, die jeweils eine solche Information tragen könnten. Rein rechnerisch stimmt das, aber der höchste denkbare Anregungszustand wäre natürlich, dass das Elektron sich ganz aus dem Atom löst und frei herumfliegt. Je höher der Anregungszustand, desto kleiner der Unterschied zu einem freien Elektron. Durch Unschärferelation und Tunneleffekt würde kein Elektron sehr lange in einem solchen extrem hohen Anregungszustand bleiben, sondern einfach davonfliegen, womit eine darin gespeicherte Information verloren wäre. Und damit sind wir auch schon bei…

Problem 7: Die Lebensdauer dieser Information. Offenbar auf Grund von Kritik an früheren Versionen des gleichen Textes spricht Frau Munns selbst das Problem an, dass Elektronen, die in höhere Zustände angeregt wurden, von allein nach kurzer Zeit wieder in den Grundzustand zurückfallen würden. An dieser Stelle nimmt sie also selbst offenbar wieder an, dass die höheren Zustände durch angeregte Elektronen aus dem eigenen Molekül besetzt werden und nicht wie zuvor erwähnt durch zusätzliche. Aus dem resultierenden Dilemma redet sie sich heraus, indem sie erklärt, die Energie des Schüttelns (jetzt ist es wieder die Energie des Schüttelns, nicht die der Elektronen aus dem Sauerstoff) bliebe aufgrund des Energieerhaltungssatzes in den angeregten Elektronenzuständen erhalten. Vom Energieerhaltungssatz, der von Freie-Energie-Jüngern gerne mal ganz vergessen wird, kennt sie aber offensichtlich auch nicht mehr als den Namen. Sonst müsste sie wissen, dass dieser nur für abgeschlossene Systeme gilt, in die keine Energie hinein und aus denen keine heraus gelangen kann. Ein Wassermolekül im Wasser ist aber alles Andere als ein abgeschlossenes System: Es kann Energie nicht nur über elektromagnetische Strahlung aufnehmen und abgeben, sondern auch ganz direkt als Bewegung/Wärme an die umliegenden Moleküle. Der Versuch von Frau Munns, sich vor einem physikalisch gut begründeten Einwand zu retten, offenbart am Ende also nur ihren krassen Mangel an Grundlagenwissen.

Im letzten Satz schreibt Frau Munns: „Ich glaube, dieser neue Einblick in die Physik des Verschüttelungsprozesses wird zu dem Ziel beitragen, zweifelsfrei zu beweisen, dass homöopathische Medizin tatsächlich ein valides Medizinsystem ist, wenngleich auf Physik auf der Quantenskala basierend.“ Tatsächlich beweist ihr Text einmal mehr die absurden Verdrehungen von Physik, die Homöopathen beim Versuch bemühen, ihr noch absurderes Pseudomedizinsystem mit elementaren Naturgesetzen unter einen Hut zu bringen.

Immerhin muss man Frau Munns eines zugute halten: Aus ihrem Text ist deutlich zu erkennen, dass sie den hanebüchenen Unsinn, den sie verbreitet, tatsächlich auch selbst glaubt. Niemand, der absichtlich versuchte, seine Leser durch pseudophysikalische Phrasen und sinnfreie Gleichungen zu blenden, würde dermaßen erschreckende eigene Wissenslücken so offen zu Tage treten lassen.

 

New Videos: Relative Quantum Nonsense and my Talk on Fringe Physicist Burkhard Heim

I’ll soon be back with articles that have more new content to offer, and I’ll switch back to German, but as I primarily want to link to videos and two of them are in English, here’s a post in English, for a change. It’ll be short, so most of my German readers should have no problem with that.

With the recent shortage of articles here, which is mostly owed to a new book project, I would like to point out some videos of talks I recently gave.

I am extremely grateful for the opportunity to talk at the Ratio Science Forum in Sofia in June this year. Great venue, great other speakers to hear and to hang out with, amazing organization. Here is the video of my talk, which is basically a 45 minute introduction to quantum nonsense and how to avoid being fooled by it.

Please check out the Ratio Science Forum talks by biologist Steven LeComber on Maths Murder and Malaria and by astrophysicist Maggie Lieu on The Dark Universe in the Eyes of Euclid, too.

If you don’t want to invest 45 minutes, there is a 30 minute talk with a somewhat similar focus (but without the the theory of relativity, for example) from the 2017 European Skeptics‘ Congress in Wroclaw.

I also gave a bite-sized talk at the English Einstein Slam in Berlin in March 2018, but apparently, there is no video online for that, so my only general ten minute science slam talk on quantum nonsense you can see online is in German, from the Dresden Einstein Slam in 2017:

I already linked to my science slam talk on biophotons in a previous article.

A video that would have been important to me because it was on a topic I don’t often talk about and on which there really isn’t much skeptical material available, from SkepKon 2017, was unfortunately lost due to technical difficulties. Therefore, I thank Andi Weimann and the Kortizes-Institute in Nuremburg for giving us the chance to re-record it and finally get it on youtube. It is about the German post-war fringe physicist Burkhard Heim, whose theories are still popular with UFO, alt med and conspiracy theory believers to this day, even outside Germany. There is a segment on Heim in my book, too, but with the full evening I had at the planetarium in Nuremberg, the talk my be even more in-depth than that. If you understand German, listen to it; it may not be as funny as my other talks, but it is a touching story about a man seriously trying to contribute to science but always hampered by his physical handicaps. His life is made even more tragic by the esoterical nonsense Heim’s incompetent admirers have woven around him and the business they’re making off him after his death.

Zur Abwechslung: Musik in meinen Ohren

Da ich gerade keinen Nerv habe, mich über irgendwas aufzuregen, mir aber andererseits auch die Zeit fehlt, den schon lange angekündigten zweiten „Missverquanten“-Erklärartikel (das wäre dann der über den Welle-Teilchen-Dualismus) zu schreiben, versuche ich die geneigten Quantenquark-Leser einfach mal mit etwas Musik bei Laune zu halten. Mit elektronischer Musik natürlich; wer mich schon länger kennt… ziemlich lange… so ungefähr 25 Jahre… weiß auch warum. Ach ja, einen Getränkechip habe ich noch, auch wenn er schon etwas ramponiert ist, nachdem er lange als mein Schlüsselanhänger herhalten musste.

Wenn es auf Quantenquark.com erscheint und kein Quantenquark ist, dann muss es natürlich etwas Nerdiges sein, mit richtiger Physik und richtigen Physikern. Es ist sogar eine kleine Hommage an Stephen Hawking darin, wobei ich mit dem Personenkult um Hawking ja immer meine Schwierigkeiten hatte. Immerhin muss ich im Vergleich zu anderen bekannten Physikern sagen, dass er immer so klar formuliert und sich so deutlich als Skeptiker und Atheist positioniert hat, dass ihm die Quantenheiler, relativistischen Schamanen, schwachen Quantentheoretiker und pseudophysikalischen Unternehmensberater nur mit größter Mühe das Wort im Mund herumdrehen und ihn als Kronzeugen des Quarks missbrauchen konnten. Und angesichts seiner unglaublichen Popularität und seiner krassen Lebensgeschichte hätten sie das ganz sicher mit größter Freude getan.

Also, los geht’s:

Darauf gebracht hat mich übrigens unser Frankfurter Skeptikerkollege, DJ und House-Produzent Eb-Clectic. Und tatsächlich hat er selbst einen ebenso coolen Track mit einer Stimme der Physik auf Lager – leider ohne Video:

Und schließlich, nicht ganz so professionell gemacht und schon zehn Jahre alt, aber dafür direkt im CERN aufgenommen und von einer waschechten Physikerin gerappt: Mit meiner CERN-Vergangenheit komme ich an Alpinekat natürlich nicht vorbei.

Also, einmal lockermachen, der nächste Quark kommt ganz sicher.

Ganz kurz: Quantenquark zweimal geslamt

Da ich voraussichtlich noch bis zum Sommer eher selten zu längeren Beiträgen kommen werde, an dieser Stelle erst mal zwei Terminhinweise für Kurzentschlossene aus Mittelfranken oder dem Großraum Berlin (und natürlich für die Teilnehmer der Frühjahrstagungen der Deutschen Physikalischen Gesellschaft DPG).

Ich werde Quantenquark mal wieder als kleines Worst-Of im Science-Slam-Format (auf 10 Minuten komprimiert, pointiert, etwas anzüglich und dem Format geschuldet zwangsläufig ein bisschen albern) präsentieren, und zwar in diesem Frühjahr gleich zweimal kurz hintereinander. Veranstalter der Einstein-Slams ist wieder die junge DPG.

Erlangen: Dienstag, 6. März, 20 Uhr, Audimax der Friedrich-Alexander-Universität, Bismarckstraße 1

 

Berlin: Montag, 12. März, 20 Uhr, Urania, An der Urania 17, ein paar Schritte von der U-Bahn-Station Wittenbergplatz.

Damit bin ich also dieses Mal gleich auf zwei der vier DPG-Frühjahrstagungen vertreten – und natürlich treffen sich gerade die drei Fachgruppen, an denen ich aus früherer oder aktueller Tätigkeit interessiert bin (Hadronen und Kerne, Teilchenphysik sowie Industrie und Wirtschaft), auf den beiden anderen Konferenzen.

Inhaltlich verrate ich wohl nicht zu viel, wenn ich schon mal ankündige, dass in meinem Vortrag Walter Thurner wieder seinen Verstand ausschalten darf, und auch die „Unternehmensphysiker“ sind einfach zu schön, um sie wegzulassen. Ich habe aber auch ein paar schöne neue Fundstücke dabei.

Nachdem ich bis jetzt bei den Einstein Slams in Dresden Erster und in Münster Letzter geworden bin, bin ich schon sehr gespannt, was das Publikum in Erlangen und Berlin zum Quantenquark sagt…

Karl, mei‘ Trobbe – aber bitte nicht die von Karl Probst

„Karl, mei Trobbe!“ Als Skeptiker muss ich natürlich darauf aufmerksam machen, dass es höchst umstritten ist, ob Mama Hesselbach ihren berühmten Stoßseufzer jemals wirklich gesagt hat. Dass die Familie Hesselbach mir bis heute ein Begriff ist, obwohl die HR-Fernsehserie schon in meiner frühen Kindheit nur noch als Wiederholung lief, mag damit zu tun haben, dass auch mein Großvater eine kleine Firma hatte und von ihm in unserem Haus eigentlich immer nur als „der Chef“ gesprochen wurde. Der Ruf nach den Herztropfen ist aber nicht nur mir im Gedächtnis geblieben, sondern rund um Frankfurt 50 Jahre nach dem Ende der Serie immer noch ein geflügeltes Wort.

Karl, mei Trobbe. Das war auch so ziemlich das erste, was mir durch den Kopf ging, als ich anfing, mich mit den Behauptungen von Dr. med. Karl J. Probst zu beschäftigen. Nötig wurde das beim Versuch, dem Bürgermeister von Bergheim begreiflich zu machen, dass es keine gute Idee ist, die städtische Kongresshalle für einen Esoterikkongress mit vielfältigen Reichsbürger-Verbindungen zu vermieten. Karl Probst ist sicherlich einer der bizarrsten unter den Referenten, die für den Akasha-Congress angekündigt sind, wobei es mir fern liegt, eine Rangliste der Skurrilität innerhalb dieses Gruselkabinetts zu erstellen. Der Grund, warum er Jahre nach seiner Emigration nach Bolivien wieder auf Kongressen in Deutschland auftaucht, ist offenbar, dass er, wie er in einem Video, das uns hier noch beschäftigen soll, erklärt, eine Privatklinik in der Nähe von Dresden plant. Aktuell findet man ihn im Netz jedoch als Inhaber eines „Wellness-Energie-Zentrums“ in Trier.

Über Probsts politische Aktivitäten am rechten Rand habe ich schon im letzten Artikel geschrieben – das soll uns hier nicht noch einmal beschäftigen. Vielmehr möchte ich ein paar seiner Behauptungen ganz gezielt naturwissenschaftlich hinterfragen – vor allem solche, die auch sonst immer mal an den Rändern der Alternativmedizinszene auftauchen. Quantenquark im engeren Sinne ist nicht dabei: Ich habe den Eindruck, für eine Wiedergabe von Inhalten der Quantenphysik oder Relativitätstheorie, selbst in absurden Fehlinterpretationen, fehlt Probst schlicht das naturwissenschaftliche Verständnis.

Einen grundlegenden Überblick über die Inhalte, die Probst in letzter Zeit so verbreitet, hat die Kölner Skeptikerin Monika Kreusel für einen Artikel zusammengetragen, der bislang nur auf Facebook veröffentlicht ist und von dem ich hier als Einleitung zu Probst einige Passagen (natürlich mit ihrer Zustimmung) übernehmen möchte:

Am Wochenende nahm ich mir die Internetseite und einen Artikel über Biofilme vor, in welchem Dr. Karl J. Probst explizit neben Schwefel zur Darmsanierung Petroleum und Leichtbenzin empfiehlt. Ich habe also das Wochenende damit verbracht, mich über Biofilme zu informieren, deren tatsächliche mögliche Gefahren für die Gesundheit und die von diesem Naturheilarzt empfohlenen Behandlungsmethoden. Aber auch darüber hinaus habe ich recherchiert. Ich sah mich veranlasst dazu durch das auf seiner Internetseite eingefügte Video seines Interviews bei Jo Conrad, desweiteren wegen des Verweises auf Helmut Wandmaker und auch wegen einzelner Formulierungen in seinem Artikel über Biofilme in der von Helmut Wandmaker gegründeten Zeitschrift. Mal abgesehen von den Schreckensszenarien, die er zeichntet darin, so fragte ich mich, wessen Geistes Kind dieser Arzt eigentlich ist.

Bei dem Video handelt es sich um die folgende 50-minütige Interviewsendung des Reichsbürger-Aktivisten Jo Conrad mit Probst auf Conrads rechtsesoterischem Videoportal Bewusst.tv:

Wer viel Zeit und eine hohe Schmerztoleranz hat, kann sich das ansehen. Es ist… ach, man weiß nie, ob man lachen oder weinen, sich aufregen oder einfach resignieren sollte.

Nun will ich an dieser Stelle direkt zurück zu Dr. med. Karl Probst und dessen Vorstellungen zur Behandlung chronischer Krankheiten, wobei er wesentlich auch auf Darmsanierung und Entgiftung setzt. Bei der Darmsanierung empfiehlt er Schwefel, wobei er Paracelsus einen Pionier nennt. Das macht für mich deutlich, dass dieser Naturheilarzt, wie er sich selbst bezeichnet, gerne ungeachtet moderner evidenzbasierter Medizin auf alte Heilmethoden zurückgreift. Auch vor Paracelsus macht er dabei nicht halt.

Paracelsus wurde 1493 oder 1494 als Theophrastus Bombast von Hohenheim in Egg im Kanton Schwyz geboren und starb am 24.09.1541 in Salzburg. Seit 1529 nannte er sich Paracelsus. Zu seiner Zeit gab es unsere moderne Medizin nicht. Eigentlich ist es überflüssig, das ausdrücklich zu erwähnen.

Es befremdet mich daher, das heute in der Gegenwart ein Arzt auf Darmsanierung zur Behandlung von Krankheiten setzt, dabei Paracelsus als Pionier bezeichnet, während er den Gebrauch von Schwefel empfiehlt und das ganze im Kontext von Biofilmen. Paracelsus war zu seiner Zeit gewiss weit entfernt von Kenntnissen über Biofilme und wie mit ihnen umzugehen sei bei der Behandlung von Krankheiten.

Das ist allerdings nicht die einzige fragwürdige Therapie, für die Probst wirbt:

Zum letzteren wären die genannten fragwürdigen vermeintlich natürlichen Heilmethoden zu nennen. So lobt er Jim Humble für die als Mineral Miracle Supplement (MMS) bezeichnete bei Einnahme gefährliche Chemikalie Chlordioxid als „Therapie von Krankheiten aller Art“ und begründet dies mit der „antimikrobiellen Wirksamkeit“. Dieser Arzt erklärt allen Ernstes, diese ätzende und keinesfalls zur Einnahme geeignete und schon gar nicht als Arzneimittel zugelassene Chlorbleiche sei, ich wiederhole es, eine Therapie von Krankheiten aller Art. Dabei spricht er auch selbst das Verbot von MMS in Europa und in den USA an, nicht etwa zum Schutz vor Vergiftungen und Verätzungen, sondern als Hilfe für die Medizinindustrie, wie er meint. Das sah das Landgericht Hildesheim im vergangenen Herbst anders, als es jemanden wegen des Verkaufs von MMS zu einer mehrjährigen Haftstrafe verurteilte.

Eine weitere Methode, die sehr wohl unter Umständen, bei Arteriosklerose nämlich, gefährlich werden kann, ist die Chelat-Therapie, von der er behauptet, diese habe sich seit Jahrzehnten bewährt im naturheilkundlichen Bereich „bei allen Arten chronischer und invalidisierender Erkrankungen“. Da sind wir eindeutig bei der Pseudomedizin. Es gibt eine einzige wirkliche medizinische Indikation für eine Chelat-Therapie mit EDTA und zwar eine schwere (!) nachgewiesene Vergiftung durch Schwermetalle.

Eine solche Behandlung ist aufwendig, langwierig und teuer. Das weiß auch Dr. med. Karl J. Probst, womit ich dann gleich auch zum Petroleum komme.

„Allerdings benötigt die Chelattherapie therapeutische Begleitung durch einen Arzt oder Heilpraktiker und ist zudem sehr teuer. Deshalb sollen nachstehend einige weitere höchst wirksame Therapien angegeben werden, die jedermann zu Hause allein durchführen kann ohne auf Therapeuten irgendwelcher Art angewiesen zu sein. Es ist sozusagen die Hohe Schule der Befreiung vom gesamten Medizinsystem. “

[…]

„Allerdings wirken die Erdölprodukte wie Petroleum oder Leichtbenzin noch schneller als Schwefel, vermutlich durch die direkte Zerstörung der Biofilme der Mikroorganismen, und können daher als Panazee, also als Universalheilmittel, bei Erkrankungen aller Art wirksam sein.“

Nun habe ich aber genug zitiert und möchte auf ein paar der von Probst propagierten Ideen etwas genauer eingehen. Dass er gleich von mehreren Therapien behauptet, sie seien zur Behandlung buchstäblich aller Krankheiten geeignet, ist für jemanden, der Medizin studiert haben soll, natürlich schon haarsträubend genug, aber ein paar Punkte aus seiner Gedankenwelt lohnen schon einen genaueren Blick. Dazu hangele ich mich der Einfachheit halber (mit Zeitmarken) an seinem Interview mit unserem alten, äh… Freund Jo Conrad entlang:

  • Die berühmte Übersäuerung: (5:00) „pH-Wert von 0 bis 7 ist sauer, das ist eben nicht gesund, da kann Krankheit überhaupt sich ansiedeln. pH-Werte von 7 bis 14 sind alkalisch, und das hat sich inzwischen selbst in der Schulmedizin herumgesprochen, dass der pH-Wert des Körpers von Bedeutung für die Gesundheit ist.“ Wer, wie offenbar Herr Probst, Zweifel daran hat, dass ein zu hoher pH-Wert für den Körper genauso schädlich ist wie ein zu niedriger, möge sich bitte vor Augen führen, was Abflussreiniger – pH-Wert 14 – aus den im Küchenabfluss steckengebliebenen Lebensmittelresten macht. Ansonsten regelt unser Stoffwechsel den pH-Wert praktisch überall im Körper mit hoher Genauigkeit selbst. Das ist auch notwendig, weil eben viele chemische Reaktionen nur im richtigen pH-Bereich in der notwendigen Form und Geschwindigkeit ablaufen. Das tut der Körper sehr effektiv. Nahrung zum Beispiel wird bei der Verdauung zunächst durch die Magensäure auf pH-Werte um 2 gebracht, dann neutralisiert und hat dann im Darm einen basischen pH-Wert von ungefähr 8. Kurzfristige Schwankungen sind zum Beispiel in Muskeln möglich, wenn bei starker Beanspruchung zu wenig Sauerstoff im Muskel ankommt und die Muskelfasern als kleine Energiereserve eine chemische Reaktion nutzen, bei der Milchsäure produziert wird. Das spürt man als brennenden Muskelschmerz bei Überlastung (nicht etwa später als Muskelkater – der hat offenbar mit der Milchsäure nichts zu tun). Dagegen hilft: Belastung reduzieren, Atmen. Sobald genügend Sauerstoff vorhanden ist, wird die Milchsäure langsam wieder abgebaut. Deutlich schlimmer ist es, wenn der Säuregehalt im Blut nicht mehr richtig geregelt werden kann. Eine solche metabolische Azidose tritt als Folge schwerer Erkrankungen (unbehandelter Diabetes, Nierenversagen, akute Vergiftungen, extremer Durchfall) auf und ist ohne sofortige Behandlung lebensbedrohlich.
    Die zur Zeit allgegenwärtige „Übersäuerung“ hingegen ist eine Modediagnose der Heilpraktikerszene. Pardon, „Diagnose“ sollte man in diesem Kontext unbedingt in Anführungszeichen setzen, denn mit einer einer Diagnose wie in der seriösen Medizin hat das nichts zu tun. „Die Symptome einer langsam entstandenen Übersäuerung sind vielfältig und nicht sehr spezifisch,“ ist dazu auf einschlägigen Seiten wie www.saeure-basen-ratgeber.de zu lesen. Vorsichtshalber wird dazu auch gleich angemerkt, dass eine tatsächliche Messung des pH-Werts im Blut durch den Arzt (aus den oben genannten Gründen) sehr wahrscheinlich keine Abweichung anzeigt. Stattdessen wird zum Führen eines Ernährungstagebuchs geraten, in dem Nahrungsmittel nach einer Tabelle in Säurebildner und Basenbildner eingeteilt werden – andere Seiten verwenden etwas offener gleich die bezeichnenden Begriffe Gut und Böse. Die entsprechenden Tabellen sind auch einigermaßen bizarr: Es fehlen nicht nur jegliche quantitativen Angaben (woher sollten die auch stammen?), auch die Zuordnung der Lebensmittel zur einen oder anderen Seite wirft Fragen auf. Was saurer Rhabarber oder Sauerampfer bei den „basischen“ Lebensmitteln zu suchen haben, kann man ja eventuell noch dadurch erklären, dass sie angeblich zu irgendwas Basischem verstoffwechselt werden, aber „Wilde Kräuter“??? Für die basenfastenden Heilpraktiker wirken offenbar alle Kräuter gleich. Kleiner Spoiler zu den Tabellen noch: Alles, was man für gewöhnlich gerne isst, ist natürlich böse. Schokolade ist nach der einen Tabelle selbstverständlich böse, nach der anderen zwar säurebildend, aber trotzdem gut – aber nur, wenn sie selbst hergestellt ist. Entstanden sein sollen die Tabellen durch die Messung des pH-Werts im Urin nach dem Verzehr der jeweiligen Lebensmittel. Da der Urin eben die Reststoffe abführt, die übrig bleiben, nachdem der Körper unter anderem seinen pH-Wert stabisiert hat, und da der Körper auch keinen Grund hat, den Säuregehalt dessen zu regeln, was er ohnehin ausscheidet, verwundert es nicht, dass der pH-Wert dort je nach Nahrung etwas schwanken kann. Um so unklarer ist aber, wozu es gut sein soll, ausgerechnet einen basischen Urin zu haben – leicht saurer Urin schützt nämlich vor Blasenentzündungen, weshalb man die, wenn sie häufiger auftreten, auch mit harnansäuernden Mitteln behandelt. Ein basischer Urin (allerdings auch ein extrem saurer) begünstigt auch die Bildung von Nierensteinen.
    Probst hat für das nicht existierende Problem der Übersäuerung auch gleich eine Rosskur parat und empfiehlt (5:54) schlicht die Einnahme von Natron. Natron wurde früher gegen Sodbrennen verwendet. Es ist (ausnahmsweise tatsächlich) basisch und neutralisiert die Magensäure. Dabei enststeht allerdings Kohlendioxid, was nicht nur zu Blähungen führen, sondern auch das Sodbrennen verstärken kann. Außerdem kann Natron die Magenschleimhaut schädigen, weshalb man heute lieber Mittel verwendet, die die Bildung neuer Magensäure reduzieren.
  • Elektronen und das Redoxpotential: (ab 5:22) „Wir brauchen viele Elektronen, freie Elektronen in einem System, alle Stoffwechselvorgänge brauchen Elektronen.“ Probst erklärt hier, wir bräuchten für unsere Stoffwechselvorgänge Stoffe mit einem negativen Redoxpotential, die also in chemischen Reaktionen Elektronen abgeben oder, anders ausgedrückt, oxidiert werden können. Da hat er Recht. Oxidiert werden können in unserem Stoffwechsel vor allem Kohlenhydrate, Fette und Eiweiße. Wenn man das pseudophysikalische Geschwafel weglässt, sagt Probst hier also folgendes: Damit unser Stoffwechsel funktioniert, brauchen wir Nahrung. Immerhin, das hat er verstanden.
    Dann (7:00) ist es mit der Nachvollziehbarkeit seiner Argumentation allerdings auch wieder vorbei. Um Elektronen aufzunehmen, empfiehlt er nämlich auch Barfußlaufen in feuchtem Gras oder am Strand. Die Erde sei nämlich ein großer Kugelkondensator, an desssen Oberfläche wir über die Fußsohlen Elektronen aufnehmen. Nein, Herr Probst: Der Erdboden ist, wie schon aus dem Begriff hervorgeht, geerdet. Die Luftionisatoren, die er gleich im Anschluss anpreist, sollen uns auch Elektronen zuführen, die den gleichen Zweck erfüllen sollen wie die, die wir mit der Nahrung zu uns nehmen. Nun mag es stimmen, dass negativ geladene Ionen, das man zum Beispiel einatmet, Elektronen abgeben. Das passiert allerdings nicht in Form einer Redox-Reaktion, sondern die Elektronen erzeugen schlicht eine statische Aufladung, und sobald man eine leitende Verbindung zum Erdboden hat, fließen sie dorthin ab. Der Sinn von Luftionisatoren ist einfach nur, Staubpartikel statisch aufzuladen, so dass sie sich schneller absetzen.
    Als nächstes (9:30) erklärt Probst dann, dass Zucker (natürlich) schädlich ist, und widerspricht damit genau seiner Argumentation von eben, denn Zucker kann der Körper sogar ganz hervorragend oxidieren.
  • Schwefel zur Darmsanierung (ab 10:27): Zu sogenannten Darmsanierungen kursiert im Moment mal wieder aller möglicher Unsinn. Probsts weitgehendes Alleinstellungsmerkmal dabei ist seine Schwefelkur. Zunächst mokiert sich Probst über Warnungen vor der Gefährlichkeit von Schwefel, und Interviewer Jo Conrad probiert dazu plakativ auch gleich eine Fingerspitze voll Schwefel direkt aus der Tüte.  (15:00) Dieser Schwefel tötet laut Probst gezielt genau die bösen Darmbakterien ab, die angeblich die Darmwand durchlöchern, so dass unverdaute Speisen ins Körperinnere gelangen können. Dieses sogenannte Leaky-Gut-Syndrom (löchriger Darm) ist eine derzeit häufig präsentierte Begründung für „Darmsanierungen“, wobei zu einer schlüssigen Diagnose ebenso wenig zu finden ist wie zu belastbaren Nachweisen, dass diese Krankheit überhaupt existiert. Mit dem angeblichen Leaky Gut sollen durch den Schwefel auch „alle anderen Beschwerden, bis hin zur multiplen Sklerose, auch Krebs“ sowie Rheuma und chronische Müdigkeit zurückgehen. Ein diagnostisches Mittel, um zu erkennen, wann man die Behandlung abgeschlossen hat, nennt Probst auch: „Solange es unanständig riecht, wissen Sie, da brauchen Sie gar keinen Doktor, keine Darmspiegelung, keine Stuhluntersuchung, nichts, da wissen Sie, o Weh, o Weh, da sind noch Bösewichter, die noch weg müssen.“ (13:50)
    Nun riechen aber bekanntermaßen menschliche Fäkalien und die in gleicher Richtung entweichenden Gase eigentlich immer unangenehm. Grund dafür sind vor allem die Schwefelatome, die in den Eiweißmolekülen unserer Nahrung vorkommen. Wenn das Eiweiß (vom Körper oder von Darmbakterien) als Energie verwertet wird, bleibt dieser Schwefel in Form einfacher Verbindungen wie Schwefelwasserstoff oder Schwefeldioxid übrig und entweicht dann mit den bekannten olfaktorischen Showeffekten. Wir haben in unserem Verdauungstrakt also ohnehin ständig einen Überschuss an nicht verwertetem Schwefel. Zusätzlich noch etwas elementaren Schwefel zuzuführen, kann daher die stinkenden Gase allenfalls noch etwas vermehren. Deswegen steht im Sicherheitsdatenblatt  von Schwefel auch nicht etwa, dass der Stoff giftig sei, sondern dass man nach Verschlucken lediglich den Mund ausspülen und nur im Fall von Unwohlsein einen Arzt anrufen solle. Immerhin ist beim Verschlucken größerer Mengen unter Umständen mit Blähungen zu rechnen, die in diesem Fall auch für sich in der Nähe aufhaltende Personen besonders unangenehm sein könnten. Womit Probst die angeblich wunderbare, selektive Wirkung seines Schwefels ausgerechnet auf die angeblich die Darmwand durchlöchernden Bakterien nachgewiesen haben will, bleibt hingegen im Dunkeln. Plausibel ist sie angesichts des ohnehin im Darm schon im Überfluss vorhandenen Schwefels jedenfalls nicht.
  • Petroleum, Benzin und Terpentin als Heilmittel: Ab 20:00 erklärt Probst zur Giftigkeit seiner Heilmittel: „Alles, was uns irgendwie madig gemacht wird […] immer das Gegenteil denken!“ Als Beispiele nennt er neben seinem Schwefel auch Petroleum und Terpentin und verweist auf einen eigenen Artikel, in dem er zur Einnahme von Schwefel, Petroleum und Leichtbenzin erklärt: „Jedermann kann sich im Internet über diese Therapien selber informieren und auf eigene Verantwortung einen Therapieversuch starten.“ Das empfiehlt er „als Universalheilmittel, bei Erkrankungen aller Art“ und erklärt: „Es ist sozusagen die Hohe Schule der Befreiung vom gesamten Medizinsystem.“
    Wie schädlich sind diese Stoffe, die uns da „madig gemacht“ werden, also tatsächlich? Über Benzinvergiftungen gibt es viele Quellen, aber sucht man im Internet nach Informationen über die Giftigkeit von Petroleum, findet man – erst einmal nicht viel, weder in der einen noch in der anderen Richtung. Das liegt vor allem daran, dass einerseits heute kaum mehr jemand in seinem Alltag mit Petroleum in Kontakt kommt, anderseits auch kaum ein geistig gesunder Mensch von sich aus auf die Idee kommen würde, die stinkende Brühe zu trinken. Im Sicherheitsdatenblatt findet sich immerhin die Information: „Kann bei Verschlucken und Eindringen in die Atemwege tödlich sein“ sowie der toxikologische Hinweis: „Einatmen konzentrierter Dämpfe sowie orale Aufnahme führen zu narkoseähnlichen Zuständen und zu Kopfschmerzen, Schwindel, etc.“ Das meint Probst wohl mit „madig machen“.
    Ausführlichere Hinweise findet man im Netz vor allem zu Lampenöl – aber das ist nicht dasselbe wie Petroleum, obwohl es in Wikipedia anders steht und man auch heute noch gelegentlich von Petroleumlampen spricht. Lampenöl ist (seit es nicht mehr parfümiert werden darf, um die Gefahr des Verschluckens durch Kinder zu reduzieren) in der Regel reines Paraffinöl. Paraffinmoleküle sind Ketten von Kohlenstoffatomen, die rundum vollständig von Wasserstoffatomen gesäumt sind. Paraffine sind bei entsprechender Erhitzung brennbar, aber ansonsten so reaktionsträge, dass sie, einmal glücklich im Magen angelangt, den Verdauungstrakt in kleineren Mengen weitgehend wirkungslos und unverändert durchlaufen. (Ihren liebsten „wie geschmiert“-Witz können Sie hier gerne selbst einsetzen.)
    Von Paraffinöl geht aber, wie auch von den drei oben genannten Substanzen, eine Gefahr aus, die mit unmittelbarer Giftigkeit eigentlich nichts zu tun hat: Bei solchen sehr dünnflüssigen Ölen (Speiseöle sind in der Regel viel dickflüssiger) kann der Kehldeckel nicht verhindern, dass beim Schlucken Teile der Flüssigkeit in die Luftröhre geraten. Da die Schutz- und Transportmechanismen der Atemwege auch nicht geeignet sind, solche Öle wieder auszuwerfen, können sie sich bis in die Lunge ausbreiten und dort eine unter Umständen tödliche Lipidpneumonie (auch das Hauptrisiko für Artisten beim Feuerspucken) auslösen. Bei Kindern, die von Lampenöl getrunken haben, soll eine Lipidpneumonie in 40 Prozent aller Fälle vorkommen. Bei Erwachsenen wird beim Schlucken von 25 Millilitern (also einem guten Schnapsglas) solcher Öle von der Gefahr schwerer Lungenschäden ausgegangen. So viel Petroleum, Terpentin oder Benzin werden hoffentlich auch Probsts Anhänger nicht auf einmal zu sich nehmen. Da diese Substanzen aber kaum verdunsten, können sie sich bei längerfristiger Einnahme auch in der Lunge anreichern.
    Petroleum, auch „gereinigtes“ Petroleum (Oleum Petrae album rectif.), besteht aber eben nicht nur aus Paraffinöl, sondern ist ein buntes Gemisch von so ziemlich allem, was im Erdöl vorkommt und bei Temperaturen zwischen 160 und 280 Grad verdampft. Es enthält also letztlich alles, was in der Raffinerie zwischen dem leichteren Benzin und dem schwereren Diesel oder Heizöl anfällt. Damit enthält Petroleum unter anderem auch alle Bestandteile des Kerosins Jet A-1, das als Standardtreibstoff für Verkehrsflugzeuge eingesetzt wird. Häufig werden die Begriffe Petroleum und Kerosin auch als gleichbedeutend verwendet, obwohl bei der Gewinnung von Kerosin für Flugzeuge eine niedrigere Obergrenze der Verdampfungstemperatur gewählt wird. In Kerosin ist also nur ein Teil dessen enthalten, was alles im Petroleum steckt. Ein großer Teil dieses Gemischs besteht tatsächlich aus Paraffinen und den ähnlich reaktionsträgen Cycloalkanen, es enthält aber auch ringförmige Strukturen von Kohlenstoffatomen mit weniger Wasserstoffatomen, sogenannte Aromate. Diese Aromate verursachen unter anderem den typischen Benzin- und Ölgeruch, sind zum großen Teil giftig und vor allem krebserregend. Das bekannteste Aromat im Petroleum ist Naphthalin, das inzwischen nicht einmal mehr in Mottenkugeln verwendet wird und aus Fußböden oder Dämmstoffen die Luft in vielen öffentlichen Gebäuden vor allem der ehemaligen DDR verpestet. Im Benzin, das Probst ja ebenfalls zum Selbstversuch empfiehlt, ist vor allem das giftige und krebserregende Benzol enthalten.
    Mit Terpentin meint Probst vermutlich Terpentinöl, denn das eigentliche Terpentin,  frisches Harz, aus dem dieses Öl destilliert wird, wird kaum jemand trinken wollen. Die genaue Zusammensetzung variiert je nach angezapfter Baumart. Als ätherisches Öl hat Terpentinöl mit den anderen genannten Substanzen wenig gemeinsam und wird in der seriösen Pflanzenheilkunde durchaus verwendet, allerdings äußerlich zum Einreiben.  Dennoch kann es Hautreizungen und beim Einatmen der Dämpfe Entzündungen der Atemwege auslösen. Früher wurde es auch als Farbverdünner und Pinselreiniger verwendet, später aber aus Kostengründen durch Universalverdünner aus Mineralöl, sogenannten Terpentinersatz, verdrängt – womit wir wieder beim Benzin wären.
    Karl, mei Trobbe!
  • Die bösen Biofilme: Die Begründung, die Probst dafür liefert, dass man Petroleum trinken solle, sind angeblich gefährliche Biofilme im Darm. Biofilme sind dünne, schleimige Schichten an Oberflächen von Flüssigkeiten oder Festkörpern, in denen gleiche oder unterschiedliche Mikroorganismen (Bakterien, Algen, Pilze, Einzeller) jeweils eine Lebensgemeinschaft bilden. Im Biofilm ist die Vermehrung und Fortbewegung der Mikroorganismen gebremst und das Nahrungsangebot begrenzt; dafür bietet die Schicht einen gewissen Schutz vor dem Immunsystem sowie vor chemischen Bedrohungen wie Antibiotika oder sogar Desinfektionsmitteln. Andererseits ernähren sich bestimmte Schnecken, Fische und Krebstiere dadurch, dass sie gezielt Biofilme abweiden. Biofilme sind aber nicht nur biologisch relevant, sondern können zum Beispiel auch Fragen für den Denkmalschutz aufwerfen. Sie kommen fast überall vor und sind alles andere als eine neue Herausforderung für den Menschen: Seit Beginn der Evolution der Tiere existieren Biofilme um uns herum, auf uns und in uns, und möglicherweise sind auch die Zellen höherer Lebewesen ursprünglich aus Biofilmen entstanden. Anders als gelegentlich behauptet wird, sind sie auch keine neue Entdeckung. Zahnbelag, Pilzinfektionen auf Schleimhäuten, Algenteppiche auf Gewässern und so weiter sind seit Jahrhunderten bekannt. Neu ist nur, dass man alle diese Phänomene seit den 1990er Jahren unter einem gemeinsamen Blickwinkel und eben dem Begriff Biofilm betrachtet. Dadurch bietet sich diese scheinbar neue Entdeckung natürlich dafür an, mit dem Begriff allerlei Schindluder zu treiben. Wie wenig Ahnung Probst von Biofilmen hat, beweisen Aussagen wie: „Der Biofilm hat eine Polarität, und zwar ist er negativ geladen.“ Das ist nicht nur physikalisch Unsinn – die Wahrheit wäre sehr einfach in entsprechenden Studien nachzulesen gewesen.
    Da im Darm nicht nur einige möglicherweise ungewollte, sondern auch die lebensnotwendigen Mikroorganismen in Biofilmen vorkommen, wäre es jedenfalls definitiv nicht wünschenswert, alle Biofilme im Darm aufzubrechen, wie es Probst dem Petroleum (ungerechtfertigterweise) zuschreibt. Es gibt sogar den Ansatz, durch spezielle Gelatine gezielt solche Biofilme im Darm zu fördern, die die Ansiedlung schädlicher Colibakterien hemmen sollen.
    Nebenbei empfiehlt Probst gegen Biofilme und „zur erfolgreichen Therapie von Krankheiten aller Art“ auch noch die berüchtigte Chlorbleiche MMS. Einer der zwei Hauptbestandteile von MMS, Chlordioxid, wird tatsächlich erfolgreich eingesetzt, um Biofilme von Legionellen zu bekämpfen – die findet man allerdings in der Form nicht im Menschen, schon gar nicht im Darm, sondern in Rohrleitungen.
    Grundsätzlich ist aber festzuhalten, dass alle therapeutisch versuchten Einflussnahmen auf die Darmflora Eingriffe in ein hoch komplexes, bis heute nur in Teilen verstandenes aber zum Glück weitgehend selbststabilisierendes System sind. Was dabei genau unter welchen Bedingungen wie wirkt, muss jeweils nach wissenschaftlichen Grundsätzen in randomisierten, prospektiven, placebokontrollierten Interventionsstudien nachgewiesen werden, bevor man damit auf Patienten losgeht. Für die Rosskuren, die Probst und Konsorten propagieren, fehlen solche Nachweise natürlich völlig.

Weiter hinten im Video behauptet Probst dann auch noch, Algenkapseln (die mit seinem Namen verkauft werden) könnten Gifte aus dem Bindegewebe lösen (um 30:00). Danach (um 40:00) stellt er noch einmal seine, äh, besonderen naturwissenschaftlichen Kenntnisse zur Schau, indem er erklärt, wenn Heilerde zu fein vermahlen würde, könnten dadurch die enthaltenen Aluminiumatome aus dem Kristallgitter herausgelöst werden. Ich erlaube mir, mich und den Leser mit Details wenigstens zu diesem Unsinn zu verschonen.

Wie gut, dass sich Herr Probst nach eigener Aussage nicht mit esoterischem Geschwafel beschäftigen will: „Mich interessiert nur die wissenschaftliche Primärliteratur!“ (10:20) Vielleicht sollte er erst mal mit Lehrbüchern anfangen. Ich könnte da was empfehlen:

Mal wieder ein Schwurblerkongress in einer öffentlichen Einrichtung

In den letzten Jahren musste ich mich ja schon mehrfach darüber aufregen, dass Kongresse mit Inhalten von Quantenheilung über Verschwörungstheorien bis Reichsbürgerpropaganda in von Steuergeldern gebauten Stadthallen und Konferenzzentren stattfinden durften.

Dieses Jahr ist es mal wieder soweit – mit dem dritten derartigen Kongress innerhalb von zwei Jahren in immer derselben städtischen Halle in Bergheim, weswegen ich dieses Mal einen offenen Brief an den Bürgermeister verfasst habe, für den ich auf die Schnelle 26 Mitunterzeichner gefunden habe – von Bürgern aus der Region bis zu Europas wohl renommiertestem Professor für Alternativmedizin.  Ein paar Hintergrundrecherchen gab es für die Kommune auch noch. Mal sehen, was daraus wird.

Offener Brief Bürgermeister Bergheim

Recherchen Akasha-Congress

Update 25.1.18: Inzwischen gibt es eine Reaktion der Stadt, in bester Tradition dessen, was man in Amerika als CYA (cover your ass) bezeichnet… nur leider ohne das eigentliche Problem zu erkennen.

Man könnte ja sagen, in so einer Situation könnte man auch die Stadt erst einmal vertraulich auf die problematische Veranstaltung aufmerksam machen, ehe man an die Öffentlichkeit geht. Leider zeigt unsere Erfahrung mit ähnlichen Veranstaltungen in Hessen, dass man da nicht einmal als örtlicher Bürger eine vernünftige Antwort erhält. Zudem ist die Stadt Bergheim ja sozusagen Wiederholungstäter, und Proteste gab es schon gegen den Quer-Denken-Kongress dort 2016.

Vordergründig handelt es sich beim Akasha-Congress um eine reine Altenaivmedizinveranstaltung ohne offensichtliche politisch extremistische Inhalte. Nicht, dass der medizinische Unsinn nicht schlimm und gefährlich genug wäre. Eine Frau Grünberg hält einen Vortrag mit dem Titel: „Brustkrebs mit Metastasen – na und?“.  Der Heilpraktiker Rainer Körner vermarktet sein „BioLogisches Heilwissen“, das er, wie er auf seiner eigenen Homepage schreibt, aus Ryke Geerd Hamers Germanischer Neuer Medizin entwickelt hat. Gleich drei Referenten kommen aus der MMS-Szene: Ätzende Bleichmittel als angebliche Medizin. Dazu ist vom GWUP-Blog bis zu Publikumsmedien und Behörden inzwischen so viel geschrieben worden, dass ich mir das an dieser Stelle denke ich sparen kann – auch wenn man beim Kopp-Verlag Bücher bestellen kann, die meinen, auch da ginge Probieren über Studieren. Klar, man kann auch probieren, ob es wirklich gefährlich ist, an eine Hochspannungsleitung zu fassen… aber halt nur einmal. Die Kongressreferentin Kerri Rivera praktiziert übrigens eine Form von MMS-Wahn, die ich immer für aufgebauschte Einzelfälle einiger Verwirrter gehalten habe: In ihrer Klinik in Mexiko traktiert sie autistische Kinder mit Chlorbleiche-Einläufen. Und nur für den Fall, dass jemand in diesem Kontext den Quantenquark vermisst: Mit von der Partie ist natürlich auch wieder Enrico Edinger, dessen bizarre Ansammlung akademischer Titel von lustigen Instituten aus Russland jedes Jahr anders auszusehen scheint – vermutlich aus juristischen Gründen. Ob Edinger in seinem Verfahren wegen Betrugs und Titelmissbrauchs vor zwei Jahren eigentlich verurteilt worden ist, kann ich auf die Schnelle nicht herausfinden. Wie schon beim letzten Akasha-Kongress 2016 (auch in Bergheim) und bei Reichsbürger-Aktivist Michael Vogts Quer-Denken-Kongressen 2014, 2015 und 2016 (letzterer auch in Bergheim) und geplant auch für den Gießener WIR-Kongress 2016 erzählt Edinger von der Überlegenheit russischer Weltraummedizin. Er wird also wahrscheinlich mal wieder seinen ENKI Disconder vermarkten, den man sich zum Preis von 1800 Euro um den Bauch binden kann, um die Quanteninformationen seines Unterbewusstseins umzuprogrammieren. Vielleicht stellt er ja auch seine ENKI-Bandanahaube zum Preis von 180 Euro vor, über die im Shop irgendwas mit Infrarotstrahlung fabuliert wird und die wohl tatsächlich funktioniert – als Mütze jedenfalls.

Auch wenn es oberflächlich so aussieht, als wäre das alles – der Akasha-Congress hat auch eine Anzahl höchst bedenklicher politischer Bezüge. Aufgefallen ist mir das zugegebenermaßen selbst als erstes, weil mich das Webdesign irgendwie an den verhinderten WIR-Kongress in Gießen erinnerte, bei dem ja auch Reichsbürger-König Peter Fitzek eine Audienz zugesagt hatte, die er aber ohnehin nicht hätte geben können, weil er da schon im Knast saß.

Akasha-Congress:

WIR-Kongress:

Ja, der Motivations-Betz, der zu meistgefragen Themen bei Sekteninfo NRW gehört, ist auch wieder dabei, aber ich kann mich irgendwie nicht dazu bringen, den interessant zu finden. Da gibt es Schlimmeres.

Die Kongresswebsite schreibt selbst, dass die Moderatorin Vesna Kerstan ihre Karriere bei Jan van Helsings Verschwörungskanal secret.tv begonnen hat – ja, der van Helsing, dessen bekanntestes Buch jahrelang als volksverhetzend beschlagnahmt war. Referent Enrico Edinger berichtet auf der Seite seiner eigenen Firma, dass er schon auf einer Veranstaltung des Honigmanns gesprochen hat, der wegen seiner unbelehrbaren Vorliebe für nationalsozialistische Symbole gerade zur Zeit eine Haftstrafe absitzt. Auf den Referenten Karl Probst berufen sich nicht nur die Vertreter der Germanischen Neuen Medizin. Psiram berichtet noch über ein paar Leichen aus seinem Keller, die ich nach so langer Zeit leider nicht mehr nachrecherchieren kann. Er soll schon 2004 gegenüber seinen Patienten Reichsbürgerideologie vertreten haben (als die noch kaum einer kannte), und weil er demnach auch seine Steuern nicht zahlen wollte, soll es in einem Ermittlungsverfahren des bayerischen Staatsschutzes auch eine Hausdurchsuchung bei ihm gegeben haben. Darüber soll er sich dann auch noch im Neuschwabenlandforum des unfreiwilligen Verschwörungstheorie-Internetstars Dr. Axel Stoll ausgelassen haben. Anfangs- und Schlussredner des letzten Akasha-Kongresses 2016, auch in Bergheim, waren Jo Conrad und Michael Vogt, die Initiatoren der Reichsbürgerkongresse Aufbruch Gold-Rot-Schwarz. Gerade über Vogt habe ich hier ja eigentlich schon genug geschrieben. Die Akasha-Congress-Website verlinkt auch noch ein Video von Initiator Ali Erhan im Interview mit Jo Conrad auf dessen Kanal bewusst.tv und ein Video von Stein-Zeit.tv. Andere Gäste auf Stein-Zeit.tv dürfen regelmäßig über „Die Souveränitätslüge“ fabulieren, unwidersprochen behaupten, die Bundesrepublik Deutschland sei eigentlich kein Staat oder für den „Freundeskreis Heimat und Recht“ werben.

Bei Reichsbürgern hört der Spaß nun wirklich auf.

Wobei, die Akasha-Congress-Website verlinkt ja auch diverse Sendungen des Onlineradios Okitalk, und wenn ich auf youtube sehe, wie Okitalk noch im Januar 2018 Werbung für die vom Insolvenzverwalter zerfledderten Reste von Peter Fitzeks Königreich Deutschland macht, während der im Knast sitzt, muss ich doch wieder lachen.

 

 

Missverquanten (1): Der Beobachtereffekt

„Die moderne Quantenphysik zeigt uns unabweisbar, dass bereits das
bloße Beobachten eines Vorganges, bereits dessen Verlauf verändert,“ schreibt die Hebamme Kiria Vandekamp. „Deshalb sollte eine Frau auch keine Personen während der Geburt um sich haben, die nicht daran glauben, dass sie natürlich und lustvoll gebären kann.“

Eine solche Behauptung ist nicht nur eine Zumutung für all jene Frauen, für die eine Geburt in erster Linie mit kaum erträglichen Schmerzen verbunden ist. Ein ungutes Gefühl im Bauch bekommt man schon, wenn man mit solchen Erklärungen konfrontiert ist und wenigstens ein vages Verständnis naturwissenschaftlicher Zusammenhänge hat. Irgendetwas kann da ja nicht stimmen – aber was? Einen Beobachtereffekt gibt es in der Quantenphysik doch tatsächlich.

Bislang habe ich mir hier im Blog kaum Platz gelassen, solche Begriffe wirklich zu erklären. Überwiegend sind die Artikel hier eher längere Zusammenstellungen von besonders haarsträubenden Beispielen dieser Art von Quantenunsinn, wobei ich üblicherweise nur in kurzen Anmerkungen darauf eingehe, was wirklich hinter den jeweils missverstandenen oder missbrauchten Begriffen steckt. Dafür verweise ich naheliegenderweise gerne auf das Quantenquark-Buch, in dem ich mehr Platz habe, derlei Zusammenhänge zu erläutern, oder ich verlinke ausführlichere Artikel reiner Physik-Blogger, zum Beispiel im großartigen Hier wohnen Drachen von Martin Bäker. Dort sind die Darstellungen oft detaillierter als hier, und Martin Bäker ist eben auch ein richtig solider theoretischer Physiker. Sie erfordern aber mitunter schon gewisse Vorkenntnisse, und auch bei den Drachen findet sich nicht unbedingt immer ein geeigneter, allgemeinverständlicher Artikel zu genau dem gesuchten Thema. Schließlich könnte es hier ja auch tatsächlich Blogleser geben, die sich unverschämterweise nicht mein Buch kaufen wollen… Kurz, wenn ich hier schnell irgendwo auf Erklärungen zu regelmäßig wiederkehrenden Stichworten wie „Beobachtereffekt“, „Verschränkung“, „Welle-Teilchen-Dualismus“ oder ähnlichem verweisen will, finde ich hier zwar Artikel, in denen diese Effekte vorkommen, aber kaum eine grundsätzliche, systematische Erklärung, und die, die sich außerhalb finden, sind nicht unbedingt immer so, wie ich sie schreiben würde.

Ich möchte also in nächster Zeit in loser Folge immer mal auf eins dieser Stichworte etwas genauer eingehen, allein schon, damit ich in Zukunft selbst einfach darauf verlinken kann. Vielleicht hilft es dem einen oder anderen ja auch in der nächsten Facebook-Kommentarschlacht. In diesen Artikeln kann ich dann mein Lästermaul nicht ganz so ausgiebig auf schlechte Beispiele loslassen, aber keine Sorge, das kommt auch wieder. Ich habe ja auch diesen Artikel erst mal mit einem besonders unappetitlichen Quarkstückchen angefangen, und es werden auch noch ein paar am Ende kommen.

Jetzt aber: Was ist nun eigentlich der Beobachtereffekt?

Zunächst einmal muss man sich klar machen, dass sich die Quantenmechanik eben nicht wie die klassische Physik mit den Objekten unseres Alltags beschäftigt. Die kann man zwar theoretisch auch quantenmechanisch modellieren, aber das wird beliebig kompliziert, und man käme am Ende zum exakt gleichen Ergebnis wie mit der viel einfacheren klassischen Beschreibung. Gebraucht wird die Quantenmechanik, wenn man es mit einzelnen Elementarteilchen oder relativ kleinen Systemen solcher Teilchen bis maximal ungefähr zur Größe etwa eines Moleküls zu tun hat. Am Rande bemerkt, so ein Molekül ist schon verdammt klein, auch wenn man einige Riesenmoleküle, zum Beispiel die Chromosomen unseres Erbguts, immerhin schon mit einem guten Lichtmikroskop sehen kann.

Will man eine Eigenschaft eines solchen Teilchens messen, selbst eine ganz grundlegende Eigenschaft wie seinen Ort, dann ist das nicht so einfach wie bei einem Alltagsobjekt, das man sehen kann. Bei dem wäre der Fall relativ einfach, wie hier bei einem Objekt skizziert, das uns relativ vertraut sein dürfte:

Man sieht den Ball, also kann man ihn spielen. Ein kleinstes Teilchen, sagen wir zum Beispiel ein Elektron, kann man aber nicht sehen. Um seinen Ort bestimmen zu können, braucht man also ein Messgerät. Auch dieses Messgerät muss aber irgendwie an die Information kommen, wo sich das Elektron befindet. Um diese Information vom Quantenphysik-kleinen Elektron zum alltagsgroßen Messgerät zu bringen, braucht man aber eine Wechselwirkung. In einer ganz traditionellen Formulierung der klassischen Physik, die jeder in Schule mal kennengelernt haben sollte, würde man sagen, es muss eine Kraft wirken. Und woran man sich auch aus der Schule erinnern sollte: Wo eine Kraft wirkt, gibt es auch eine Gegenkraft. Das gleiche gilt für quantenmechanische Wechselwirkungen: In einer Wechselwirkung beeinflussen sich Teilchen gegenseitig.

Wenn das Elektron aber nicht gerade direkt in den Detektor fliegt, kommt noch ein weiterer Faktor hinzu. Die Information muss dann ja noch vom Elektron zum Detektor über eine gewisse Strecke transportiert werden. Das erreicht man normalerweise, indem man ein weiteres Teilchen vom zu messenden Elektron abprallen lässt („streut“, wie man in der Physik sagt). Dafür eignet sich in diesem Fall zum Beispiel ein Lichtteilchen, ein Photon. Das Photon macht eine Wechselwirkung mit dem Elektron, fliegt von dort aus zum Messgerät und macht dort eine Wechselwirkung mit dem Detektormaterial, die das Messgerät registrieren kann. Aus der Richtung des ankommenden Photons kann das Messgerät dann erkennen, in welcher Richtung sich das Elektron befinden.

Das ist soweit fast richtig, aber nur fast, denn die Information, die das Photon zum Messgerät trägt, ist nicht, wo sich das Elektron jetzt befindet, sondern, wo sich das Elektron befand, bevor es die Wechselwirkung mit dem Photon hatte. Durch die Wechselwirkung mit dem Photon hat das Elektron aber einen Impuls übertragen bekommen. Es ist also nicht mehr da, wo es eben war, und bewegt sich auch nicht mehr in gleicher Weise.

 

Fliegt das Elektron selbst direkt ins Messgerät, dann braucht man das Photon nicht zur Informationsübertragung. Dafür gibt es aber eine Wechselwirkung des Elektrons selbst mit dem Detektormaterial, die ebenfalls dazu führt, dass die Bewegung des Elektrons verändert wird. In den meisten Fällen wird das Elektron von den Atomen des Detektormaterials schlicht verschluckt. So oder so können wir keine Messung des Elektrons durchführen, ohne es dabei zu verändern.

Das und nichts weiter ist der quantenmechanische Beobachtereffekt. Man kann kein Teilchen und letztlich überhaupt keinen quantenmechanischen Zustand messen, ohne diesen Zustand dabei zu verändern, einfach weil man dafür eine Wechselwirkung mit dem Messgerät, also einem Teil der Außenwelt braucht. Klingt nicht sonderlich geheimnisvoll, oder? In Verbindung mit anderen Aspekten der Quantenmechanik, insbesondere dem Welle-Teilchen-Dualismus, kann eine solche Wechselwirkung mit der Außenwelt allerdings interessante Folgen haben. Der Welle-Teilchen-Dualismus wird uns aber noch in einer späteren Folge dieser kleinen Reihe beschäftigen.

Damit stellt sich jetzt aber die Frage: Wenn der Beobachtereffekt bei kleinsten Teilchen auftritt, aber alle großen Objekte aus solchen Teilchen bestehen, warum tritt der Beobachtereffekt dann zum Beispiel nicht beim Fußball auf? Warum müsen wir den Fußball nicht verändern, wenn wir seinen Ort messen wollen? Nun, genau betrachtet verändern wir ihn tatsächlich – wir merken es nur nicht, und es ist uns auch egal. Wie wir ein Photon am Elektron streuen müssen, um seinen Ort zu bestimmen, können wir auch den Ort des Fußballs nur dann berührungsfrei erkennen, wenn Licht auf ihn fällt. Wie das Photon auf das Elektron, übertragen auch die unzähligen Photonen des Lichts einen Impuls auf die Elektronen in den Atomhüllen des Fußballs. Im Verhältnis zur Größe des Fußballs und zu den vielen Reibungswiderständen verändert dieser Impulsübertrag den Fußball aber nicht erkennbar – allerhöchstens wird er von der Sonneneinstrahlung etwas erwärmt. Dieser minimale „Beobachtereffekt“ spielt bei der Größe des Balls schlicht keine Rolle.

An diesem extremen Beispiel wird aber auch deutlich, dass der Beobachtereffekt nichts, absolut gar nichts, mit dem eigentlichen Akt des Beobachtens, der Person oder gar dem Bewusstsein des Beobachters zu tun hat. Er entsteht einfach nur dadurch, dass man eine Wechselwirkung mit der Außenwelt braucht, um überhaupt etwas beobachten zu können.

Warum spricht man dann aber überhaupt vom Beobachtereffekt und nicht zum Beispiel vom Wechselwirkungs- oder vom Außenwelteffekt? Der Grund ist wie bei vielen missverständlichen Formulierungen der Quantenphysik schlichtweg historisch. Der Begriff des Beobachtereffekts stammt aus der Zeit vor rund 90 Jahren, als Theoretiker wie Bohr, Schrödinger und Heisenberg die Grundzüge der heutigen Quantenmechanik erstmals formuliert haben. Viele Aspekte der Quantenmechanik, die für heutige Physiker alltäglich und einigermaßen banal erscheinen, zeichneten sich damals erst vage ab, und man musste sich daraus irgendwie einen Sinn zusammenreimen. Gerade die Überlegungen von Werner Heisenberg waren dabei zwar oft bahnbrechend kreativ, seine Formulierungen zeichneten sich aber nicht unbedingt immer durch sachliche Nüchternheit aus. Zu allem Überfluss konnte man sich damals eine Messung kaum ohne einen menschlichen Beobachter vorstellen. Es lag also durchaus nahe, zunächst einmal von einem Beobachtereffekt zu sprechen und zumindest als Gedankenspiel in Erwägung zu ziehen, dass er auch mit dem Beobachter zu tun haben könnte. In diesem historischen Kontext entstand auch die schon damals durchaus polemische und bewusst absurd formulierte Frage von Albert Einstein: „Existiert der Mond auch dann, wenn keiner hinsieht?“ Aus heutiger Sicht können solche Diskussionen nur entstehen, wenn man versucht, quantenmechanische Effekte mit den denkbar ungeeigneten Begriffen unseres Alltags zu beschreiben. Die Vorstellung, was Quantenmechanik eigentlich ist und was sie bedeteutet, war in den 1920er Jahren jedoch erst am Entstehen.

Bei den meisten Messungen, die heute in der Physik stattfinden, gibt es aber überhaupt keinen menschlichen Beobachter. In den Experimenten des Large Hadron Collider (LHC) am CERN in Genf passieren im normalen Betrieb 31,6 Millionen mal pro Sekunde jeweils rund 20 Teilchenkollisionen gleichzeitig. In jeder dieser Kollisionen entstehen mehrere, oft Dutzende, messbare Teilchen. Deren Effekte werden in Messungen auf Tausenden von Kanälen gleichzeitig registriert. Diese Unzahl von Messungen kann buchstäblich kein Mensch auswerten. Tatsächlich könnten auch die leistungsstärksten Computer nicht alle diese Messungen auswerten, und es ist nicht einmal möglich, die Messergebnisse in dieser Geschwindigkeit aufzuzeichnen. Stattdessen sortieren schnelle, fest eingebaute elektronische Schaltungen in mehreren, zunehmend komplexen Stufen aus, welche Kollisionen möglicherweise interessante Ergebnisse enthalten und somit an die nächste Stufe weitergegeben werden können. Der Rest geht unmittelbar nach der Messung wieder verloren. Nur ein winziger Bruchteil der gemessenen Kollisionen wird schließlich auf Datenträgern gespeichert um dann eventuell irgendwann später von einem Computerprogramm ausgewertet zu werden, dessen über Hunderttausende von Kollisionen aufsummierte Ergebnisse sich dann irgendwann ein menschliches Wesen ansieht. Dennoch tritt natürlich bei jedem in einer solchen Kollision produzierten Teilchen, das mit dem Detektor oder irgendeinem anderen Teil der Außenwelt wechselwirkt, ein Beobachtereffekt auf – selbst wenn die Information darüber nie einen Beobachter erreichen wird.

Kurz gefasst ist der quantenmechanische Beobachtereffekt also ein ziemlich banaler Effekt mit einem ziemlich unglücklichen Namen. Wie unglücklich der Name ist, zeigt sich, wenn man sieht, was in der Esoterik- und Alternativmedizinszene so in ihn hineinphantasiert wird.

Mein Lieblingsbeispiel zum Beobachtereffekt bleibt der Ingenieur und Quantentherapie-Höker Walter Thurner, über den ich hier schon einen ganz eigenen Artikel verfasst habe. Aus dem Beobachtereffekt zur folgenden Aussage zu kommen, erfordert schon wirklich bemerkenswerte… nennen wir es gedankliche Flexibilität: „Die Quanten sind sehr extreme Wesenheiten, wenn die wissen, bei einem Versuch, […] dass ich hinschau und bringen andere Ergebnisse als wenn ich wegschau. […] Das müssen Wesenheiten sein; die müssen ein Bewusstsein haben.“ Die besten Stellen kommen im folgenden Video ab Minute 3:45:

Nicht ganz so witzig, aber wesentlich gefährlicher wird es, wenn der der Beobachtereffekt missbraucht wird, um Menschen abstrusen Wunsch-Bullshit nach dem Vorbild von The Secret oder Bestellungen beim Universum zu verkaufen.

Hierzu wird typischerweise behauptet, der Beobachtereffekt (oder einfach „die Quantenphysik“) beweise, bei einem Ereignis mit mehreren denkbaren Ausgängen könne der Beobachter entscheiden, welcher der möglichen Endzustände eintritt. Tatsächlich besagt die Quantenmechanik aber das exakte Gegenteil davon: Wenn ein Quantenzustand mehrere denkbare Messergebnisse mit jeweils durch den Quantenzustand festgelegten Wahrscheinlichkeiten hat, dann ist das tatsächliche Messergebnis im Rahmen dieser Wahrscheinlichkeiten absolut zufällig und durch nichts mehr zu beeinflussen.

Das können wir uns wieder an unserem Beispiel mit dem Elektron, dem Photon und dem Messgerät verdeutlichen, und dazu müssen wir noch nicht mal in die richtige Quantenmechanik mit Wellenfunktionen, Wirkungsquerschnitten und anderen Komplikationen einsteigen. Das kommt in der nächsten Folge der kleinen Artikelserie (hoffentlich bald), mit dem Welle-Teilchen-Dualismus, der noch viel mehr Zufälle in unsere Messergebnisse bringt. Für den Moment genügt es uns, nach den Grundannahmen, die auch die Quantenmechanik macht, so zu tun, als wären alle betrachteten Teilchen einfach nur Teilchen – eine quasiklassische Betrachtung, wie man in der Physik sagt, etwa auf dem Niveau der entstehenden Quantenmechanik vor rund 100 Jahren. Wir nehmen dazu noch vereinfachend an, dass das Elektron am Anfang stillsteht, was einigermaßen unrealistisch ist, aber nichts Grundlegendes verändert. Nach den Behauptungen der Wunschdenker sollte der Beobachter (genau genommen sein Bewusstsein, ohne dass er dafür etwas physisch tun muss) bestimmen können, wohin das Elektron bei der Streuung des Photons „zurückprallt“. Das Problem dabei ist, obwohl das Photon und das Elektron mit einer endlichen Wahrscheinlichkeit wechselwirken (also „zusammenprallen“) sind beide Teilchen punktförmig. Ihre Ausdehnung ist null – das weiß man aus genau solchen Streuversuchen. Das bedeutet, dass ich, egal wie genau ich mit dem Photon zielen wollte, nicht wie bei einer Billardkugel eine bestimmte Stelle am Elektron treffen könnte, weil das Elektron ja nur aus einer Stelle besteht. Die Richtung, in der das Elektron zurückprallt, entspricht also der Richtung, in der ursprünglich das Photon geflogen ist, plus oder minus eines bestimmten Winkels (der natürlich mit dem Winkel zusammenhängt, in dem das Photon zurückgestreut wird), und weil beide Teilchen punktförmig sind und man also nicht auf einen Punkt innerhalb des Elektrons zielen kann, ist dieser Winkel (also auch der Winkel des Photons) im Rahmen einer Wahrscheinlichkeitsverteilung absolut zufällig. Wie gesagt, wenn man das Gleiche korrekterweise mit Wirkungsquerschnitten zwischen Wellenfunktionen rechnet, wird es nur noch zufälliger. Und es gibt vor allem nichts, absolut nichts, was man tun könnte, um diesen Zufall zu überlisten.

Eigentlich sollte sich der ganze Wunsch-Bullshit an dieser Stelle in Luft aufgelöst haben, aber leider wird er regelmäßig verbreitet, und zwar immer wieder unter Berufung auf den Beobachtereffekt. Bei Rolf Froböse ist das die zentrale Aussage eines ganzen Buchs. Ein richtig bizarres Beispiel von Angelika Schlinger, die auch die Gifte aus Chemtrails detoxed und Quantenphysik cool findet, aber nichts davon verstanden hat, hatte ich im Februar schon mal angeführt. Sandra Weber, die eine „Praxis für Gesundheit und Glück“ nebst entsprechender Heilerschule am Bodensee betreibt, behauptet aufgrund eben dieses falsch vestandenen Beobachtereffekts „Wir sind die Erschaffer unseres Lebens“. Nun bin ich wirklich der Letzte, der Menschen die Verantwortung für ihr eigenes Leben absprechen würde, und Dinge wie wirtschaftlicher Erfolg werden neben unseren ererbten Voraussetzungen und viel ganz gewöhnlichem Glück natürlich auch maßgeblich von unseren eigenen Entscheidungen und unserem Einsatz bestimmt. Ich könnte auch um neue Kunden werben und Geld verdienen, anstatt diesen Artikel zu schreiben. Der ist mir aber im Moment gerade wichtiger. Mancher hat sicher auch seine Leber kaputtgesoffen oder ist bewusst ein Lungenkrebsrisiko eingegangen. Am Ende ist aber Leben immer lebensgefährlich, und wer gesund stirbt, hat meistens nicht lange gelebt. Schwer kranken Menschen mit einer solchen Wunschdenkensideologie auch noch die Schuld an ihrem Schicksal zuzuschieben, ist daher in einer so erschreckenden Weise menschenverachtend, dass mir gerade schon wieder sehr bewusst wird, warum mir dieser Artikel wichtig ist. Frau Weber begründet mit ihrem falschen Beobachtereffekt jedenfalls ihre „mentalen Heilmethoden“, mit denen sie laut Homepage unter anderem Wirbelsäulenprobleme, Allergien, nicht näher bezeichnete „chronische Krankheiten“, Süchte und Depressionen behandelt. Immerhin keinen Krebs, möchte man erleichtert sagen, wenn man weiß, was Geistheiler sonst so auf der Pfanne haben, wobei natürlich auch Süchte und Depressionen bei falscher oder „mentaler“ (= im Zweifelsfall keiner) Behandlung vermeidbar tödlich enden können.

Wer starke Nerven hat oder für heute keine Pläne mehr hat und nicht zu Schlafstörungen neigt (ich meine das ernst, der Artikel ist krass),  kann sich hier eine Recherche von Correctiv zur „Behandlung“ einer Geistheilerin bei einer Krebskranken durchlesen. Zur Richtigkeit der darin genannten Sachverhalte kann ich nichts sagen – ich weiß nur, dass der Artikel seit über einer Woche online ist, und es scheint noch niemand erfolgreich dagegen vorgegangen zu sein. Die darin vorkommende Geistheilerin scheint sich nicht ausdrücklich auf Quantenquark zu berufen, aber immerhin war sie noch 2015 Vorsitzende des „Dachverbands geistiges Heilen“, dem zumindest mehrere Schüler von Sandra Weber angehören. Auf dem Kongress dieses Verbandes eben im Jahr 2015 ging es unter anderem um: „Hirnforschung, Quantenphysik, Arzt-Heiler-Kommunikation, Spontanheilung bei Krebs und zur Frage der Unsterblichkeit der Seele“

Eh isch misch uffreesch, wie man bei uns in Hessen sagt, abschließend noch kurz zur Frage, ob man derlei Verdummbeutelung der Physik nicht schon in der Schule vorbeugen könnte. Ich bilde mir ja ein, ich hätte den Beobachtereffekt – und warum das Leben auch als Quanten-Beobachter kein Wunschkonzert ist – hier in einem überschaubaren (ja, er ist wieder lang…) Artikel halbwegs verständlich erklärt. Das müsste ja eigentlich auch die Schule leisten können, wenigstens in der Oberstufe. Klar, Lehrer haben oft nicht sonderlich viel Quantenphysik gelernt und dann meist auch wenig davon gebraucht. Da würden sie sich sicherlich über eine Handreichung von kompetenten Fachdidaktikern freuen, wie man Quantenmechanik richtig und verständlich vermittelt… vielleicht von einer der angesehensten naturwissenschaftlichen Hochschulen des deutschsprachigen Raums… wie wäre es mit der Eidgenössischen Technischen Hochschule in Zürich, der berühmten ETH? Dummerweise findet sich gerade dort bei der Fachdidaktik Physik ein Leitprogramm zur Quantenphysik für die Klassen 11 bis 13 mit dem Titel „Es spukt also doch bei den Quanten„. Der Text liest sich in weiten Teilen so, als stamme er von der Seite irgendeines Pseudophysik-Schwurblers, mit einem zumindest missverständlich formulierten Beobachterbegriff: „Der Beobachter „erschafft“ sein eigenes Teilchen. […] Aber vom philosophischen Standpunkt her gesehen haben wir ein unerhörtes Problem. Niemand hat bisher eine brauchbare Lösung gefunden.“ Kein Wort dazu, dass das philosophische Problem nur existiert, wenn man versucht, Quantenobjekte in die unpassenden Kategorien unserer Alltagswelt zu pressen. Kein Wort, dass der angebliche Beobachter mit im Vergleich extrem wenigen Ausnahmen einfach die unbelebte Außenwelt ist – eine Bleiabschirmung, die Laborwand, ein Molekül der Umgebungsluft. Das entscheidende Stichwort, nach dem von dem ganzen philosophischen Problem nur noch Prinzipienreiterei bleibt, nämlich „Dekohärenz“, kommt in dem Text praktischerweise nicht vor. Dafür folgen drei Interpretationsansätze für das vermeintliche philosophische Problem. Nur die dritte davon ist eine der gängigen (wenngleich auch schon reichlich angestaubten und für die reale Welt ziemlich uninteressanten) „Deutungen“ der Quantenmechanik. Als Erstes genannt wird der völlig verstaubte Positivismus, und die zweite „Interpretation“ der Züricher Physikdidaktiker ist purer… Quantenquark.

Da könnt isch misch scho widder uffreesche… Aber zum Glück gibt es auch Andere, die Dekohärenz erklären. Richtig gut sogar. Zum Beispiel gerade erst vor ein paar Wochen Harald Lesch. Wenn der religiös oder ökoromantisch wird, kann ich mich über den zwar auch manchmal aufregen, aber Physik erklären kann er:

Hoffentlich hört sich das jetzt nicht jemand an und missversteht daraus, dass durch die Dekohärenz doch irgendwie alles mit allem zusammenhängt. Aber wenn ich darüber jetzt nachdenke, reesch isch misch doch widder uff.

 

Ist Quantenquark rechts?

Entgegen meiner sonstigen Gepflogenheiten möchte ich die Leitfrage dieses Artikels schon gleich zu Anfang beantworten: Nein, ist er nicht. Unsinn gibt es mit jeglicher politischer Couleur, und das gilt auch für Quantenunsinn. Gepachtet hat den niemand.

Damit könnte ich eigentlich auch schon den Leser beschwichtigen, der mich vor ein paar Tagen über das Kontaktformular angeschrieben hat und wissen wollte, „weshalb die meisten der Beiträge“, die ich kritisiere, „als rechte, braune oder in ähnlicher Form offenbar politisch motivierter Quark abgeurteilt werden“.  Der Leser kann in den kritisierten Inhalten „beim besten Willen weder rechte oder braune oder reichsbürgerliche Motivation erkennen“. Ich solle meine Beiträge doch darauf beschränken, „offensichtlichen Quark auf sachlicher meinetwegen wisschenschaftlich fundierter Ebene zu widerlegen.“

Das verwundert mich dann doch ein wenig, auch weil das Beispiel eines geifernden Rechten-Jägers so gar nicht in mein Selbstbild passt. Schließlich habe ich mich in den Zeiten, als ich noch parteipolitisch aktiver war, immer selbst als „Rechten“ gesehen. Wenn ich bei der Friedberger Antifa-Bildungsinitiative (die tatsächlich eine Bildungsinitiative mit vielen spannenden Vorträgen ist) dem „schwarzen Block“ zugerechnet werde, ist damit meine frühere Mitgliedschaft in der CDU gemeint. Im Rahmen meiner skeptischen Aktivitäten habe ich mich bei allzu politischen Themen wie der Klimawandelleugnung oder der Gefährlichkeit von Technologien wie Kernenergie und Gentechnik jahrelang eher zurückgehalten, obgleich ich dazu im privaten Rahmen einiges zu sagen habe. Allzu politische Sichtweisen tun der Wissenschaftlichkeit in der Regel einfach nicht gut, und buchstäblich alle relevanten Parteien haben pseudowissenschaftliche Leichen in ihrem programmatischen Keller.

Wenn hingegen politischer Extremismus mit Pseudowissenschaft vermischt oder gar gerechtfertigt wird, kommt man als Skeptiker nicht umhin, sich dazu zu äußern. Das gilt selbstverständlich auch dann, wenn die Kommunistische Partei Österreichs, das linke Regime in Venezuela oder der staatliche Rundfunk des Iran absurde Verschwörungstheorien verbreiten, ein amerikanischer Sender zur Atmosphärenforschung sei in Wirklichkeit eine Waffe, die künstliche Erdbeben auslöst.

Wer jedoch die Esoterikszene, insbesondere im Umfeld von Verschwörungstheorien, in den letzten Jahren aufmerksam verfolgt hat, dem kann nicht entgangen sein, dass die Vermischungen mit rechtem Extremismus deutlich zugenommen haben. Diese Zunahme ist auch weder eine rhetorisch begründete Unterstellung noch subjektives Bauchgefühl. Besonders in den Versuchen, in den letzten fünf Jahren, mit einem vorläufigen Höhepunkt 2014, eine „Querfront“ aus rechten und linken Extremisten zu bilden, spielten Esoterik und Verschwörungstheorien eine zentrale Rolle.

Als ich 2006 den ersten deutschsprachigen skeptischen Aktikel über die Chemtrails-Verschwörungstheorie geschrieben habe, gab es noch keinerlei Veranlassung, Rechtsextremismus darin mit einem Wort zu erwähnen, schienen doch die Vertreter dieses abstrusen Hirngespinstes der linken Umweltbewegung deutlich näher zu stehen als den damaligen Rechten. Der bekannteste Vertreter der Chemtrail-Thesen, Werner Altnickel, war Träger des deutschen Solarpreises und hatte sich gerade erst von Greenpeace getrennt. Heute fabuliert Altnickel auf seinem inzwischen gesperrten Youtube-Kanal („Militärische + Wirtschaftsnachrichten“) über die jüdische Weltherrschaft, die die Deutschen vernichten will und hat offensichtlich keine Probleme damit, zur rechten Szene gerechnet zu werden:

Als die Innsbrucker Frauenforscherin Prof. Claudia von Werlhof 2010 darüber fabulierte, das amerikanische Atmosphärenforschungszentrum HAARP diene in Wirklichkeit dazu, Erdbeben zu erzeugen und könne auch für die Verwüstungen in Haiti verantwortlich sein, erhielt sie Beifall hauptsächlich noch von der Kommunistischen Partei Österreichs. Inzwischen lässt sie sich beim Quer-Denken-Kongress (nicht zum ersten Mal) vom Reichsbürger Michael Vogt interviewen, der auch schon einen Film über den „Friedensflieger Rudolf Heß“ produziert hat. Auf dem gleichen Kongress traten auch der „Deutsche Mitte“-Protagonist Christoph Hörstel, der Haus-und-Hof-Autor des Kopp-Verlags, Gerhard Wisnewski, sowie Querfrontler Jürgen Elsässer auf.

Michael Vogt, der mehrfach als Initiator von Reichsbürger-Veranstaltungen aufgefallen ist und eine Honorarprofessur nach Kontakten zur NPD verloren hat, begrüßt in seinem Quer-Denken-TV und auf den zugehörigen Konferenzen eine Vielzahl von Größen der Esoterikszene, darunter einige, die vor 2014 kaum in einem politischen Umfeld in Erscheinung getreten sind, manche aber vielmehr durch Quantenquark. Hierzu gehört zum Beispiel der Hare-Krishna-Anhänger Marcus Schmieke. Schmiekes abstruse Vorstellungen von Quantenphysik sind eigentlich einen eigenen Artikel wert… naja, vielleicht sind sie es auch nicht wert. Sein Geld verdient er offenbar vor allem mit dem Timewaver, einem Gerät, das durch Veränderung eines angeblichen, pseudophysikalischen „Informationsfeldes“ Krankheiten heilen und Unternehmen beraten soll. Das Gerät soll allein von über 1500 Therapeuten genutzt werden – bei fünfstelligen Stückpreisen für die Therapeutenmodelle lässt das auf beachtliche Umsätze schließen. Inzwischen tritt der Mantra-lehrende Krishnajünger aber auf derselben Veranstaltung auf mit Holocaust-Bezweiflern, Verschwörungs-Schwurblern und Führern randständiger Parteien, die bei Veranstaltungen auch schon einmel Plakate der eigentlich konkurrierenden NPD als Transparente benutzen. Weiteren Quantenquark ins gleiche Umfeld bringt Dr. Michael König, der jahrelang eine Ausbildung zum „zertifizierten Quantenpraktiker“ anbot. Außer bei Vogt tritt König auch bei dessen Reichsbürger-Kollegen Jo Conrad auf.

Vogts Quer-Denken.tv und Conrads bewusst.tv sind jedoch bei weitem nicht die einzigen Online-Angebote in denen Quantenquark in bester Eintracht mit Antisemitismus, Verschwörungsdenken und Reichsbürger-Ideologie verbreitet wird. 78 Artikel zu „Quantenphysik“ und „Quantenmedizin“ finden sich auf Wissenschaft 3000 – unter anderem mit dem verurteilten Betrüger Hartmut Müller als Experten. Neben der Behauptung, die Erde sei eine Scheibe, findet sich an gleicher auch Werbung für den „Staat Ur“ des Reichsbürgers Adrian Ursache, der gerade wegen Mordversuchs vor Gericht steht. Auch das Königreich Deutschland des gerade wegen verschwundener Millionen im Gefängnis sitzenden Goldenes-Brett-vor-dem-Kopf-Preisträgers Peter Fitzek wird auf Wissenschaft 3000 hofiert. Da wundert es nicht, dass „Quantenphysik“ auch bei den Geistesgrößen im Königreich selbst ein Thema ist.

Dass die Verknüpfung von falscher Physik und problematischer politischer Agitation eine hundertjährige Tradition hat, zeigt sich in einem aktuellen Arktikel von meinem langjährigen Skeptikerkollegen Markus Pössel. Pössel, inzwischen Leiter des Hauses der Astronomie, beleuchtet darin die antisemitischen Motive hinter vielen Anfeindungen gegen Einsteins Theorien.

Weitere Beispiele von Verbindungen zwischen Quantenquark und der rechten Szene habe ich bereits im Januar hier aufgeführt. Das war allerdings bislang auch der einzige Artikel zu diesem Thema hier. Daher ist für mich schwer nachvollziehbar, wie der ominöse Leserbriefschreiber darauf kommt, in meinen „Diffamierungsartikeln“ würden „die meisten der Beiträge die Sie erwähnen als rechte, braune oder in ähnlicher Form offenbar politisch motivierter Quark abgeurteilt werden“.

Da ist es schon fast beruhigend, dass nicht alle derartige Fanpost mir politische Motive unterstellt- zum Teil halten die Schreiber mich auch für einen Fälscher, für bezahlt (schön wär’s) oder einfach für dumm:

Hallo Herr Dr. Hümmler,

wie kann man als ernstzunehmender Wissenschaftler nur so ein dummes Zeug schreiben.

Ich vermute, dass Ihr Doktortitel ein Plagiat ist, oder Sie gehören zu den Leuten, die dafür bezahlt werden dass sie die Nullpunktenergie als Humbug darstellen. Diese Energie wird früher oder später zum Einsatz kommen, daran arbeiten inzwischen viele Menschen.

Oder sind Sie vielleicht tatsächlich Dumm? denn: Was der Bauer nicht kennt….

Ausserdem finde ich es bezeichnend, dass auf Ihrer Homepage eine falsche Mailadresse steht.

Gruss

W.  Herbst

Ich muss zugeben, dass es dem Schreiber tatsächlich gelungen ist, mich genug zu verunsichern, dass ich eiligst auf allen meinen Webseiten meine Mailadressen nachgeprüft habe… es waren natürlich alle richtig.

Ich muss allerdings auch sagen, ich bekomme hier auch erfreuliche Zuschriften. Manchmal sogar sehr erfreuliche, zum Beispiel von Martin Piehslinger, der mich auf seine sehr wohlwollende Rezension zum Quantenquark-Buch auf seiner Homepage hingewiesen hat.

Werbeblock Start.

im Zusammenhang mit dem Buch gibt es ganz aktuell sogar tatsächlich eine Möglichkeit, wie Sie mich für diesen Blog bezahlen können, wenn Sie denn möchten: Bestellen Sie das Buch (oder ein anderes aus dem Springer-Nature-Verlag) anstatt über den Buch- oder Onlinehandel einfach über den Link rechts oben direkt beim Verlag, und ich bekomme eine kleine Provision.

Werbeblock Ende.

Artikel Ende. Und ich hoffe, ich muss zu diesem Thema nicht so bald wieder schreiben.