Was wir wissen, was nicht, und was das nicht bedeutet

Es ist immer wieder lustig, wenn einem als Physiker vorgeworfen wird, wir würden behaupten, alles zu wissen, während man eigentlich ständig erklärt, was wir alles nicht wissen. Wissenschaft wäre auch ziemlich öde, wenn man schon alles wüsste.

Klar, in gewisser Weise haben wir (also, die Physik als Ganzes natürlich, nicht ich) schon ziemlich viel Wissen – nur eben nicht unbedingt die Art von Wissen, die typischerweise die Hobbyphilosophenrunde kurz nach Mitternacht und drei Gläsern Wein gerne mit uns diskutieren möchte.

Was wir als Faktum der Natur wissen

Wir wissen zum Beispiel, dass bei Kollisionen mit hohen Energien, wie am Large Hadron Collider (LHC) des CERN, ein Teilchen mit einer Masse von gut 125 GeV entsteht – das entspricht etwa der Masse eines ganzen Cäsium- oder Bariumatoms. Für ein einzelnes Elementarteilchen ist das schon sehr massig. Dieses Teilchen zerfällt nach extrem kurzer Zeit auf eine von mehreren, in ihrer Art und Häufigkeit genau bestimmten Arten in andere Teilchen. Es ist elektrisch nicht geladen, und es hat keinen Spin. Stellen Sie sich den Spin bitte nicht als Drehung vor, lieber als eine Art Magnetismus; das erzeugt weniger falsche Bilder im Kopf. Aber ich schweife ab, und ich will ja eigentlich weniger abschweifen, also weiter. Diese Dinge wissen wir ganz sicher über das Teilchen, denn wir haben sie, erstmals 2012, gemessen (also, wieder nicht ich, sondern die „Kollegen“ am CERN, mit denen ich mich immer noch irgendwie verbunden fühle, obwohl ich da nur vor Ewigkeiten ein paar Monate für meine Diplomarbeit verbracht habe).

Da gibt es auch so gut wie keinen Spielraum, dass diese Messung irgendwann als nicht mehr richtig gelten könnte. Es könnte sich allenfalls noch herausstellen, dass unterschiedliche Teams von Wissenschaftlern an unterschiedlichen Instituten zu unterschiedlichen Zeiten alle denselben wahnsinnig blöden Fehler in der Datenauswertung gemacht haben – aber das ist nach sechseinhalb Jahren von Folgeexperimenten und -auswertungen wirklich extrem unwahrscheinlich, dass das noch nicht aufgeflogen wäre. Solche Fälle hat es gegeben, und weil Physiker Menschen sind, hören sie das in der Regel nicht gerne, aber das gab es nie bei so vielen Beteiligten zum Teil unabhängig voneinander. Insofern, ja, dass da ein Teilchen mit diesen Eigenschaften ist, wissen wir sicher.

Man könnte aber auch sagen, das ist es auch schon mit unserem Wissen über das Teilchen.

Was wir als wissenschaftliche Theorie wissen

Es gibt aber noch mehr, was wir auch zumindest ziemlich sicher über dieses Teilchen sagen können. In den 1960er Jahren haben nämlich Peter Higgs, François Englert und eine ganze Anzahl von heute meist übergangenen Kooperationspartnern sich einen Mechanismus überlegt, wie man in den sogenannten Eichtheorien dessen, was wir heute Standardmodell nennen, das Entstehen von Masse erklären kann. Masse kommt in solchen Theorien nämlich eigentlich nicht vor, das heißt, alles würde sich eigentlich mit Lichtgeschwindigkeit bewegen. Der Higgs-Mechanismus, auf den sie dabei gekommen sind, ist in einer kleinen Bilderserie vom CERN ganz nett dargestellt worden, die man samt Texten zum Beispiel hier ansehen kann. Und es gibt vom CERN auch eine kleine Animation dazu:

Man sollte sich natürlich immer im Klaren sein, dass solche Visualisierungen nur ganz grobe Vorstellungen der eigentlichen Theorie sind und man aus solchen Vereinfachungen vor allem keine weitergehenden Schlüsse ziehen darf. Sie sollen erst einmal eine Vorstellung geben – um daraus etwas abzuleiten, müsste man sich mit der eigentlichen Theorie im Detail beschäftigen.

Aus diesem Higgs-Mechanismus hat man schon vor Jahrzehnten abgeleitet, dass es ein Teilchen geben sollte, das genau die Zerfallsarten, die Ladung und den Spin haben müsste, wie das Teilchen, das man dann 2012 am CERN messen würde. In Verbindung mit den anderen Theorien des Standardmodells und Messungen an verschiedenen Beschleunigern konnte man dann auch die Masse dieses Higgs-Teilchens schon vor der Messung immer weiter eingrenzen: In den 1980er Jahren dachte man noch, es könne mehrere hundert GeV schwer sein. Gegen 1990 zeichnete sich ab, dass die Masse zwischen 100 und 200 GeV liegen sollte. Damit war auch klar, dass man keinen neuen Riesenbeschleuniger für mehr als 10 Milliarden Dollar in der Wüste von Texas würde bauen müssen, um das Teilchen zu suchen: Der damals in der Entwicklung befindliche LHC am CERN sollte dafür locker ausreichen. Als ich Mitte der 1990er Jahre am CERN war, war man schon ziemlich sicher: Wenn es das Higgs-Teilchen tatsächlich gäbe, müsste seine Masse zwischen 110 und 130 GeV liegen. Im Jahr 2000 meinte man kurzzeitig, vage Anzeichen für ein neues Teilchen bei 114 GeV entdeckt zu haben, was sich aber nicht bestätigt hat. Schließlich kam die große Erleichterung, als man das Teilchen 2012 bei 125 GeV genau im vorhergesagten Massenbereich gefunden hat. Die Ernüchterung kam dann später, als sich abzeichnete, dass man am LHC neben dem Vorhergesagten (bis jetzt) irgendwie gar nichts Unvorhergesagtes findet, das Ansatzpunkte für neue Theorien bieten könnte – aber das ist eine andere Geschichte.

Diese Vorhersage und die dazu passende Messung geben uns ein ziemlich sicheres Wissen, dass es sich bei dem 2012 gemessenen Teilchen wohl um das gesuchte Higgs-Teilchen handelt. Das ist aber eine andere Art von Wissen als die Messung selbst: Die Theorie des Higgs-Mechanismus kann (und wird wahrscheinlich) irgendwann überholt sein, aber das Teilchen nicht. Jede neue Theorie, die später den Higgs-Mechanismus und das Standardmodell ersetzen will, wird nicht nur das Entstehen von Masse erklären müssen, sondern muss auch eine Erklärung dafür liefern, was für ein Teilchen man da seit 2012 beobachtet.

Das Higgs ist aber nicht das einzige Phänomen, das auf Basis der Theorien des Standardmodells (Elektroschwache Theorie, Quantenchromodynamik, Allgemeine Relativitätstheorie und Higgs-Mechanismus) vorhergesagt und später gemessen wurde. Das gleiche gilt für die W- und Z-Teilchen der schwachen Wechselwirkung, für alle aus Quarks aufgebauten Teilchen, die charm– und bottom-Quarks enthalten, sowie für das top-Quark und das tau-Neutrino. Alle wurden aufgrund des Standardmodells vorhergesagt und erst später nachgewiesen. Hinzu kommen unterschiedliche Arten sogenannter Jets, also Teilchenbündel, aus Kollisionen von Protonen oder leichten Atomkernen, die als Produkte der Quarks und Gluonen vorhergesagt wurden, aus denen die Protonen aufgebaut sind. Noch kein Teilchennachweis im eigentlichen Sinne, aber eine sehr frühe spektakuläre Bestätigung einer Vorhersage des Standardmodells war der Nachweis sogenannter neutraler schwacher Ströme am CERN 1973.

Das Standardmodell ist also nicht deshalb, nun, eben das Standardmodell der Physik, weil es besonders schön oder besonders praktisch wäre – gerade das ist es nach Ansicht der meisten Physiker eben nicht. Schließlich besteht es aus mehreren einzelnen Theorien, die auf den ersten Blick wenig miteinander zu tun zu haben scheinen und unter denen sich zumindest die Relativitätstheorie auch strukturell deutlich von den anderen unterscheidet. Der Standard ist es, weil es eine Vielzahl experimenteller Ergebnisse vorhergesagt hat. Dabei hat es nicht nur Messwerte wie die Masse des Higgs-Teilchens ziemlich gut eingegrenzt, sondern sogar die Existenz ganzer Phänomene und Teilchen vorhergesagt. Was immer irgenwann an die Stelle des Standardmodells treten soll, muss also in vielerlei Hinsicht zunächst einmal die gleichen Ergebnisse liefern wie das Standardmodell – sonst passt es schlicht und einfach nicht zur messbaren Realität.

Wie man nicht zu Wissen gelangt

Die Anhänger „alternativer“ Physiker wie Nassim Haramein oder Burkhard Heim (Heim war immerhin tatsächlich Physiker) behaupten jetzt, ihre Idole hätten das Standardmodell widerlegt, indem sie einzelne Messwerte mit größerer Genauigkeit vorhergesagt hätten. Sowohl Haramein als auch Heim waren hier schon an anderer Stelle Thema. Ironischerweise haben diese beiden Geistesgrößen Messwerte „vorhergesagt“, die schon längst gemessen und ihnen bekannt waren. Das ist ungefähr so, als wollte ich meine Kenntnisse in meteorologischer Synoptik (also Wetterbeobachtung und -vorhersage, das habe ich in meinem Nebenfach tatsächlich mal gelernt) dadurch unter Beweis stellen, dass ich das Wetter von gestern vorhersage. Im Fall von Heim mussten einige der von ihm genau „vorhergesagten“ Messwerte (wie die Masse des Eta-Mesons) aufgrund späterer, genauerer Messungen korrigiert werden, so dass sich seine Nachhersagen auch noch als falsch herausgestellt haben. Da beide „Theorien“ außer diesen Pseudobelegen nicht viel Überprüfbares zu bieten haben, will ich hier auch gar nicht weiter darauf eingehen.

Wozu wir noch keine eindeutige Theorie haben

Natürlich gibt es aber auch in den Bereichen der Physik, mit denen sich das Standardmodell beschäftigt, Ergebnisse, die durch das Standardmodell nicht beschrieben werden. Ein Themenbereich ist die Masse von Neutrinos. Neutrinos sind eine Art elektrisch neutrales Gegenstück zu Elektronen sowie den schwereren elektronenähnlichen Teilchen, den Myonen und Tau-Leptonen, sowie zu deren Antiteilchen. Da Neutrinos elektrisch neutral sind, wirken elektromagnetische Felder nicht auf sie. Auch die sogenannte starke Kernkraft wirkt nicht auf Neutrinos. Nachgewiesen werden können sie also nur durch die schwache Kernkraft, die einen etwas irreführenden Namen hat, weil sie auf einzelne Teilchen nicht unbedingt schwach, sondern eher selten wirkt. In den allermeisten Fällen kann ein Neutrino durch die Erde hindurchfliegen, ohne dabei irgendeine Wechselwirkung mit der durchflogenen Materie auszulösen. Selbst die dichteste auf der Erde bekannte Materie, das Innere von Atomkernen, ist für Neutrinos durchlässig. Wenn sie aber (sehr, sehr selten) doch einmal mit einem Teilchen wechselwirken, an dem sie vorbeikommen, dann können sie in der Reaktion durchaus einen großen Teil ihrer Energie übertragen und in ein Elektron (oder Myon oder Tau oder deren Antiteilchen) umgewandelt werden. Die Frage ist, wenn andere Kräfte außer der schwachen Kernkraft nicht auf Neutrinos wirken, wirkt denn die Schwerkraft auf sie, haben sie also eine (von null verschiedene) Masse? Es gibt indirekte experimentelle Belege, dass die Neutrinomasse nicht null sein kann. Direkt gemessen hat die Masse aber noch niemand, wobei der momentan aussichtsreichste Versuch das nach vielen Verzögerungen 2018 endlich in Betrieb genommene KATRIN-Experiment in Karlsruhe sein dürfte. Nach dem Standardmodell müssen Neutrinos keine Masse haben – man kann aber eine von null verschiedene Neutrinomasse relativ problemlos ins Standardmodell einsetzen.

Eine Zeit lang, bis deutlich wurde, wie klein sie wirklich ist, galt eine von null verschiedene Neutrinomasse als mögliche Erklärung für einen physikalischen Effekt, der ebenfalls nicht durch das Standardmodell erklärt wird: die dunkle Materie. Letztlich braucht man nur relativ einfache Mechanik und die Annahme, dass Sterne, die gleich viel Strahlung bei denselben Wellenlängen aussenden, auch ungefähr gleich schwer sein müssen, um die Masse praktisch aller sichtbaren Objekte unserer Galaxie abzuleiten. Berechnet man jetzt die Bewegung dieser Objekte um das Zentrum der Galaxie, dann stellt man fest, dass die Galaxie viel mehr Masse enthalten muss, als alle sichbaren Objekte zusammen ausmachen. Das schließt nicht nur direkt sichtbare Objekte wie Sterne und Gasnebel ein, sondern auch Planeten und Staubwolken, die kein Licht emittieren, die man aber dadurch nachweisen kann, dass sie das Licht anderer Objekte verdecken. In der Summe ergibt sich, dass im Universum rund fünf mal so viel dunkle wie direkt oder indirekt sichtbare Materie vorhanden sein muss. Die Existenz dunkler Materie folgt also nicht aus irgendwelchen Theorien, sondern direkt aus Messungen und relativ einfachen Berechnungen. Massive, dunkle Himmelskörper, sogenannte MACHOs, die man nachweisen kann, wenn sie vor anderen Objekten vorbeiziehen, können nach aktuellen Messungen höchstens einen kleinen Teil dieser dunklen Materie ausmachen. Die plausibelste Vermutung erscheint zur Zeit, dass es sich um noch unbekannte, schwere Elementarteilchen, sogenannte WIMPs, handelt. Diese kommen im Standardmodell an sich nicht vor. Es gibt jedoch weitergehende Theorien wie die Supersymmetrie oder die Stringtheorie, die solche Teilchen vorhersagen und das Standardmodell mit einschließen. Zumindest für einfache Varianten der Supersymmetrie hätte man diese Teilchen aber inzwischen auch an Beschleunigern finden müssen, wenn diese Varianten denn zuträfen. In welcher Form das Standardmodell hier erweitert oder ersetzt werden muss, ist also noch ziemlich offen. Man kann aber auch durchaus argumentieren, dass es für unser Verständnis des Univerums ziemlich egal ist, ob die dunkle Materie aus diesen oder jenen Teilchen besteht – man muss einfach nur als Ergänzung zum Standardmodell annehmen, dass diese Masse irgendwie da ist und sonst nichts tut.

Etwas mehr (aber nicht viel mehr) theoretische Annahmen stecken hinter der dunklen Energie: Das Universum dehnt sich aus; das wissen wir, weil sich ziemlich direkt messbar fast alle anderen Galaxien von uns entfernen. Da die Schwerkraft immer als Anziehung wirkt, müsste sie diese Expansion allerdings im Lauf der Zeit immer mehr abbremsen. Das habe ich in den 1990er Jahren noch im Studium gelernt. Inzwischen kann man aber (wieder ziemlich direkt, durch die Beobachtung von sehr weit entfernten Supernovae, von denen das Licht Milliarden Jahre bis zu uns braucht) messen, dass sich die Expansion anscheinend sogar beschleunigt. Den Antrieb dieser beschleunigten Expansion bezeichnet man als dunkle Energie. Um das Universum so aufzublähen, braucht es ungeheuer viel Energie: Würde sich alle Materie im heutigen Universum einschließlich der dunklen Materie in Energie umwandeln, dann entspräche das nur rund einem Drittel der dunklen Energie, die nach heutiger Berechnung die Expansion des Universums antreibt. In der allgemeinen Relativitätstheorie und damit im Standardmodell kann man eine solche dunkle Energie als sogenannte kosmologische Konstante problemlos einsetzen. Das hat sogar Einstein schon getan, als er noch dachte, das Universum dehne sich nicht aus, sondern sei stationär. Das erfordert nämlich auch eine Energie, die der Schwerkraft entgegenwirkt, damit das Universum nicht unter seinem eigenen Gewicht zusammenstürzt. Das Standardmodell kann diese Energie berücksichtigen, erklärt aber nicht, woher sie kommt.

Welche Ansätze es zu diesen offenen Fragen gibt

Alle drei genannten Effekte widerlegen das Standardmodell nicht. Sie zeigen lediglich, dass es in der Teilchenphysik und der Kosmologie Fragen gibt, die das Standardmodell allein nicht beantwortet und die als Ergänzung zum Standardmodell angenommen werden müssen. Eine Theorie, die das Standardmodell irgendwann ablösen soll, sollte möglichst einen Teil dieser Fragen, im Idealfall alle, beantworten. An solchen Theorien wird schon gearbeitet, seit es das Standardmodell gibt. Es gibt eine ganze Anzahl von Ansätzen. Manche sind ambitionierter und versuchen, alle Kräfte in einer Theorie zusammenzufassen; andere klammern die Schwerkraft noch aus und überlassen deren Beschreibung noch der allgemeinen Relativitätstheorie. Manche dieser Theorien, wie die Stringtheorie oder die Quantengravitation, sind auch nach 40 Jahren noch nicht so weit, Aussagen zu machen, die sich mit heutiger Technik vernünftig experimentell prüfen ließen. Damit lässt sich erst recht nicht zwischen den denkbaren Varianten dieser Theorien unterscheiden. Andere, wie die zu meinen Schulzeiten noch mit großen Hoffnungen behaftete Grand Unified Theory (GUT), sind zumindest in ihren einfachen Varianten heute schon experimentell widerlegt. Alle solchen Theorien, aus denen spektakuläre neue Messergebnisse für bisherige Experimente abgeleitet wurden, sind daran jedenfalls gescheitert – was nicht notwendigerweise alle Varianten der jeweiligen Theorie ausschließt, aber in der Regel die favorisierte, weil einfachste. Das gilt zum Beispiel für die zu meinen Studienzeiten meist beachtete Theorie, die Supersymmetrie, deren einfachste Form neue Teilchen vorhersagt, die man im LHC am CERN schon hätte finden müssen. Es bleiben also viele Fragen offen, aber mangels entsprechender zu prüfender Vorhersagen gibt es aktuell wenige Ansätze, durch Experimente auf der Erde Antworten zu finden. Daher ist es auch umstritten, ob man neue, noch größere Beschleuniger bauen sollte. Die spannendsten neuen Erkenntnisse stammten in den letzten Jahren sicherlich aus den immer besseren Beobachtungen der Astronomie, vor allem durch Teleskope auf Satelliten.

Warum die experimentellen Erkenntnisse nicht von der Theorie abhängen

Eins ist bei diesen neuen Theorien jedoch zweifelsfrei klar: Sie müssen zu praktisch allen schon gemachten Experimenten der Teilchen- und Astrophysik zu den gleichen Ergebnissen kommen wie das Standardmodell mit den genannten Ergänzungen wie der Neutrinomasse, denn die Ergebnisse dieser Experimente würden sich ja durch eine neue Theorie nicht ändern. Anders von „alternativen Physikern“ oder postmodernen Philosophen und Wissenschaftstheoretikern gelegentlich behauptet wird, müsste man diese Experimente auch nicht völlig anders aufbauen, wenn man andere Theorien hätte, und es würde schon gar nichts anderes herauskommen. Hinter solchen Vorstellungen stecken typischerweise Fehlinterpretationen von Thomas S. Kuhns Untersuchungen zu Erkenntnisprozessen in der Wissenschaft und einmal wieder ein falsches Verständnis des Beobachtereffekts. Wenn in einem Beschleunigerzentrum wie dem CERN Kollisionen hochenergetischer Teilchen und damit letztlich Freisetzungen reiner Energie untersucht werden, sind die Experimente ohnehin so aufgebaut, dass praktisch alles gleichzeitig gemessen wird, was man dabei technologisch überhaupt messen kann. Es gibt auch keine andere Möglichkeit, unter kontrollierten Bedingungen zu messen, was passiert, wenn an einem Punkt große Energien frei werden. Die Teilchenphysik kann Experimente gar nicht darauf ausrichten, nur den einen Parameter gezielt zu messen, der zur Überprüfung einer einzelnen Theorie nötig ist – dafür sind die Entwicklungszeiträume viel zu lang. Als der LHC in den 1980er Jahren geplant wurde, ging man noch von einem viel schwereren Higgs-Teilchen aus, und die Supersymmetrie, nach deren Teilchen bislang erfolglos gesucht wird, galt noch als wesentlich unwahrscheinlicher als die inzwischen längst ausgeschlossenen einfachen GUTs. Hypothetissche Vorhersagen aus neuen Theorien ändern sich schneller, als man neue Beschleuniger und Detektoren planen und bauen kann. Der LHC am CERN wurde dementsprechend nicht nur gebaut, um das Higgs nachzuweisen, sondern um ganz allgemein zu erforschen, welche neuen Phänomene in einem gewissen Energiebereich auftauchen. Das macht die Experimente auch so groß und teuer. Wegen der großen Datenmenge pro Kollision kann man eine Vorauswahl der Kollisionsereignisse treffen, die man genauer untersucht, um zum Beispiel Eigenschaften des Higgs-Teilchens genauer zu bestimmen. Es wird jedoch immer auch eine große Zahl sogenannter Minimum-Bias-Ereignisse gespeichert, um auch nach noch ganz unbekannten und unerwarteten Phänomenen suchen zu können. Die Ergebnisse der Teilchenphysik sind also gerade nicht von der Theorie abhängig, sondern sie sind eine zwingende Grundlage für jede Theorie, die Aussagen über Teilchen machen will.

Was wir gar nicht wissen

Nun gibt es auch für eine sogenannte Theory of Everything wie die Stringtheorie, die alle Grundkräfte der Natur und alle Teilchen beschreiben soll, grundsätzliche physikalische Fragen zur Materie und dem Universum, die sie nicht beantwortet. Dazu gehört zum Beispiel die Frage nach Ereignissen „vor“ dem Urknall, sofern man außerhalb der Existenz unseres Universums überhaupt von zeitlichen Begriffen wie vor oder nach sprechen kann. Auch hierzu gibt es Ideen, die sich in der einen oder anderen Form in diese neuen Theorien oder auch das Standardmodell integrieren ließen. So könnte das ganze Universum als zufällige Fluktuation aus nichts entstanden sein, und es könnte sich auch zufällig wieder in nichts auflösen. Von einer experimentell prüfbaren Theorie kann man in Bezug auf solche Ideen aber zumindest aktuell noch nicht sprechen.

Vielleicht werden wir aber tatsächlich erst zu einer konsistenten neuen Theorie jenseits des Standardmodells kommen, wenn jemand zu ganz neuen Ideen für völlig anders strukturierte Theorien findet, die möglicherweise auch solche Fragen mit einschließen. Die heutigen Kandidaten als Nachfolger des Standardmodells sind ja in gewisser Weise recht konventionell: Sie versuchen, in Form von Eichtheorien die Ideen des Standardmodells so zu verallgemeinern, dass sich ein umfassenderes Bild ergibt. Vielleicht wird sich der richtige Weg als ein ganz anderer herausstellen. Auch für eine solche neue Theorie würden aber die gleichen Voraussetzungen gelten: Sie müsste erklären, warum für praktisch alles, was wir heute messen können, das herauskommt, was das Standardmodell vorhersagt, und sie müsste ihren eigenen Wert unter Beweis stellen, indem sie Dinge vorhersagt, die wir noch nicht anderweitig vorhergesagt und gemessen haben.

Schließlich gibt es auch Fragen, die sich gar nicht in einer physikalischen Theorie beantworten lassen. Hierzu gehören zum Beispiel Fragen nach einem eventuellen Sinn von Dingen oder ethische Fragestellungen, was man tun sollte oder nicht. Bei solchen Fragen kann naturwissenschaftliche Erkenntnis einen Hintergrund bieten und als Information dienlich sein – sie kann aber nicht die Antwort liefern. Dementsprechend problematisch ist es auch, aus der Physik heraus oder mit der Autorität des erfolgreichen Physikers Antworten auf solche Fragen geben zu wollen. Davor haben auch viele der großen Physiker des 20. Jahrhunderts (zum Beispiel Erwin Schrödinger, Max Born und Werner Heisenberg) ausdrücklich gewarnt – und so mancher konnte sich trotzdem genau das nicht verkneifen.

Was dieses Nichtwissen nicht heißt

Wenn wir die Antwort auf eine grundlegende naturwissenschaftliche Frage, sei es die Entstehung des Lebens oder die des Universums, nicht wissen, liegt offenbar für viele Menschen die Versuchung nahe, eine willkürliche Antwort zu behaupten. Die beliebteste dieser willkürlichen Antworten begegnet mir auch in Diskussionen nach meinen Vorträgen regelmäßig: „An der Stelle muss man dann wohl von Gott sprechen.“ Nein, muss man nicht, und sollte man auch nicht. Selbst Theologen wehren sich gegen eine solche Vorstellung, die Dietrich Bonhoeffer mit dem treffenden Begriff „Lückenbüßer-Gott“ bezeichnet hat. Für Wissenschaftler ist eine solche Vorstellung ein ernsthaftes Problem und im Extremfall sogar lebensgefährlich: Wenn naturwissenschaftliches Nichtwissen beliebig mit religiösen Behauptungen aufgefüllt wird, dann wird jede neue wissenschaftliche Erkenntnis zwangsläufig zur Häresie. Das gilt insbesondere dann, wenn es um Schöpfungsmythen oder um die grundlegenden Zusammenhänge der Welt geht. Die historischen Beispiele von Galileo und Darwin drängen sich auf, aber grundsätzlich ist nicht auszuschließen, dass sich auch die Vorstellung von Gott als Auslöser des Urknalls über die Jahrzehnte zu einem Dogma entwickeln könnte, dessen Widerlegung Empörungsstürme bis hin zu Morddrohungen auslösen würde.

Noch bizarrer wird es, wenn religiöse Gruppierungen pseudo-naturwissenschaftliche Elemente in ihr Weltbild aufnehmen und in der Folge versuchen, diese als „neue Physik“ an der Öffentlichkeit – zum Teil buchstäblich – zu verkaufen. In gewohnt unterhaltsamer Form tun sich hier immer wieder die transzendental meditierenden Maharishis hervor, deren Quantenquark fast noch unfreiwillig komischer ist als ihr yogisches Fliegen oder die Wahlwerbespots ihrer Naturgesetz-Partei. So ist bei Thomas J. Routt in einer Veröffentlichung der Maharishi University of Management nachzulesen, dass im digitalen Universum die kosmische Weltregierung alle Aspekte des Lebens mittels Quantencomputern steuert.

An der Maharishi European Research University (MERU) wollte der Chemiker Klaus Volkamer 1987 in vermeintlichen minimalen Gewichtsschwankungen verschweißter Glasampullen die Wirkung dunkler Materie nachgewiesen haben. Eine Erklärung, warum die dunkle Materie nur in bestimmte, aber nicht in andere Glasampullen kriechen sollte, blieb er schuldig. In den folgenden 30 Jahren tourte er mit „feinstofflichen“ Erweiterungen praktisch aller Naturwissenschaften durch die Esoterikszene. Neben den Maharishis taucht Quantenquark in letzter Zeit auch zunehmend im Umfeld der Hare-Krishna-Bewegung auf.

Pseudowissenschaft in neureligiösen Bewegungen beschränkt sich jedoch nicht auf Gruppen aus dem hinduistischen Umfeld und, offensichtlich, die Scientologen, wenn man diese denn wirklich als religiöse Gruppierung betrachten will. Einige Anhänger von Christian Science betrachten ihren Kult offensichtlich allen Ernstes als Medizin und sehen – das hingegen wenig überraschend – Zusammenhänge vor allem mit der Homöopathie. In einer Zeitschrift der dem Christentum nahestehenden Bewegung Universelles Leben erklärte der Arzt Manfred Doepp, hinter Antibiotika und Impfungen stecke „mangelndes Vertrauen zur Führung durch Gott“.

Das Prinzip, dass man nicht jeden Unsinn für wahr erklären darf, nur weil die Wissenschaft etwas nicht weiß, gilt natürlich nicht nur für die Religion. Das gleiche trifft auch auf Nassim Haramein zu, wenn er die Tatsache, dass zwei unterschiedliche Messmethoden unterschiedliche Ergebnisse für den Radius eines Protons ergeben, nutzt, um seine absurden Vorstellungen vom Proton als schwarzem Loch für valider als das Standardmodell zu erklären. Hohle-Erde-Gläubige argumentieren ähnlich, wenn sie wissenschaftliche Diskussionen unter Geophysikern über die Ursache einzelner Reflektionsherde von Erdbebenwellen im Boden, sogenannte bright spots, als Beleg für ihre kruden Thesen anführen. Kreationisten nutzen jede spannende Forschungsfrage innerhalb der Evolutionsbiologie, um zu erklären die Evolution sei umstritten.

Nein. Dass es irgendwo in der Wissenschaft offene Fragen gibt, über die diskutiert und an denen geforscht wird, heißt nicht, dass sämtliche Ergebnisse dieses Forschungsgebiets falsch sind. Es heißt auch nicht, dass man als Antwort auf diese Frage einfach irgendeine beliebige Behauptung als erwiesen hinstellen darf, auch nicht eine, an die schon vor 2000 Jahren irgendwer in Vorder- oder Südasien geglaubt hat. So leid es mir tut, es heißt auch nicht, dass stattdessen zwangsläufig Ihre ganz persönliche Privattheorie stimmt, nach der sämtliche Elementarteilchen winzige, in unterschiedlichen Pinktönen eingefärbte und telepathisch kommunizierende Einhörner sind. Es heißt noch nicht einmal, dass das Universum dadurch entstanden ist, dass es vom großen grünen Arkelanfall ausgeniest wurde.

Dass es in der Wissenschaft offene Fragen gibt, heißt einfach nur, dass die Wissenschaft noch lebendig ist, dass es noch etwas zu forschen und zu entdecken gibt – und genau das macht die Wissenschaft so viel interessanter als alle Dogmen und Heilslehren.

Zwei Star-Trek-Kapitäne auf Abwegen und ein Physiker hinter dem Mond

Beim ersten Fall gab es noch ziemlich viel Aufregung, als vor zweieinhalb Jahren Kate Mulgrew ihre Stimme als Erzählerin für den Film The Principle hergab. (The Principle, nicht The Principal, falls sich jemand aus meiner Generation noch erinnert…) Das war etwas ungewöhnlich, denn heutzutage ist Kate Mulgrew wohl eine eher mäßig bekannte Schauspielerin, auch wenn sie in der Serie Orange Is the New Black mal wieder eine etwas prominentere Rolle bekommen hat. Gerade unter uns Nerds unvergessen ist aber ihre Rolle als Captain Kathryn Janeway in der Serie Star Trek: Voyager.

Von der Kommandantin eines Raumschiffs erwartet man natürlich ein gewisses Verständnis für Naturwissenschaft und vor allem für Dinge, die das Weltall angehen. Da war es schon eine eher unschöne Überraschung, ihre Stimme in einem „Dokumentarfilm“ zu hören, der die Behauptung verbreitete, die Erde sei der Mittelpunkt des Universums. Erfreulicherweise hatte sich Kate Mulgrew schon vor dem Erscheinen des Films sehr deutlich davon distanziert und klargestellt, dass sie einfach als Sprecherin angeheuert worden war, ohne überhaupt zu wissen, worum es in dem Film gehen sollte.

Die Kernthese des Films, der sogenannte Geozentrismus, ist, wie Astronomieblogger Phil Plait es ganz gut auf den Punkt gebracht hat, noch abwegiger als der Kreationismus, wenngleich vielleicht nicht ganz so bekloppt wie die Idee, die Erde sei eine Scheibe. Auch die flache Erde erfreut sich ja gerade wachsender Beliebheit, wie man bei Google Trends eindeutig nachweisen kann:

An eine flache Erde glaubt also nicht nur Xavier Naidoo, sondern auch andere Geistesgrößen mit Hang zu Reichsbürgern und Verschwörungstheorien, zum Beispiel neulich der legendäre Domian-Anrufer.

Dazu passt auch der Macher von The Principle ganz gut, denn Robert Sungenis gilt laut Jewish Chronicle als Holocaustleugner und aggressiver Antisemit. Kate Mulgrew ist auch nicht die Einzige, die sich durch Sungenis‘ Machwerk benutzt fühlt, denn in dem Film verbaut er auch noch viele aus dem Zusammenhang gerissene Schnipsel aus Interviews prominenter, seriöser Physiker wie Michio Kaku und ausgerechnet Skeptiker- und Atheisten-Ikone Lawrence Krauss, um seine absurden Vorstellungen zu untermauern.

principle_trailer_krauss

Krauss fand dazu dann auch deutliche Worte und erklärte, Sungenis‘ Thesen als Unsinn zu bezeichnen, sei eine Beleidigung für das Wort Unsinn. Krauss meinte auch, man solle den Film einfach nicht mehr erwähnen, aber den Gefallen kann ich ihm an dieser Stelle leider nicht tun. Michio Kaku hat sich meines Wissens nicht ausdrücklich zu The Principle geäußert, aber der ist auch Kummer gewohnt: Seine populärwissenschaftichen Darstellungen werden regelmäßig in absurder Weise missbraucht, mal als Gottesbeweis, mal als Argument für die nutzlose und in hohen Dosen gefährliche Einnahme von kolloidalem Silber, mal von Vertretern der (angeblich) alt-hawaiianischen Huna-Lehre oder von Schamanen, und ein anderes Mal wird eins seiner Bücher von einer Geistheilerschule empfohlen. Vielleich ist der Kummer auch nicht ganz so groß, wenn er dadurch ein paar Bücher mehr verkauft…

In bester Quantenquark-Manier beruft sich Sungenis mit seiner Erde als Mittelpunkt des Universums ausgerechnet auf die Relativitätstheorie. Nach der Relativitätstheorie könne man ja jeden beliebigen Punkt im Universum als stillstehend ansehen und alle anderen relativ zu diesem betrachten. Das ist tatsächlich schon wesentlich älter als die Relativitätstheorie, nämlich eine Konsequenz des Relativitätsprinzips, das noch auf Galileo zurückgeht: Für jeden gleichförmig bewegten (also nicht beschleunigten) Beobachter gilt die gleiche Physik. Jeder rechnet in seinem eigenen Bezugssystem, es kommt aber am Ende immer das gleiche heraus. Nach der allgemeinen Relatitivitätstheorie gilt das sogar für Punkte auf der Erde, die sich ja nicht gleichförmig bewegen, weil die Erde um ihre eigene Achse und um die Sonne kreist (wenn man Herrn Sungenis nicht glaubt). Sungenis folgert daraus offenbar, seine Vorstellung von der Erde als Mitte des Universums sei dadurch bestätigt – schließlich könne nach der allgemeinen Relativitätstheorie jeder Punkt der Mittelpunkt des Universums sein, also auch die Erde. Tatsächlich ergibt sich aus der allgemeinen Relativitätstheorie aber nicht, dass man sich einen Mittelpunkt aussuchen kann, sondern dass alle Punkte gleichberechtigt sind, es also keinen Mittelpunkt geben kann.

Kate Mulgrew kann einem tatsächlich leid tun für den Job, den sie da angenommen hat. Nun muss man aber sagen, Kate Mulgrew ist eben nicht Captain Janeway, sondern eine relativ beliebige Filmschauspielerin. Wenn sie sich in den letzten Jahren überhaupt öffentlich über Dinge des wirklichen Lebens geäußert hat, dann ging es meistens um Alzheimer oder um ihr öffentliches Engagement bei den amerikanischen Abtreibungsgegnern.

Ein wenig anders ist das bei ihrem Kapitänskollegen von der zweiten Enterprise, Patrick Stewart alias Jean-Luc Picard. Stewart ist nicht nur Ritter des British Empire, ehemaliger Oxford-Professor und Vorgänger von Prince Andrew als Kanzler der Universität Huddersfield. Er ist definitiv eine Person des öffentlichen Lebens, dessen Äußerungen zum Leben, dem Universum und überhaupt von vielen Menschen sehr ernst genommen werden. Es wird berichtet, wenn er über Donald Trump twittert, ein Video über das britische Verhältnis zur europäischen Menschenrechtskonvention verbreitet, sich über Konflikte zwischen Schwulenrechten und Meinungsfreiheit äußert oder wenn er einfach nur meint, Politiker sollten mehr Star Trek sehen (seine Begründung dafür ist übrigens genau der Grund, warum ich Next Generation immer eher langweilig fand).

Um so interessanter ist, dass es offenbar kaum jemanden beschäftigt, dass ihm in diesem Jahr der gleiche Blödsinn passiert ist wie zwei Jahre vorher Kate Mulgrew: Er hat seine Stimme als Sprecher für einen pseudowissenschaftlichen Dokumentarfilm verkauft. Anders als damals für The Principle wird für The Connected Universe sogar ausdrücklich mit der Beteiligung von Patrick Stewart geworben. Der Regisseur beruft sich auch noch auf Stewarts angeblich so große Erfahrung mit den Fragen, um die es in dem Film geht.

Der Film glorifiziert die angeblich bahnbrechenden Erkenntnisse des fragwürdigen Physikers Nassim Haramein. Das ist genau der Nassim Haramein, von dem ich schon im Oktober hier geschrieben hatte, er sei mal einen eigenen Artikel wert. Haramein sollte nämlich eigentlich am 22. Oktober in Gießen beim „WiR-Kongress“ auftreten, und zwar in höchst illustrer Gesellschaft: Zu den anderen angekündigten Rednern gehörten  Jo Conrad, der auch schon mal alle Reichsbürger Deutschlands zu einer gemeinsamen Konferenz eingeladen hat, der oberste Souverän des Königreichs Deutschland Peter Fitzek (der ohnehin nicht hätte kommen können, weil er immer noch wegen verschwundener 1,3 Millionen im Knast sitzt) und Franz Hörmann, der als Professor an der WU Wien wegen „fragwürdiger Äußerungen zum Holocaust“ suspendiert war. Hörmann könnte auch Fitzeks Problem lösen, denn er erklärt in einem ganz ernsten Interview, wenn wir das Geld nicht abschaffen, werden wir von Außerirdischen auf einen anderen Planeten versetzt. Er hatte sich bestimmt schon auf einen anderen Sprecher gefreut, Rick Simpson, der meint, Hanf heile so ziemlich alles… Die Website mit der Rednerliste der Konferenz ist leider nicht archiviert, aber ich habe da noch einen Screenshot vom 12.8.2016:

wir-kongress

Die Veranstaltung wurde von der Kongresshalle Gießen abgesagt, nachdem wir mit den Aktionstagen gegen geistige Brandstiftung angefangen hatten, öffentlich darüber zu informieren. Haramein musste sich dann mit einem wesentlich kleineren Rahmen beim „4. Kongress für Grenzwissenschaften“ in einer Saarbrücker Turnhalle bescheiden. Eine Woche vorher hatte Haramein auch noch in Sarajevo einen gemeinsamen Auftritt mit dem Unsinns-Archäologen Semir Osmanagic, der behauptet, ein bosnischer Berg sei in Wirklichkeit eine steinzeitliche Pyramide mit heilenden Kräften.

Dass jemand zusammen mit Pseudowissenschaftlern, Verschwörungstheoretikern, Reichsbürgern und Alien-Gläubigen auftritt, heißt natürlich noch nicht automatisch, dass seine eigenen Vorstellungen von Physik falsch sind. Naja, glaubwürdiger wird er dadurch natürlich auch nicht… Es lohnt sich also schon ein kritischer Blick auf die Physik, die Haramein und sein Film so verbreiten.

Kernthema des Films ist mal wieder die altbekannte Floskel, nach der modernen Physik sei „alles mit allem verbunden“. Das wäre es ja eigentlich viel eher nach der klassischen Physik, nach der man ja im Prinzip alles vorausberechnen könnte, wenn man nur genug Informationen hätte. Die Quantenmechanik mit ihren Zufallsanteilen bei jeder Messung macht hingegen genau das unmöglich. Die typische Argumentation, warum nach der Quantenmechanik alles mit allem zusammenhinge, beruft sich normalerweise auf die Verschränkung, zu der ich hier und hier schon etwas mehr geschrieben habe. Über die Verschränkung können einzelne Teilchen oder kleine, ultrakalte Teilchensysteme einen gemeinsamen Zustand bilden, solange sie vollständig von der Außenwelt abgeschlossen sind. Da alles irgendwann mit der Außenwelt in Kontakt tritt, bevor es uns in irgendeiner Weise betrifft, und die Verschränkungen damit verschwinden, ergibt sich daraus eben gerade nicht, dass alles mit allem zusammenhinge.

Haramein lässt sich zusätzlich zur Verschränkung allerdings noch etwas besonderes einfallen: Bei Haramein sind die Protonen in allen Atomkernen durch sogenannte Wurmlöcher verbunden, wodurch ein globales Bewusstsein entsteht, das er als spacememory bezeichnet. Wurmlöcher sind rechnerisch denkbare Lösungen in der allgemeinen Relativitätstheorie, nach denen zwei entfernte Punkte in Raum und Zeit sozusagen durch eine Abkürzung in einer höheren Dimension miteinander verbunden sein könnten. Wurmlöcher sind ein beliebtes Thema in der Science Fiction – nur dummerweise gibt es keinerlei experimentelle Hinweise darauf, dass so etwas tatsächlich existieren könnte. Ausschließen kann man es auch nicht, aber zumindest größere Wurmlöcher müssten ziemlich selten sein, um nirgends im sichtbaren Universum beobachtbare Effekte zu erzeugen.

Diese Ideen hat Haramein sogar in einer wissenschaftlichen Zeitschrift veröffentlicht – allerdings nicht etwa in einer Zeitschrift über Physik, sondern in Neuroquantology, einer eher grenzwissenschafltichen Zeitschrift, die sich mit Quanteneffekten in der Neurowissenschaft beschäftigt. Es gibt dort einen sogenannten Peer Review (die Artikel werden also von Fachleuten begutachtet), aber zumindest die Mitglieder des Advisory Boards (zu denen kaum Physiker gehören) sind selbst alle in hochgradig spekulativen Themen unterwegs, und die wenigsten dürften in der Lage sein, Harameins Abhandlungen über das Innenleben schwarzer Löcher zu folgen. Falls sich die Reviewer der Zeitschrift aus einem solchen Kreis rekrutieren, ist wenig ernsthafte Kritik an seiner physikalischen Argumentation zu erwarten. Der Herausgeber der Zeitschrift ist ein Assistenzprofessor für Medizin aus Izmir, und nach einer in Wikipedia zitierten Auswertung des wissenschaftlichen Zitiertwerdens (dem sogenannten Impact Factor) gehört die Zeitschrift zu den 5 Prozent der unbedeutendsten Fachblätter in der Neurowissenschaft.

Der Artikel selbst ist in seinen Kernaussagen bloße Spekulation und stellt eine Reihe von rein qualitativen Behauptungen auf, die dann als „Modell“ bezeichnet werden. Wie dieses „Modell“ experimentell getestet werden könnte, wird mit keinem Wort erwähnt. Stattdessen zitiert der Artikel massenweise Ähnlichkeiten zu anderen Konzepten, die entweder reichlich fragwürdig sind, wie die Ideen von Stuart Hameroff zur Quantenkommunikation von Zellen oder völlig abwegig wie Rupert Sheldrakes angebliche Erkenntnisse zur Telepathie. Ähnlichkeiten sind überhaupt ein zentraler Punkt der Argumentation des Artikels. Dazwischen werden zwei Themen (Harameins Vorstellungen zum Aufbau von Protonen und vermutete Quanteneffekte in Skelettstrukturen lebender Zellen) in großer fachlicher Tiefe beschrieben. Darüber verliert man beim Lesen leicht den Überblick, dass diese beiden Passagen logisch in keiner Weise begründen, dass das, was vorher mit den Worten „es könnte sein, dass“ eingeführt wurde, hinterher wie eine gesicherte Erkenntnis behandelt wird.

Im Kern von Harameins Argumentation steht seine Vorstellung, die er schon vorher publiziert hat, Protonen seien in Wirklichkeit schwarze Löcher.  Damit erklärt er die starke Kernkraft, die Atomkerne und ihre Bestandteile wie Protonen zusammenhält, als einen Effekt der Schwerkraft, was eigentlich eine charmante Idee ist. Harameins Problem ist, ein Proton müsste dazu ca. 100.000.000.000.000.000.000.000.000.000.000.000.000 schwerer sein als es tatsächlich ist. Außerdem basiert sein gesamtes Modell fast ausschließlich auf der allgemeinen Relativitätstheorie, ignoriert aber ganz grundlegende Erkenntnisse der Quantenmechanik. Seine Versuche, sich aus diesem Problem herauszuwinden, sind zur Hälfte unlogisch und zur anderen Hälfte trivial und ohne Bezug zur eigentlichen Frage. Veröffentlicht hat er das im Sammelband der Vorträge einer Konferenz der Amerikanischen Physikalischen Gesellschaft über Programmierung zur künstlichen Intelligenz. Was Harameins Protonenmodell mit dem Thema der Konferenz zu tun hat, ist mir ein Rätsel, aber die Teilnahme lieferte ihm natürlich eine wissenschaftliche Veröffentlichung in einem seriös erscheinenden Medium. Harameins nächste „wissenschaftliche“ Veröffentlichung erfolgte dann in einer in Indien basierten Zeitschrift, bei der die Autoren für die Veröffentlichung bezahlen. Leider finden sich nur wenige kompetente Physiker, die sich die Mühe machen, Harameins Arbeiten detailliert auseinanderzunehmen.

In gewisser Weise ist Haramein ein gutes Beispiel dafür, warum Wissenschaftler eine solide Ausbildung brauchen und, gerade in der Physik, normalerweise in Gruppen arbeiten und einen intensiven Austausch mit kritischen Fachkollegen pflegen. Haramein hat offenbar die Voraussetzungen für einen ordentlichen theoretischen Physiker. Er kennt (und versteht anscheinend auch) wichtige Theorien, hat originelle Ideen für neue Modellierungen, setzt diese mathematisch um und schreibt Artikel, die den formalen Kriterien entsprechen. Dazwischen finden sich aber immer wieder absurde Gedankensprünge, Argumentationen, die sich im Kreis drehen, das völlige Ignorieren experimentell belegter Erkenntnisse, Rückgriffe auf uralte, längst nicht mehr haltbare Ansätze und das Zitieren von extremen Außenseiterideen, deren Wissenschaftlichkeit fragwürdig ist. Genau diese Probleme würden bei einem „normal“ arbeitenden Wissenschaftler schon im informellen Austausch innerhalb des eigenen Instituts von Kollegen angesprochen und könnten beseitigt werden. Spätestens in der kritischen Diskussion mit Fachkollegen auf speziellen Konferenzen zum eigenen Spezialgebiet oder im Reviewverfahren einer etablierten Fachzeitschrift zu diesem Spezialgebiet würde jemand den Finger in die Wunde legen.

Harameins Arbeit ist letztlich ein Ergebnis von zwei Generationen wissenschaftlichen Einzelgängertums. Eine Doktorarbeit hat Haramein offenbar nie verfasst, und aus seiner „vollständigen Biographie“ ist nicht zu erkennen, ob er ein Studium abgeschlossen hat. Stattdessen veröffentlichte er vor etwa 15 Jahren seine ersten Arbeiten gemeinsam mit Elizabeth Rauscher, die selbst zwar an renommierten Instituten begonnen hat, aber schon seit ihrer Promotion 1978 überwiegend an ihrem eigenen Tecnic Research Laboratory gearbeitet und sich dort mit allerlei umstrittenen Themen beschäftigt hat. Nach der Zeit mit Rauscher hatte Haramein sein eigenes Hawaii Institute of Unified Physics, das den Veröffentlichungen nach die meiste Zeit aus ihm allein bestanden hat. Der daraus resultierende Quantenquark ist sehr bedauerlich, denn mit einer soliden Ausbildung und der Einbindung in die Strukturen echter wissenschaftlicher Arbeit hätte aus Haramein durchaus etwas werden können.

Die Versuche, die ganze Physik aus der Weiterentwicklung der allgemeinen Relativitätstheorie zu erklären bis hin zu Details der Vorgehensweise, das Einzelgängertum und die Veröffentlichungen gerade da, wo sie nicht verstanden werden, erinnern deutlich an einen anderen Helden der Esoterikszene: den deutschen Nachkriegsphysiker Burkhard Heim. Mit Heims tragischem Leben und seiner fragwürdigen wissenschaftlichen Hinterlassenschaft werde ich mich ausführlich in einem Vortrag auf der SkepKon vom 29. April bis 1. Mai 2017 in Berlin beschäftigen.

Das alles muss ein Schauspieler vor einer wahrscheinlich nur mäßig bezahlten Sprecherrolle natürlich nicht unbedingt recherchieren, aber von Captain Picard hätte man irgendwie erwartet, dass er sich wenigstens über das informiert, was per Google in fünf Minuten zu finden gewesen wäre. Der ehemalige Kanzler einer Universität hätte vielleicht sogar zehn Minuten investieren dürfen.

Da bleibt mir persönlich als Trost nur, dass für mich ja ohnehin nie etwas über die erste Enterprise-Serie ging. Leonard Nimoy (Commander Spock) war mir vielleicht ein bisschen zu religiös, aber immerhin auf progressive ArtNichelle Nichols (Lieutenant Uhura) hat sich viele Jahre dafür engagiert, Frauen und Angehörige von Minderheiten für die Arbeit in der Weltraumforschung zu gewinnen und steht nach einem Schlaganfall mit 83 Jahren wieder vor der Kamera. George Takei (Lieutenant Sulu) ist bis heute in den sozialen Netzwerken ein engagierter Streiter für die Wissenschaft. Und William Shatner (Captain Kirk)… ist eben William Shatner.